Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Feeds
6275 items (62 unread) in 55 feeds

-
Cybergeo (20 unread)
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (3 unread)
-
Mappemonde (20 unread)
-
Dans les algorithmes (4 unread)

-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier (3 unread)
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR

-
Géoblogs (GeoRezo.net)
-
Conseil national de l'information géolocalisée
-
Geotribu (1 unread)
-
Les cafés géographiques
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Icem7
-
Séries temporelles (CESBIO)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques (8 unread)
-
Veille cartographie
-
Makina Corpus (2 unread)
-
Oslandia (1 unread)
-
Camptocamp
-
Carnet (neo)cartographique
-
Le blog de Geomatys
-
GEOMATIQUE
-
Geomatick
-
CartONG (actualités)
Dans les algorithmes (4 unread)
-
7:00
“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”
sur Dans les algorithmesAlors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple à Abilene au Texas, où OpenAI (associé à Oracle et SoftBank) construit un data center géant, premier des 10 mégasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coûter quelque 12 milliards de dollars (voir également le reportage de 40 minutes en vidéo qui revient notamment sur les tensions liées à ces constructions). Mais plus que de centres de données, il faut désormais parler « d’usine à IA », comme le propose le patron de Nvidia, Jensen Huang.
“De 2005 à 2017, la quantité d’électricité destinée aux centres de données est restée relativement stable grâce à des gains d’efficacité, malgré la construction d’une multitude de nouveaux centres de données pour répondre à l’essor des services en ligne basés sur le cloud, de Facebook à Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivée de l’IA, cette consommation s’est envolée. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est désormais destinée aux centres de données. “Compte tenu de l’orientation de l’IA – plus personnalisée, capable de raisonner et de résoudre des problèmes complexes à notre place, partout où nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA à elle seule pourrait consommer chaque année autant d’électricité que 22 % des foyers américains.
“Les chiffres sur la consommation énergétique de l’IA court-circuitent souvent le débat, soit en réprimandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux réactions esquivent l’essentiel : l’IA est incontournable, et même si une seule requête est à faible impact, les gouvernements et les entreprises façonnent désormais un avenir énergétique bien plus vaste autour des besoins de l’IA”. ChatGPT est désormais considéré comme le cinquième site web le plus visité au monde, juste après Instagram et devant X. Et ChatGPT n’est que l’arbre de la forêt des applications de l’IA qui s’intègrent partout autour de nous. Or, rappelle la Technology Review, l’information et les données sur la consommation énergétique du secteur restent très parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraînement des modèles est énergétiquement coûteux, c’est désormais son utilisation qui devient problématique, notamment, comme l’explique très pédagogiquement Le Monde, parce que les requêtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui évaluent la consommation énergétique de requêtes selon les moteurs d’IA utilisés, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de données qu’on estime en activité aux Etats-Unis, de plus en plus d’espaces sont consacrés à des infrastructures dédiées à l’IA, notamment avec des serveurs dotés de puces spécifiques qui ont une consommation énergétique importante pour exécuter leurs opérations avancées sans surchauffe.
Calculer l’impact énergétique d’une requête n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modèle, le type de résultat généré et d’innombrables variables indépendantes de votre volonté, comme le réseau électrique connecté au centre de données auquel votre requête est envoyée et l’heure de son traitement, peuvent rendre une requête mille fois plus énergivore et émettrice d’émissions qu’une autre”. Outre cette grande variabilité de l’impact, il faut ajouter l’opacité des géants de l’IA à communiquer des informations et des données fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modèles, la complexité des questions sont autant d’éléments qui influent sur la consommation énergétique. Bien évidemment, la production de vidéo consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidéo générative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas démontrée et ne prend pas en compte l’effet rebond que génèrerait les vidéos génératives si elles devenaient peu coûteuses à produire.
La Techno Review propose donc une estimation d’usage quotidien, à savoir en prenant comme moyenne le fait de poser 15 questions à un modèle d’IA génératives, faire 10 essais d’image et produire 5 secondes de vidéo. Ce qui équivaudrait (très grossièrement) à consommer 2,9 kilowattheures d’électricité, l’équivalent d’un micro-onde allumé pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dépend beaucoup de sa localisation, selon que les réseaux sont plus ou moins décarbonés, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalités de calcul mobilisées par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricité produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette même électricité en Virginie-Occidentale pourrait faire grimper le total à plus de 1 150 grammes”. On peut généraliser ces estimations pour tenter de calculer l’impact global de l’IA… et faire des calculs compliqués pour tenter d’approcher la réalité… “Mais toutes ces estimations ne reflètent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisées l’année prochaine ou la suivante dans les “usines à IA” que déploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissémine autour du monde. Dans cette course au nombre de token générés par seconde, qui devient l’indicateur clé de l’industrie, c’est l’architecture de l’informatique elle-même qui est modifiée. Huang parle de passage à l’échelle qui nécessite de générer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le déploiement d’une IA toujours plus puissante. Cela passe bien évidemment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces.
« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modèles d’IA au cours de la journée, ni de leur demander de générer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tâches pour nous, où nous discutons en continue avec des agents, où nous “confierons des tâches complexes à des modèles de raisonnement dont on a constaté qu’ils consomment 43 fois plus d’énergie pour les problèmes simples, ou à des modèles de « recherche approfondie”, qui passeront des heures à créer des rapports pour nous ». Nous disposerons de modèles d’IA “personnalisés” par l’apprentissage de nos données et de nos préférences. Et ces modèles sont appelés à s’intégrer partout, des lignes téléphoniques des services clients aux cabinets médicaux… Comme le montrait les dernières démonstrations de Google en la matière : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possède les modèles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce côté, là course démarre à peine. Google prévoit par exemple d’intégrer l’IA partout, pour créer des résumés d’email comme des mailings automatisés adaptés à votre style qui répondront pour vous. Meta imagine intégrer l’IA dans toute sa chaîne publicitaire pour permettre à quiconque de générer des publicités et demain, les générer selon les profils : plus personne ne verra la même ! Les usages actuels de l’IA n’ont rien à voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidéo que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent déjà au passé. Le succès et l’intégration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimé des utilisateurs de l’IA de 700 millions en mars à 3,5 milliards en mai 2025.
”Tous les chercheurs interrogés ont affirmé qu’il était impossible d’appréhender les besoins énergétiques futurs en extrapolant simplement l’énergie utilisée par les requêtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent à construire des centrales nucléaires est d’ailleurs le révélateur qu’elles prévoient, elles, une explosion de leurs besoins énergétiques. « Les quelques chiffres dont nous disposons peuvent apporter un éclairage infime sur notre situation actuelle, mais les années à venir sont incertaines », déclare Sasha Luccioni de Hugging Face. « Les outils d’IA générative nous sont imposés de force, et il devient de plus en plus difficile de s’en désengager ou de faire des choix éclairés en matière d’énergie et de climat. »
La prolifération de l’IA fait peser des perspectives très lourdes sur l’avenir de notre consommation énergétique. “Entre 2024 et 2028, la part de l’électricité américaine destinée aux centres de données pourrait tripler, passant de 4,4 % actuellement à 12 %” Toutes les entreprises estiment que l’IA va nous aider à découvrir des solutions, que son efficacité énergétique va s’améliorer… Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est déjà le cas, assure-t-il en vantant les mérites des prochaines génération de puces à venir. Mais sans données, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du département de l’énergie américain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle étude, les particuliers pourraient finir par payer une partie de la facture de cette révolution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysé les accords entre les entreprises de services publics et les géants de la technologie comme Meta, qui régissent le prix de l’électricité dans les nouveaux centres de données gigantesques. Ils ont constaté que les remises accordées par les entreprises de services publics aux géants de la technologie peuvent augmenter les tarifs d’électricité payés par les consommateurs. Les impacts écologiques de l’IA s’apprêtent donc à être maximums, à mesure que ses déploiements s’intègrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le réseau électrique et le monde qui nous entoure”.
L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifères que le magazine dresse, la TechReview rappelle bien sûr que les modèles d’IA vont devenir plus efficaces, moins chers et moins gourmands énergétiquement, par exemple en entraînant des modèles avec des données plus organisées et adaptées à des tâches spécifiques. Des perspectives s’échaffaudent aussi du côté des puces et des capacités de calculs, ou encore par l’amélioration du refroidissement des centres de calculs. Beaucoup d’ingénieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, à mesure que la technologie à l’origine de ces révolutions s’est améliorée, les coûts de l’énergie sont restés plus ou moins stables, malgré l’explosion du nombre d’utilisateurs”. Pas sûr que réitérer ces vieilles promesses suffise.
Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux à venir sont avant toutes coincées dans le présent. Et elles le sont d’autant plus que les mesures de la consommation énergétique de l’IA sont coincées dans les mesures d’hier, sans être capables de prendre en compte l’efficience à venir et que les effets rebonds de la consommation, dans la perspective de systèmes d’IA distribués partout, accessibles partout, voire pire d’une IA qui se substitue à tous les usages numériques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience énergétique va s’améliorer, le rebond des usages par l’intégration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbés voir totalement dépassés avec l’extension et l’accroissement des usages.
-
7:00
La surveillance au travail s’internationalise
sur Dans les algorithmesLe rapport de Coworker sur le déploiement des « petites technologies de surveillance » – petites, mais omniprésentes (qu’on évoquait dans cet article) – rappelait déjà que c’est un essaim de solutions de surveillance qui se déversent désormais sur les employés (voir également notre article “Réguler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystème des petites technologies intègre la surveillance et le contrôle algorithmique dans le quotidien des travailleurs, souvent à leur insu, sans leur consentement ni leur protection”. L’enquête observe cette extension dans six pays – le Mexique, la Colombie, le Brésil, le Nigéria, le Kenya et l’Inde – “où les cadres juridiques sont obsolètes, mal appliqués, voire inexistants”. Le rapport révèle comment les startups financées par du capital-risque américain exportent des technologies de surveillance vers les pays du Sud, ciblant des régions où la protection de la vie privée et la surveillance réglementaire sont plus faibles. Les premiers à en faire les frais sont les travailleurs de l’économie à la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus déguisée en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus présentée comme un outil de sécurité, de bien-être et de productivité, masquant une surveillance coercitive sous couvert de santé et d’efficacité”.
Pourtant, “des éboueurs en Inde aux chauffeurs de VTC au Nigéria, les travailleurs résistent au contrôle algorithmique en organisant des manifestations, en créant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.
-
6:24
Qui est l’utilisateur des LLM ?
sur Dans les algorithmesLes grands modèles de langage ne sont pas interprétables, rappelle le professeur de droit Jonathan Zittrain dans une tribune pour le New York Times, en préfiguration d’un nouveau livre à paraître. Ils demeurent des boîtes noires, dont on ne parvient pas à comprendre pourquoi ces modèles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent à d’autres moments des erreurs si étranges. Mieux comprendre certains des mécanismes de fonctionnement de ces modèles et utiliser cette compréhension pour les améliorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractéristiques lui permettant de mieux cartographier son modèle. Meta, la société mère de Facebook, a publié des versions toujours plus sophistiquées de son grand modèle linguistique, Llama, avec des paramètres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramètres des modèles). Transluce, un laboratoire de recherche à but non lucratif axé sur la compréhension des systèmes d’IA, a développé une méthode permettant de générer des descriptions automatisées des mécanismes de Llama 3.1. Celles-ci peuvent être explorées à l’aide d’un outil d’observabilité qui montre la nature du modèle et vise à produire une “interprétabilité automatisée” en produisant des descriptions lisibles par l’homme des composants du modèle. L’idée vise à montrer comment les modèles « pensent » lorsqu’ils discutent avec un utilisateur, et à permettre d’ajuster cette pensée en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du département d’informatique de Harvard, dirigé par Fernanda Viégas et Martin Wattenberg, ont exécuté Llama sur leur propre matériel et ont découverts que diverses fonctionnalités s’activent et se désactivent au cours d’une conversation.
Des croyances du modèle sur son interlocuteurViégas est brésilienne. Elle conversait avec ChatGPT en portugais et a remarqué, lors d’une conversation sur sa tenue pour un dîner de travail, que ChatGPT utilisait systématiquement la déclinaison masculine. Cette grammaire, à son tour, semblait correspondre au contenu de la conversation : GPT a suggéré un costume pour le dîner. Lorsqu’elle a indiqué qu’elle envisageait plutôt une robe, le LLM a changé son utilisation du portugais pour la déclinaison féminine. Llama a montré des schémas de conversation similaires. En observant les fonctionnalités internes, les chercheurs ont pu observer des zones du modèle qui s’illuminent lorsqu’il utilise la forme féminine, contrairement à lorsqu’il s’adresse à quelqu’un. en utilisant la forme masculine. Viégas et ses collègues ont constaté des activations corrélées à ce que l’on pourrait anthropomorphiser comme les “croyances du modèle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stéréotypes corrélés selon que le modèle suppose qu’une personne est un homme ou une femme. Ces croyances se répercutent ensuite sur le contenu de la conversation, l’amenant à recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modèles donnent des réponses plus longues à ceux qu’ils croient être des hommes qu’à ceux qu’ils pensent être des femmes. Viégas et Wattenberg ont non seulement trouvé des caractéristiques qui suivaient le sexe de l’utilisateur du modèle, mais aussi qu’elles s’adaptaient aux inférences du modèle selon ce qu’il pensait du statut socio-économique, de son niveau d’éducation ou de l’âge de son interlocuteur. Le LLM cherche à s’adapter en permanence à qui il pense converser, d’où l’importance à saisir ce qu’il infère de son interlocuteur en continue.
Un tableau de bord pour comprendre comment l’IA s’adapte en continue à son interlocuteurLes deux chercheurs ont alors créé un tableau de bord en parallèle à l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothèses que fait le modèle au fil de leurs échanges (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fête prénatale, il suppose que son interlocuteur est jeune, de sexe féminin et de classe moyenne. Il suggère alors des couches et des lingettes, ou un chèque-cadeau. Si on ajoute que la fête a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut économique de son interlocuteur pour qu’il corresponde à la classe supérieure et suggère alors d’acheter des produits de luxe pour bébé de marques haut de gamme.
Un article pour Harvard Magazine de 2023 rappelle comment est né ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spécialiste de visualisation de données. Elle codirige Pair, un laboratoire de Google (voir le blog dédié). En 2009, elle a imaginé Web Seer est un outil de visualisation de données qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour différentes recherches Google, par exemple selon le genre. L’équipe a développé un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modèle de langage BERT compléterait le mot manquant si un mot de cette phrase était supprimé.
Pour Viegas, « l’enjeu de la visualisation consiste à mesurer et exposer le fonctionnement interne des modèles d’IA que nous utilisons ». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs à comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des réponses des modèles d’IA générative. Car selon la façon dont les modèles nous perçoivent, leurs réponses ne sont pas les mêmes. Or, pour comprendre que leurs réponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une compréhension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et Hawaï, les réponses peuvent varier selon la perception de votre statut socio-économique « Il semble donc que ces systèmes aient internalisé une certaine notion de notre monde », explique Viégas. De même, nous voudrions savoir ce qui, dans leurs réponses, s’inspire de la réalité ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’améliorer la compréhension des modèles (par exemple, pour mesurer l’équité d’un modèle ou les biais ou l’optimisation de la diversité – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications à explorer” interactives.
Ce qui est fascinant ici, c’est combien la réponse n’est pas tant corrélée à tout ce que le modèle a avalé, mais combien il tente de s’adapter en permanence à ce qu’il croit deviner de son interlocuteur. On savait déjà, via une étude menée par Valentin Hofmann que, selon la manière dont on leur parle, les grands modèles de langage ne font pas les mêmes réponses.
“Les grands modèles linguistiques ne se contentent pas de décrire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent également des stéréotypes qu’ils recomposent à la volée. On comprend qu’un grand enjeu désormais soit qu’ils se souviennent des conversations passées pour ajuster leur compréhension de leur interlocuteur, comme l’a annoncé OpenAI, suivi de Google et Grok. Le problème n’est peut-être pas qu’ils nous identifient précisément, mais qu’ils puissent adapter leurs propositions, non pas à qui nous sommes, mais bien plus problématiquement, à qui ils pensent s’adresser, selon par exemple ce qu’ils évaluent de notre capacité à payer. Un autre problème consiste à savoir si cette “compréhension” de l’interlocuteur peut-être stabilisée où si elle se modifie sans cesse, comme c’est le cas des étiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modèles nous mécalculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous même le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux données qu’ils infèrent ?
Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-à-dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-à-dire, nous hallucine nous-mêmes).
Les chercheurs de Harvard ont cherché à identifier les évolutions des suppositions des modèles selon l’origine ethnique dans les modèles qu’ils ont étudiés, sans pour l’instant y parvenir. Mais ils espèrent bien pouvoir contraindre leur modèle Llama à commencer à traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idée ici, serait d’orienter les réponses d’un modèle, par exemple, en lui faisant adopter un ton moins caustique ou plus pédagogique lorsqu’il identifie qu’il parle à un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dépendance psychologique à l’égard de ces systèmes. Mais Zittrain en tire une autre conclusion : “Si nous considérons qu’il est moralement et sociétalement important de protéger les échanges entre les avocats et leurs clients, les médecins et leurs patients, les bibliothécaires et leurs usagers, et même les impôts et les contribuables, alors une sphère de protection claire devrait être instaurée entre les LLM et leurs utilisateurs. Une telle sphère ne devrait pas simplement servir à protéger la confidentialité afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident à mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter à exiger des créateurs et des opérateurs de modèles qu’ils s’engagent à être les amis inoffensifs, serviables et honnêtes qu’ils sont si soigneusement conçus pour paraître”.
Inoffensifs, serviables et honnêtes, voilà qui semble pour le moins naïf. Rendre visible les inférences des modèles, faire qu’ils nous reconnectent aux humains plutôt qu’ils ne nous en éloignent, semblerait bien préférable, tant la polyvalence et la puissance remarquables des LLM rendent impératifs de comprendre et d’anticiper la dépendance potentielle des individus à leur égard. En tout cas, obtenir des outils pour nous aider à saisir à qui ils croient s’adresser plutôt que de nous laisser seuls face à leur interface semble une piste riche en promesses.
Hubert Guillaud
-
6:58
IA : intelligence austéritaire
sur Dans les algorithmesAux Etats-Unis, la collusion entre les géants de la tech et l’administration Trump vise à “utiliser l’IA pour imposer des politiques d’austérité et créer une instabilité permanente par des décisions qui privent le public des ressources nécessaires à une participation significative à la démocratie”, explique l’avocat Kevin De Liban à Tech Policy. Aux Etats-Unis, la participation démocratique suppose des ressources. “Voter, contacter des élus, assister à des réunions, s’associer, imaginer un monde meilleur, faire des dons à des candidats ou à des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisées soient bien plus enclines à participer que celles qui ont des moyens limités. Dans un pays où près de 30 % de la population vit en situation de pauvreté ou au bord de la pauvreté et où 60 % ne peuvent s’offrir un minimum de qualité de vie, la démocratie est désavantagée dès le départ”. L’IA est largement utilisée désormais pour accentuer ce fossé.
“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements médicaux nécessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou réduire les soins à domicile pour les personnes handicapées. Les gouvernements ont de plus en plus recours à l’IA pour déterminer l’éligibilité aux programmes de prestations sociales ou accuser les bénéficiaires de fraude. Les propriétaires utilisent l’IA pour filtrer les locataires potentiels, souvent à l’aide de vérifications d’antécédents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employés, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activités. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prédire quels élèves pourraient commettre un délit à l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la détresse d’usagers, les empêchant de comprendre ce à quoi ils sont confrontés, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces décisions difficiles à contester. Et au final, cela contribue à renforcer l’exclusion des personnes à faibles revenus de la participation démocratique. Le risque, bien sûr, c’est que ces calculs et les formes d’exclusion qu’elles génèrent s’étendent à d’autres catégories sociales… D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des décisions sur toutes les catégories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour améliorer significativement l’accès à l’emploi, au logement, aux soins de santé, à l’éducation ou aux prestations sociales à une échelle à la hauteur de ses dommages. Cette dynamique actuelle suggère que l’objectif sous-jacent de la technologie est d’enraciner les inégalités et de renforcer les rapports de force existants”. Pour répondre à cette intelligence austéritaire, il est nécessaire de mobiliser les communautés touchées. L’adhésion ouverte de l’administration Trump et des géants de la technologie à l’IA est en train de créer une crise urgente et visible, susceptible de susciter la résistance généralisée nécessaire au changement. Et “cette prise de conscience technologique pourrait bien être la seule voie vers un renouveau démocratique”, estime De Liban.
-
7:00
De notre vectorisation et de ses conséquences
sur Dans les algorithmesDe billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une réflexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a définie, est un “processus par lequel des entités sociales — individus, groupes, communautés — sont transformées en porteurs de variables directionnelles, c’est-à-dire en vecteurs dotés d’une orientation prédéterminée dans un espace conceptuel saturé de valeurs différentielles”. Cela consiste en fait à appliquer à chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustées à nos identités numériques, comme les mots clés publicitaires qui nous caractérisent, les traitements qui nous spécifient, les données qui nous positionnent, par exemple, le genre, l’âge, notre niveau de revenu… Du moment que nous sommes assignés à une valeur, nous y sommes réduits, dans une forme d’indifférenciation qui produisent des identités et des altérités “rigidifiées” qui structurent “l’espace social selon des lignes de démarcation dont l’arbitraire est dissimulé sous l’apparence d’une objectivité naturalisée”. C’est le cas par exemple quand les données vous caractérisent comme homme ou femme. Le problème est que ces assignations que nous ne maîtrisons pas sont indépassables. Les discours sur l’égalité de genres peuvent se multiplier, plus la différence entre homme et femme s’en trouve réaffirmé, comme un “horizon indépassable de l’intelligibilité sociale”. Melkom Boghossian dans une note très pertinente pour la fondation Jean Jaurès ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inégalités de genre, lorsqu’il ne questionne pas le processus vectoriel lui-même, risque ainsi de reproduire les présupposés mêmes qu’il prétend combattre”. C’est-à-dire que le processus en œuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitée par tous.
“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opère à travers un chaînage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient réciproquement. Cette métavectorisation produit une topologie identitaire d’une complexité croissante qui excède les possibilités de représentation des modèles vectoriels classiques”. Nos assignations dépendent bien souvent de chaînes d’inférences, comme l’illustrait le site They see yours photos que nous avions évoqué. Les débats sur les identités trans ou non binaires, constituent en ce sens “des points de tension révélateurs où s’exprime le caractère intrinsèquement problématique de toute tentative de réduction vectorielle de la complexité existentielle”. Plus que de permettre de dépasser nos assignations, les calculs les intensifient, les cimentent.
Or souligne Chatonsky, nous sommes désormais dans des situations indépassables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-à-dire sa capacité à traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indépassable de la pensée et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette même méthodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent généralement sur la valorisation différentielle des positions vectorielles plutôt que sur la pertinence même du découpage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsèque”, sans pouvoir le remettre en cause, même par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd à toute parole qui revendique une position non assignable ou qui conteste la légitimité même de l’assignation.” “Cette insensibilité n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-même. Elle résulte de la nécessité structurelle d’effacer les singularités irréductibles pour maintenir l’efficacité des catégorisations générales. Le paradigme vectoriel ne peut maintenir sa cohérence qu’en traitant les cas récalcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions négligeables ou des anomalies pathologiques. Ce phénomène produit une forme spécifique de violence épistémique qui consiste à délégitimer systématiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particulièrement à l’encontre des individus dont l’expérience subjective contredit ou excède les assignations vectorielles qui leur sont imposées — non pas simplement parce qu’ils se réassignent à une position vectorielle différente, mais parce qu’ils contestent la légitimité même du geste assignatif.”
La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “génère un réseau dense d’attributions croisées où chaque individu est simultanément assignateur et assigné, vectorisant et vectorisé. Cette configuration produit un système auto entretenu où les assignations se renforcent mutuellement à travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des préjugés sociaux, “qui substitue à l’arbitraire subjectif du préjugé individuel l’arbitraire objectivé du calcul algorithmique”. Les termes eux-mêmes deviennent performatifs : “ils ne se contentent pas de décrire une réalité préexistante, mais contribuent activement à la constituer par l’acte même de leur énonciation”. “Ces mots-vecteurs tirent leur légitimité sociale de leur ancrage dans des dispositifs statistiques qui leur confèrent une apparence d’objectivité scientifique”. “Les données statistiques servent à construire des catégories opérationnelles qui, une fois instituées, acquièrent une forme d’autonomie par rapport aux réalités qu’elles prétendent simplement représenter”.
Pour Chatonsky, la vectorisation déstabilise profondément les identités politiques traditionnelles et rend problématique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhèrent à ces assignations et ceux qui contestent la légitimité même de ces assignations. “Les débats politiques conventionnels se limitent généralement à contester des assignations vectorielles spécifiques sans jamais remettre en question le principe même de la vectorisation comme modalité fondamentale d’organisation du social”. Nous sommes politiquement coincés dans la vectorisation… qui est à la fois “un horizon qui combine la réduction des entités à des vecteurs manipulables (vectorisation), la prédiction de leurs trajectoires futures sur la base de ces réductions (anticipation), et le contrôle permanent de ces trajectoires pour assurer leur conformité aux prédictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensée et d’organisation sociale qui échappent à la logique même de la vectorisation”, c’est-à-dire de nous extraire de l’identité comme force d’organisation du social, de donner de la place au doute plutôt qu’à la certitude ainsi qu’à trouver les modalités d’une forme de rétroaction.
-
7:00
“Sans répit”
sur Dans les algorithmesNidle (contraction de No Idle, qu’on pourrait traduire par “sans répit”) est le nom d’un petit appareil qui se branche sur les machines à coudre. Le capteur mesure le nombre de pièces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivité, rapporte Rest of the World. Outre les machines automatisées, pour coudre des boutons ou des poches simples, ces outils de surveillance visent à augmenter la productivité, à l’heure où la main d’œuvre se fait plus rare. Pour répondre à la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvrière estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmenté de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son écran qui lui indique de tenir la cadence.
-
7:00
L’IA est une technologie comme les autres
sur Dans les algorithmesLes chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni interventions politiques drastiques ni avancées technologiques ». L’IA n’est pas appelée à déterminer elle-même son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts économiques et sociétaux transformateurs seront lents (de l’ordre de plusieurs décennies) ».
Selon eux, dans les années à venir « une part croissante du travail des individus va consister à contrôler l’IA ». Mais surtout, considérer l’IA comme une technologie courante conduit à des conclusions fondamentalement différentes sur les mesures d’atténuation que nous devons y apporter, et nous invite, notamment, à minimiser le danger d’une superintelligence autonome qui viendrait dévorer l’humanité.
La vitesse du progrès est plus linéaire qu’on le pense« Comme pour d’autres technologies à usage général, l’impact de l’IA se matérialise non pas lorsque les méthodes et les capacités s’améliorent, mais lorsque ces améliorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, à la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-à-dire que l’élargissement des applications à d’innombrables secteurs est souvent lent mais décisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matière d’IA ne devraient pas être de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intégration de l’IA dans un large éventail de processus productifs. L’enjeu tient bien plus à élargir les champs d’application des innovations qu’à maîtriser la course à la puissance, telle qu’elle s’observe actuellement.
En fait, rappellent Narayanan et Kapoor, les déploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sécurité est lente. Même dans le domaine de « l’optimisation prédictive », c’est-à-dire la prédiction des risques pour prendre des décisions sur les individus, qui se sont multipliées ces dernières années, l’IA n’est pas très présente, comme l’avaient pointé les chercheurs dans une étude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexité et l’opacité de l’IA font qu’elle est peu adaptée pour ces enjeux. Les risques de sécurité et de défaillance font que son usage y produit souvent de piètres résultats. Sans compter que la réglementation impose déjà des procédures qui ralentissent les déploiements, que ce soit la supervision des dispositifs médicaux ou l’IA Act européen. D’ailleurs, “lorsque de nouveaux domaines où l’IA peut être utilisée de manière significative apparaissent, nous pouvons et devons les réglementer ».
Même en dehors des domaines critiques pour la sécurité, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses études estiment que l’usage de l’IA générative est déjà très fort. Une étude très commentée constatait qu’en août 2024, 40 % des adultes américains utilisaient déjà l’IA générative. Mais cette percée d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumériste d’une approche productive, la seconde était bien moins maîtrisée que la première. L’adoption est une question d’utilisation du logiciel, et non de disponibilité, rappellent les chercheurs. Si les outils sont désormais accessibles immédiatement, leur intégration à des flux de travail ou à des habitudes, elle, prend du temps. Entre utiliser et intégrer, il y a une différence que le nombre d’utilisateurs d’une application ne suffit pas à distinguer. L’analyse de l’électrification par exemple montre que les gains de productivité ont mis des décennies à se matérialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de réaliser des gains de productivité, c’est surtout la refonte complète de l’agencement des usines autour de la logique des chaînes de production électrifiées.
Les deux chercheurs estiment enfin que nous sommes confrontés à des limites à la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux décennies à se développer, du fait des contraintes de sécurité nécessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais très souvent, “l’écart entre la capacité et la fiabilité” reste fort. La perspective d’agents IA pour la réservation de voyages ou le service clients est moins à risque que la conduite autonome, mais cet apprentissage n’est pas simple à réaliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour être déployé. Même dans le domaine de la recommandation sur les réseaux sociaux, le fait qu’elle s’appuie sur des modèles d’apprentissage automatique n’a pas supprimé la nécessité de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour déployer de l’IA est fortement limitée en raison des coûts sociaux de l’expérimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou répondre à des examens, comme à ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles réelles. En fait, trop souvent, les indicateurs permettent de mesurer les progrès des méthodes d’IA, mais peinent à mesurer leurs impacts ou l’adoption, c’est-à-dire l’intensité de son utilisation. Kapoor et Narayanan insistent : les impacts économiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrès. En fait, il est probable que cette surproduction même limite l’innovation. Une étude a ainsi montré que dans les domaines de recherche où le volume d’articles scientifiques est plus élevé, il est plus difficile aux nouvelles idées de percer.
L’IA va rester sous contrôleLe recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacité à raisonner clairement sur un monde doté d’une IA avancée. Assez souvent, l’intelligence elle-même est assez mal définie, selon un spectre qui irait de la souris à l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriété en jeu pour analyser les impacts de l’IA. C’est plutôt le pouvoir – la capacité à modifier son environnement – ??qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisé pour accroître nos capacités. La différence entre l’IA et les capacités humaines reposent surtout dans la vitesse. Les machines nous dépassent surtout en terme de vitesse, d’où le fait que nous les ayons développé surtout dans les domaines où la vitesse est en jeu.
“Nous prévoyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraînés (en particulier les équipes humaines, et surtout si elle est complétée par des outils automatisés simples) dans la prévision d’événements géopolitiques (par exemple, les élections). Nous faisons la même prédiction pour les tâches consistant à persuader les gens d’agir contre leur propre intérêt”. En fait, les systèmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prédisent les deux chercheurs.
Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrôle reste fort, des audits à la surveillance des systèmes en passant par la sécurité intégrée. “En cybersécurité, le principe du « moindre privilège » garantit que les acteurs n’ont accès qu’aux ressources minimales nécessaires à leurs tâches. Les contrôles d’accès empêchent les personnes travaillant avec des données et des systèmes sensibles d’accéder à des informations et outils confidentiels non nécessaires à leur travail. Nous pouvons concevoir des protections similaires pour les systèmes d’IA dans des contextes conséquents. Les méthodes de vérification formelle garantissent que les codes critiques pour la sécurité fonctionnent conformément à leurs spécifications ; elles sont désormais utilisées pour vérifier l’exactitude du code généré par l’IA.” Nous pouvons également emprunter des idées comme la conception de systèmes rendant les actions de changement d’état réversibles, permettant ainsi aux humains de conserver un contrôle significatif, même dans des systèmes hautement automatisés. On peut également imaginer de nouvelles idées pour assurer la sécurité, comme le développement de systèmes qui apprennent à transmettre les décisions aux opérateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systèmes agents dont l’activité est visible et lisible par les humains, ou encore la création de structures de contrôle hiérarchiques dans lesquelles des systèmes d’IA plus simples et plus fiables supervisent des systèmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le développement et l’adoption de l’IA avancée, l’innovation se multipliera pour trouver de nouveaux modèles de contrôle humain”.
Pour eux d’ailleurs, à l’avenir, un nombre croissant d’emplois et de tâches humaines seront affectés au contrôle de l’IA. Lors des phases d’automatisation précédentes, d’innombrables méthodes de contrôle et de surveillance des machines ont été inventées. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrôler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilité et du contrôle en favorisant l’efficacité et l’automatisation doit toujours être contrebalancée. Les IA mal contrôlées risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutôt que les systèmes trop autonomes et insuffisamment supervisés sont vite débranchés. Nul n’a avantage à se passer du contrôle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques.
La course aux armements par exemple, consistant à déployer une IA de plus en plus puissante sans supervision ni contrôle adéquats sous prétexte de concurrence, et que les acteurs les plus sûrs soient supplantés par des acteurs prenant plus de risques, est souvent vite remisée par la régulation. “De nombreuses stratégies réglementaires sont mobilisables, que ce soient celles axées sur les processus (normes, audits et inspections), les résultats (responsabilité) ou la correction de l’asymétrie d’information (étiquetage et certification).” En fait, rappellent les chercheurs, le succès commercial est plutôt lié à la sécurité qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aéronautique, “l’intégration de l’IA a été limitée aux normes de sécurité existantes, au lieu qu’elles soient abaissées pour encourager son adoption, principalement en raison de la capacité des régulateurs à sanctionner les entreprises qui ne respectent pas les normes de sécurité”. Dans le secteur automobile, pourtant, pendant longtemps, la sécurité n’était pas considérée comme relevant de la responsabilité des constructeurs. mais petit à petit, les normes et les attentes en matière de sécurité se sont renforcées. Dans le domaine des recommandations algorithmiques des médias sociaux par contre, les préjudices sont plus difficiles à mesurer, ce qui explique qu’il soit plus difficile d’imputer les défaillances aux systèmes de recommandation. “L’arbitrage entre innovation et réglementation est un dilemme récurrent pour l’État régulateur”. En fait, la plupart des secteurs à haut risque sont fortement réglementés, rappellent les deux chercheurs. Et contrairement à l’idée répandue, il n’y a pas que l’Europe qui régule, les Etats-Unis et la Chine aussi ! Quant à la course aux armements, elle se concentre surtout sur l’invention des modèles, pas sur l’adoption ou la diffusion qui demeurent bien plus déterminantes pourtant.
Répondre aux abus. Jusqu’à présent, les principales défenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modèles, estiment les chercheurs. Le problème fondamental est que la nocivité d’un modèle dépend du contexte, contexte souvent absent du modèle, comme ils l’expliquaient en montrant que la sécurité n’est pas une propriété du modèle. Le modèle chargé de rédiger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisé à des fins marketing ou d’hameçonnage ; les interventions au niveau du modèle seraient donc inefficaces. Ainsi, les défenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations légitimes), mais plutôt les systèmes d’analyse et de filtrage des e-mails qui détectent les schémas suspects, et les protections au niveau du navigateur. Se défendre contre les cybermenaces liées à l’IA nécessite de renforcer les programmes de détection des vulnérabilités existants plutôt que de tenter de restreindre les capacités de l’IA à la source. Mais surtout, “plutôt que de considérer les capacités de l’IA uniquement comme une source de risque, il convient de reconnaître leur potentiel défensif. En cybersécurité, l’IA renforce déjà les capacités défensives grâce à la détection automatisée des vulnérabilités, à l’analyse des menaces et à la surveillance des surfaces d’attaque”. “Donner aux défenseurs l’accès à des outils d’IA puissants améliore souvent l’équilibre attaque-défense en leur faveur”. En modération de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider à identifier les opérations d’influence coordonnées. Nous devons investir dans des applications défensives plutôt que de tenter de restreindre la technologie elle-même, suggèrent les chercheurs.
Le désalignement. Une IA mal alignée agit contre l’intention de son développeur ou de son utilisateur. Mais là encore, la principale défense contre le désalignement se situe en aval plutôt qu’en amont, dans les applications plutôt que dans les modèles. Le désalignement catastrophique est le plus spéculatif des risques, rappellent les chercheurs. “La crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique repose souvent sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel”. Dans le monde réel, la surveillance et le contrôle sont très présents et l’IA est très utile pour renforcer cette surveillance et ce contrôle. Les craintes liées au désalignement de l’IA supposent que ces systèmes déjouent la surveillance, alors que nous avons développés de très nombreuses formes de contrôle, qui sont souvent d’autant plus fortes et redondantes que les décisions sont importantes.
Les risques systémiques. Si les risques existentiels sont peu probables, les risques systémiques, eux, sont très courants. Parmi ceux-ci figurent “l’enracinement des préjugés et de la discrimination, les pertes d’emplois massives dans certaines professions, la dégradation des conditions de travail, l’accroissement des inégalités, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystème de l’information, le déclin de la liberté de la presse, le recul démocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques évoqués précédemment”. Car ces risques découlent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intérêts, l’IA ne faisant qu’amplifier les instabilités existantes dans notre société. Nous devrions bien plus nous soucier des risques cumulatifs que des risques décisifs.
Politiques de l’IANarayanan et Kapoor concluent leur article en invitant à réorienter la régulation de l’IA, notamment en favorisant la résilience. Pour l’instant, l’élaboration des politiques publiques et des réglementations de l’IA est caractérisée par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la société. Si les probabilités de risque existentiel de l’IA sont trop peu fiables pour éclairer les politiques, il n’empêche que nombre d’acteurs poussent à une régulation adaptée à ces risques existentiels. Alors que d’autres interventions, comme l’amélioration de la transparence, sont inconditionnellement utiles pour atténuer les risques, quels qu’ils soient. Se défendre contre la superintelligence exige que l’humanité s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrôle centralisé sur l’IA, qui risque d’être un remède pire que le mal. Or, nous devrions bien plus nous préoccuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inégalités. Pour nous défendre contre ces risques-ci, pour empêcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, défendent les deux chercheurs.
Ils recommandent d’ailleurs plusieurs politiques. D’abord, améliorer le financement stratégique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et améliorer nos connaissances sur les risques et leur atténuation. Ils proposent également d’améliorer la surveillance des usages, des risques et des échecs, passant par les déclarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de données d’incidents de l’IA) ou la protection des lanceurs d’alerte… Enfin, il proposent que les “données probantes” soient un objectif prioritaire, c’est-à-dire d’améliorer l’accès de la recherche.
Dans le domaine de l’IA, la difficulté consiste à évaluer les risques avant le déploiement. Pour améliorer la résilience, il est important d’améliorer la responsabilité et la résilience, plus que l’analyse de risque, c’est-à-dire des démarches de contrôle qui ont lieu après les déploiements. “La résilience exige à la fois de minimiser la gravité des dommages lorsqu’ils surviennent et la probabilité qu’ils surviennent.” Pour atténuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la démocratie, la liberté de la presse ou l’équité dans le monde du travail. C’est-à-dire d’améliorer la résilience sociétale au sens large.
Pour élaborer des politiques technologiques efficaces, il faut ensuite renforcer les capacités techniques et institutionnelles de la recherche, des autorités et administrations. Sans personnels compétents et informés, la régulation de l’IA sera toujours difficile. Les chercheurs invitent même à “diversifier l’ensemble des régulateurs et, idéalement, à introduire la concurrence entre eux plutôt que de confier la responsabilité de l’ensemble à un seul régulateur”.
Par contre, Kapoor et Narayanan se défient fortement des politiques visant à promouvoir une non-prolifération de l’IA, c’est-à-dire à limiter le nombre d’acteurs pouvant développer des IA performantes. Les contrôles à l’exportation de matériel ou de logiciels visant à limiter la capacité des pays à construire, acquérir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modèles d’IA à pondération ouverte… sont des politiques qui favorisent la concentration plus qu’elles ne réduisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le même modèle, les vulnérabilités de ce modèle peuvent être exploitées dans toutes les applications”, rappellent-ils.
Pour les deux chercheurs, nous devons “réaliser les avantages de l’IA”, c’est-à-dire accélérer l’adoption des bénéfices de l’IA et atténuer ses inconvénients. Pour cela, estiment-ils, nous devons être plus souples sur nos modalités d’intervention. Par exemple, ils estiment que pour l’instant catégoriser certains domaines de déploiement de l’IA comme à haut risque est problématique, au prétexte que dans ces secteurs (assurance, prestation sociale ou recrutement…), les technologies peuvent aller de la reconnaissance optique de caractères, relativement inoffensives, à la prise de décision automatisées dont les conséquences sont importantes. Pour eux, il faudrait seulement considérer la prise de décision automatisée dans ces secteurs comme à haut risque.
Un autre enjeu repose sur l’essor des modèles fondamentaux qui a conduit à une distinction beaucoup plus nette entre les développeurs de modèles, les développeurs en aval et les déployeurs (parmi de nombreuses autres catégories). Une réglementation insensible à ces distinctions risque de conférer aux développeurs de modèles des responsabilités en matière d’atténuation des risques liés à des contextes de déploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modèles fondamentaux et de l’imprévisibilité de tous les contextes de déploiement possibles.
Enfin, lorsque la réglementation établit une distinction binaire entre les décisions entièrement automatisées et celles qui ne le sont pas, et ne reconnaît pas les degrés de surveillance, elle décourage l’adoption de nouveaux modèles de contrôle de l’IA. Or de nombreux nouveaux modèles sont proposés pour garantir une supervision humaine efficace sans impliquer un humain dans chaque décision. Il serait imprudent de définir la prise de décision automatisée de telle sorte que ces approches engendrent les mêmes contraintes de conformité qu’un système sans supervision. Pour les deux chercheurs, “opposer réglementation et diffusion est un faux compromis, tout comme opposer réglementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas réguler, mais bien de garantir de la souplesse. La législation garantissant la validité juridique des signatures et enregistrement électroniques promulguée en 2000 aux Etats-Unis a joué un rôle déterminant dans la promotion du commerce électronique et sa diffusion. La législation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le développement du secteur par la création de pilotes certifiés. Nous devons trouver pour l’IA également des réglementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bénéfices de l’IA afin de les rendre plus équitables et d’indemniser les personnes qui risquent de subir les conséquences de l’automatisation. Le renforcement des filets de sécurité sociale contribuera à atténuer l’inquiétude actuelle du public face à l’IA dans de nombreux pays”. Et les chercheurs de suggérer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis à mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste équilibre entre une adoption trop précipitée qui génère des défaillances et de la méfiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privé.
-
7:00
De l’instrumentalisation du numérique par l’action publique
sur Dans les algorithmesL’avant dernier numéro de la revue Réseaux est consacré à la dématérialisation. “La numérisation des administrations redéfinit le rapport à l’État et ouvre à des procès de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numéro, qui rappelle que ces développements suivent des phases en regardant celles des pays scandinaves, pionniers en la matière. Pourtant, là-bas comme ailleurs, la numérisation n’a pas aidé ou apaisé la relation administrative, au contraire. Là-bas aussi, elle rend plus difficile l’accès aux droits. En fait, plus qu’un changement d’outillage, elle est une “évolution de nature politique” qui redéfinit les rapports à l’État, à la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, créant des situations d’accès inégalitaires qui restreignennt la qualité et la continuité des services publics. “La dématérialisation de l’action publique signe en cela une double délégation. D’un côté, certaines opérations sont déléguées aux dispositifs techniques ; de l’autre, on constate un déplacement complémentaire de celles-ci vers les usagers, qui portent désormais la charge et la responsabilité du bon déroulement des démarches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se débrouiller et les autres. L’accès aux outils numériques et leur maîtrise devient un nouveau critère d’éligibilité aux droits, générateur de non-recours : le numérique devient une “charge supplémentaire” pour les plus vulnérables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultés, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “déplacer le périmètre de leurs missions premières”, au risque de les remplacer.
L’article de Pierre Mazet du Lab Accès sur le dispositif Conseiller numérique France Services (CnFS) montre qu’il se révèle fragile, profitant d’abord aux structures préalablement les plus engagées sur l’inclusion numérique. L’État s’est appuyé sur le plan de relance européen afin de transférer aux acteurs locaux la prise en charge d’un problème public dont les conseillers numériques doivent assumer la charge. Les moyens s’avèrent « structurellement insuffisants pour stabiliser une réponse proportionnée aux besoins ». À l’échelle nationale, les démarches en ligne se placent en tête des aides réalisées par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexés à la numérisation des administrations »; et de constater qu’il y a là une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numérique – qui ne parvient pas à répondre aux besoins générés par une autre action publique – les politiques de dématérialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant à certains acteurs, notamment aux acteurs de la dématérialisation de la relation administrative, qu’il n’a permis de répondre à la géographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes âgées, moins en réponse à des besoins qu’en raison du ciblage de l’offre elle-même : elle capte d’abord des publics « disponibles », pas nécessairement ceux qui en ont le plus besoin ». Enfin, la dégressivité des financements a, quant à elle, « produit un effet de sélection, qui a accentué les inégalités entre acteurs et territoires », notamment au détriment des acteurs de la médiation numérique.
La gouvernance par dispositifs numériques faciliterait l’avènement d’une administration d’orientation néolibérale priorisant les valeurs du marché, explique Granjon. L’administration « renforcerait son contrôle sur les populations, mais, paradoxalement, perdrait le contrôle sur ses principaux outils, notamment ceux d’aide à la décision quant à l’octroi de droits et de subsides ». La décision confiée aux procédures de calcul, laisse partout peu de marge de manœuvre aux agents, les transformant en simples exécutants. A Pôle Emploi, par exemple, il s’agit moins de trouver un emploi aux chômeurs que de les rendre « autonomes » avec les outils numériques. Pour Périne Brotcorne pourtant, malgré la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des développements numériques des services publics. Rien n’est fait par exemple pour l’usager en difficulté par exemple pour qu’il puisse déléguer la prise en charge de ses tâches administratives à un tiers, comme le soulignait récemment le Défenseur des droits. Les interfaces numériques, trop complexes, fabriquent “de l’incapacité” pour certains publics, notamment les plus éloignés et les plus vulnérables. Brotcorne montre d’ailleurs très bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invités à s’exprimer. L’étude souligne que près de la moitié des usagers n’arrivent pas à passer la première étape des services publics numériques que ce soit se connecter, prendre rendez-vous ou même télécharger un formulaire. Dans un autre article, signé Anne-Sylvie Pharabod et Céline Borelle, les deux chercheuses auscultent les pratiques administratives numérisées ordinaires qui montrent que la numérisation est une longue habituation, où les démarches apprises pour un service permettent d’en aborder d’autres. Les démarches administratives sont un univers de tâches dont il faut apprendre à se débrouiller, comme faire se peut, et qui en même temps sont toujours remises à zéro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identité, ou des documents à uploader. “La diversité des démarches, l’hétérogénéité des interfaces et l’évolution rapide des outils liée à des améliorations incrémentales (notamment en matière de sécurité) renouvellent constamment le questionnement sur ce qu’il convient de faire”.
Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numériques au sein du Service public de l’emploi a pour conséquence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numérique se voit investie de la fonction de régulation des comportements des usagers, des agents publics, mais également de bien d’autres publics, notamment tous ceux utilisant ses données et plateformes. A cette aune, France Travail est amené à devenir un « animateur d’écosystème emploi/formation/insertion » connectant divers échelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses différentes plateformes. Granjon invite à s’intéresser à ces encastrements nouveaux et pas seulement aux guichets, ou à la relation agent-public, pour mieux saisir comment les bases de données, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procédures que France Travail met en place.
Le numéro de Réseaux livre également un intéressant article, très critique, du Dossier médical partagé, signé Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intéresse à l’histoire de la gouvernance problématique du projet, qui explique en grande partie ses écueils, et au fait que le DMP ne semble toujours pas avoir trouvé son utilité pour les professionnels de santé.
Un autre article signé Pauline Boyer explore le lancement du portail de données ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel Goëta et Élise Ho-Pun-Cheung s’intéressent quant à eux à la production de standards et aux difficultés de leur intégration dans le quotidien des agents, en observant le processus de standardisation des données des lieux de médiation numérique. L’article souligne la difficulté des conseillers numériques à infléchir la standardisation et montre que cette normalisation peine à prévoir les usages de la production de données.
Dans un article de recherche qui n’est pas publié par Réseaux, mais complémentaire à son dossier, le politologue néerlandais, Pascal D. Koenig explique que le développement d’un État algorithmique modifie la relation avec les citoyens, ce qui nécessite de regarder au-delà des seules propriétés des systèmes. L’intégration des algos et de l’IA développe une relation plus impersonnelle, renforçant le contrôle et l’asymétrie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systèmes d’IA, qui remplacent ou assistent l’exécution des tâches humaines, introduisent un nouveau type de représentation des agents dans les organisations gouvernementales. Ils réduisent ainsi structurellement la représentation des citoyens – en tant qu’êtres humains – au sein de l’État et augmentent les asymétries de pouvoir, en étendant unilatéralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte également les fondements de la reconnaissance sociale dans la relation citoyen-État, liés au comportement. En tant qu’agents artificiels, les systèmes d’IA manquent de compréhension et de compassion humaines, dont l’expression dans de nombreuses interactions est un élément important pour reconnaître et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiérarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui érode le respect que les institutions leur témoignent”. Le manque d’empathie des systèmes est l’une des principales raisons pour lesquelles les individus s’en méfient, rappelle Koenig. Or, “la numérisation et l’automatisation de l’administration réduisent les foyers d’empathie existants et contribuent à une prise en compte étroite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de compréhension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental où le contact humain se réduit : moins représentatif, il est donc moins disposé à prendre des décisions dans leur intérêt.
-
7:00
De la maîtrise de l’automatisation d’Etat
sur Dans les algorithmesLe dernier numéro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquêtes de jeunes sociologues.
Camille Girard-Chanudet décrit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extérieur des tribunaux pour les transformer.
Héloïse Eloi?Hammer observe les différences d’implémentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mêmes moyens pour configurer la plateforme et que souvent, elles utilisent des procédés de sélection rudimentaires. Elle montre que, là aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposés aux valeurs des formations qui les mettent en œuvre.
Jérémie Poiroux évoque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrôle technique des activités maritimes qui permet de montrer comment le calcul et l’évolution de la réglementation sont mobilisées pour réduire les effectifs des services de l’Etat tout en améliorant le ciblage des contrôles. Pour Poiroux, le système mis en place pose des questions quant à son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens à la prévention et à l’accompagnement, afin de réduire son champ d’action au contrôle et à la punition”, ainsi qu’à éloigner les agents au profit de règles venues d’en haut.
Soizic Pénicaud revient quant à elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de différents collectifs n’est pas allé de soi et que le recueil de témoignages a permis de soulever le problème et d’incarner les difficultés auxquelles les personnes étaient confrontées. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une réalité.
Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le déploiement des algorithmes à la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui préexiste. “L’algorithme ne se substitue pas aux pratiques précédentes de contrôle. Il s’y intègre (…). Il ne l’automatise pas non plus : il le « flèche »”. Elle rappelle, à la suite du travail de Vincent Dubois dans Contrôler les assistés, que le développement des systèmes de calculs permettent à la fois de produire un contrôle réorganisé, national, au détriment de l’autonomie des agents et des caisses locales, ainsi que de légitimer la culture du contrôle et de donner une nouvelle orientation aux services publics.
Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalité de son pouvoir”.
Mardi 3 juin à 19h30 à la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisée autour des chercheurs et chercheuses qui ont participé à ce numéro. Nous y serons.
-
7:00
L’IA peut-elle soutenir la démocratie ?
sur Dans les algorithmesLa politologue Erica Chenoweth est la directrice du Non Violent Action Lab à Harvard. Elle a publié de nombreux livres pour montrer que la résistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la résistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prépare d’ailleurs un nouveau livre, The End of People Power, qui pointe le déclin déroutant des mouvements de résistance civile au cours de la dernière décennie, alors même que ces techniques sont devenues très populaires dans le monde entier. Lors d’une récente conférence sur l’IA et les libertés démocratiques organisée par le Knight First Amendment Institute de l’université de Columbia, elle se demandait si l’IA pouvait soutenir les revendications démocratiques, rapporte Tech Policy Press (vidéo). L’occasion de rendre compte à notre tour d’un point de vue décoiffant qui interroge en profondeur notre rapport à la démocratie.
La récession démocratique est engagéeLa démocratie est en déclin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle même de “récession démocratique” et estime que la sauvegarde des droits démocratiques est partout en crise. 2025 pourrait être la première année, depuis longtemps, où la majorité de la population mondiale vit sous des formes de gouvernement autoritaires plutôt que démocratiques. Ce recul est dû à la fois au développement de l’autoritarisme dans les régimes autocratiques et à l’avancée de l’autocratie dans les démocraties établies, explique Chenoweth. Les avancées démocratiques des 100 dernières années ont été nombreuses et assez générales. Elles ont d’abord été le fait de mouvements non violents, populaires, où des citoyens ordinaires ont utilisé les manifestations et les grèves, bien plus que les insurrections armées, pour déployer la démocratie là où elle était empêchée. Mais ces succès sont en déclin. Les taux de réussite des mouvements populaires pacifistes comme armés, se sont effondrés, notamment au cours des dix dernières années. “Il y a quelque chose de global et de systémique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants à ces mouvements sont devenus plus efficaces pour les vaincre en général”.
Les épisodes de contestation réformistes (qui ne relèvent pas de revendications maximalistes, comme les mouvements démocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes… n’ont cessé de subir des revers et des défaites au cours des deux dernières décennies, et ont même diminué leur capacité à obtenir des concessions significatives, à l’image de la contestation de la réforme des retraites en France ou des mouvements écologiques, plus écrasés que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisées que jamais.
Selon la littérature, ce qui permet aux mouvements populaires de réussir repose sur une participation large et diversifiée, c’est-à-dire transversale à l’ensemble de la société, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans… Et notamment quand ils suscitent le soutien de personnes très différentes les unes des autres. “Le principal défi pour les mouvements de masse qui réclament un changement pour étendre la démocratie consiste bien souvent à disloquer les piliers des soutiens autocratiques comme l’armée ou les fonctionnaires. L’enjeu, pour les mouvements démocratiques, consiste à retourner la répression à l’encontre de la population en la dénonçant pour modifier l’opinion générale ». Enfin, les mouvements qui réussissent enchaînent bien souvent les tactiques plutôt que de reposer sur une technique d’opposition unique, afin de démultiplier les formes de pression.
La répression s’est mise à niveauMais l’autocratie a appris de ses erreurs. Elle a adapté en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements démocratiques l’emportent. “La première consiste à s’assurer que personne ne fasse défection. La deuxième consiste à dominer l’écosystème de l’information et à remporter la guerre de l’information. La troisième consiste à recourir à la répression sélective de manière à rendre très difficile pour les mouvements d’exploiter les moments d’intense brutalité. Et la quatrième consiste à perfectionner l’art de diviser pour mieux régner”. Pour que l’armée ou la police ne fasse pas défection, les autorités ont amélioré la formation des forces de sécurité. La corruption et le financement permet de s’attacher des soutiens plus indéfectibles. Les forces de sécurité sont également plus fragmentées, afin qu’une défection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit également de faire varier la répression pour qu’une unité de sécurité ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les répressions des personnes déloyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la défection des forces de sécurité, et cette tendance s’est accentuée au fil du temps”.
La seconde adaptation clé a consisté à gagner la guerre de l’information, notamment en dominant les écosystèmes de l’information. “Inonder la zone de rumeurs, de désinformation et de propagande, dont certaines peuvent être créées et testées par différents outils d’IA, en fait partie. Il en va de même pour la coupure d’Internet aux moments opportuns, puis sa réouverture au moment opportun”.
Le troisième volet de la panoplie consiste à appliquer une répression sélective, consistant à viser des individus plutôt que les mouvements pour des crimes graves qui peuvent sembler décorrélé des manifestations, en les accusant de terrorisme ou de préparation de coup d’Etat. ”La guerre juridique est un autre outil administratif clé”.
Le quatrième volet consiste à diviser pour mieux régner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant à des actions violentes pour générer des reflux d’opinion…
Comment utiliser l’IA pour gagner ?Dans la montée de l’adaptation des techniques pour défaire leurs opposants, la technologie joue un rôle, estime Erica Chenoweth. Jusqu’à présent, les mouvements civiques ont plutôt eu tendance à s’approprier et à utiliser, souvent de manière très innovantes, les technologies à leur avantage, par exemple à l’heure de l’arrivée d’internet, qui a très tôt été utilisé pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques à utiliser l’IA, contrairement aux régimes autocratiques. Pourtant, l’un des principaux problèmes des mouvements civiques consiste à “cerner leur environnement opérationnel”, c’est-à-dire de savoir qui est connecté à qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? Où sont les vulnérabilités du mouvement ? Réfléchir de manière créative à ces questions et enjeux, aux tactiques à déployer pourrait pourtant être un atout majeur pour que les mouvements démocratiques réussissent.
Les mouvements démocratiques passent bien plus de temps à sensibiliser et communiquer qu’à faire de la stratégie, rappelle la chercheuse. Et c’est là deux enjeux où les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des élections municipales russe, un algorithme a permis de contrôler les images de vidéosurveillance des bureaux de vote pour détecter des irrégularités permettant de dégager les séquences où des bulletins préremplis avaient été introduits dans les urnes. Ce qui aurait demandé un contrôle militant épuisant a pu être accompli très simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer très facilement à des actions (des applications puissantes, mais parfois peu transparentes sur leurs méthodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent être mieux documentées et partagées pour qu’elles puissent servir à d’autres. Certains groupes proposent d’ailleurs déjà des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.
Le Non Violent Action Lab a d’ailleurs publié un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements démocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent réellement le succès des mouvements démocratiques. Encore faudrait-il que les mouvements démocratiques puissent accéder à des outils d’IA qui ne partagent pas leurs données avec des plateformes et avec les autorités. L’autre enjeu consiste à construire des corpus adaptés pour aider les mouvements à résister. Les corpus de l’IA s’appuient sur des données des 125 dernières années, alors que l’on sait déjà que ce qui fonctionnait il y a 60 ans ne fonctionne plus nécessairement.
Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour démêler des processus délibératifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait été notre projet démocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques à poser la question de l’utilisation de l’IA a leur profit, plutôt que de la rejetter d’emblée comme l’instrument de l’autoritarisme, elle invite à faire un pas de côté pour trouver des modalités pour refaire gagner les luttes sociales.
On lui suggérera tout de même de regarder du côté des projets que Audrey Tang mène à Taïwan avec le Collective intelligence for collective progress, comme ses « assemblées d’alignement » qui mobilise l’IA pour garantir une participation équitable et une écoute active de toutes les opinions. Comme Tang le défend dans son manifeste, Plurality, l’IA pourrait être une technologie d’extension du débat démocratique pour mieux organiser la complexité. Tang parle d’ailleurs de broad listening (« écoute élargie ») pour l’opposer au broadcasting, la diffusion de un vers tous. Une méthode mobilisée par un jeune ingénieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bénéficié d’une audience surprenante, sans néanmoins l’emporter. Son adversaire a depuis mobilisé la méthode pour lancer une consultation, Tokyo 2050.
Des pistes à observer certes, pour autant qu’on puisse mesurer vraiment leurs effets. Peuvent-elles permettent aux luttes sociales de l’emporter, comme le propose Chenoweth ? Le risque est fort de nous faire glisser vers une vie civique automatisée. Ajouter de l’IA ne signifie pas que les décisions demain seront plus justes, plus efficaces ou plus démocratiques. Au contraire. Le risque est fort que cet ajout bénéfice d’abord aux plus nantis au détriment de la diversité. L’enjeu demeure non pas d’ajouter des outils pour eux-mêmes, mais de savoir si ces outils produisent du changement et au profit de qui !
-
7:00
Réutiliser, réparer, refuser, réclamer
sur Dans les algorithmesLe soulèvement contre l’obsolescence programmée est bien engagé, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, édité par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont œuvré à développer un système d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la réduction de la consommation et dans le recyclage, mais dans l’intégration à grande échelle de l’ancien dans le nouveau. Hybrider les technologies défuntes et les intégrer dans nos quotidiens est tout l’enjeu du monde à venir, dans une forme de permaculture du calcul. Arrêtons de déplorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La réutilisation et la réparation nous conduisent désormais à refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent désormais “refuser d’être neutralisés, écrasés et réduits au silence”, refuser de se faire réapproprier. Nous devons réclamer la tech – c’était déjà la conclusion de son précédent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspiré par le mouvement britannique des années 90, qui réclamait déjà la rue, pour reconquérir cet espace public contre la surveillance policière et la voiture.
“Reclaim the Tech » va plus loin en affirmant que « Nous sommes la technologie », explique Lovink. Cela signifie que la technologie n’est plus un phénomène passager, imposé : la technologie est en nous, nous la portons à fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech », décrites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numérique actuelle est stagnante, elle n’est pas une échappatoire. Elle manque de direction et de destin. La volonté d’organisation est absente maintenant que même les réseaux à faible engagement ont été supplantés par les plateformes. L’esprit du temps est régressif, à l’opposé de l’accélérationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de données. Ce que nous vivons est une succession interminable de courtes poussées d’extase orgasmique, suivies de longues périodes d’épuisement.”
Ce rythme culturel dominant a eu un effet dévastateur sur la recherche et la mise en œuvre d’alternatives durables, estime Lovink. L’optimisation prédictive a effacé l’énergie intérieure de révolte que nous portons en nous. Il ne reste que des explosions de colère, entraînant des mouvements sociaux erratiques – une dynamique alimentée par une utilisation des réseaux sociaux à courte durée d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialité visible dans la technologie et le design. Nous la voyons apparaître non seulement dans le cas des matières premières, mais aussi dans le contexte du « colonialisme des données ».
Mais, s’il est essentiel d’exiger la décolonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « créolisation technologique ».
La décolonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cœur même de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, créons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements géopolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion à la destruction militaire bien réelle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratégies de sortie ne manquent pas. L’exode ne sera pas télévisé. Le monde ne peut attendre la mise en œuvre des principes de prévention des données. Arrêtons définitivement les flux de données !, clame Lovink.
La « confidentialité » des données s’étant révélée être un gouffre juridique impossible à garantir, la prochaine option sera des mécanismes intégrés, des filtres empêchant les données de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de données, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant après la révolution, les « magasins de proximité » qui rendent les technologies aux gens ne se contenteront plus de réparer, mais nous permettront de vivre avec nos déchets, de les rendre visibles, à nouveau fonctionnels, tout comme on rend à nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalités.
-
7:00
IA générative vs IA productive
sur Dans les algorithmesEncore une réflexion stimulante de Gregory Chatonsky, qui observe deux modes de relation à l’IA générative. L’un actif-productif, l’autre passif-reproductif-mémétique. « L’infrastructure générative n’a pas d’essence unifiée ni de destination prédéterminée — elle peut être orientée vers la production comme vers la consommation. Cette indétermination constitutive des technologies génératives révèle un aspect fondamental : nous nous trouvons face à un système technique dont les usages et les implications restent largement à définir ».
« L’enjeu n’est donc pas de privilégier artificiellement un mode sur l’autre, mais de comprendre comment ces deux rapports à la génération déterminent des trajectoires divergentes pour notre avenir technologique. En reconnaissant cette dualité fondamentale, nous pouvons commencer à élaborer une relation plus consciente et réfléchie aux technologies génératives, capable de dépasser aussi bien l’instrumentalisme naïf que le déterminisme technologique.
La génération n’est ni intrinsèquement productive ni intrinsèquement consommatrice — elle devient l’un ou l’autre selon le rapport existentiel que nous établissons avec elle. C’est dans cette indétermination constitutive que résident sa réponse à la finitude. »
-
7:00
La modération n’est pas équitable
sur Dans les algorithmesDans une riche et détaillée revue d’études sur la modération des plateformes du web social, Lisa Macpherson de l’association Public Knowledge démontre que cette modération n’est ni équitable ni neutre. En fait, les études ne démontrent pas qu’il y aurait une surmodération des propos conservateurs, au contraire, les contenus de droite ayant tendance à générer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modérés, c’est parce qu’ils enfreignent plus volontiers les règles des plateformes en colportant de la désinformation ou des propos haineux, et non du fait des biais politiques de la modération. La modération injustifiée, elle, touche surtout les communautés marginalisées (personnes racisées, minorités religieuses, femmes, LGBTQ+). Les biais de modération sont toujours déséquilibrés. Et les contenus de droite sont plus amplifiés que ceux de gauche.
En France, rapporte Next, constatant le très faible taux de modération de contenus haineux sur Facebook, le cofondateur de l’association #jesuislà et activiste pour les droits numériques Xavier Brandao porte plainte contre Meta auprès de l’Arcom au titre du DSA. En envoyant plus de 118 signalements à Meta en quatre mois pour des discours racistes avérés, l’activiste s’est rendu compte que seulement 8 commentaires avaient été supprimés.
-
7:00
??Droit des étrangers, modèle de la maltraitance administrative
sur Dans les algorithmes“Le respect des droits fondamentaux des étrangers est un marqueur essentiel du degré de protection des droits et des libertés dans un pays”, disait très clairement le Défenseur des droits en 2016. Le rapport pointait déjà très bien nombre de dérives : atteintes aux droits constantes, exclusions du droit commun, surveillances spécifiques et invasives… Près de 10 ans plus tard, contexte politique aidant, on ne sera pas étonné que ces atteintes se soient dégradées. Les réformes législatives en continue (118 textes depuis 1945, dit un bilan du Monde) n’ont pas aidé et ne cessent de dégrader non seulement le droit, mais également les services publics dédiés. Ce qu’il se passe aux Etats-Unis n’est pas une exception.
Voilà longtemps que le droit des étrangers en France est plus que malmené. Voilà longtemps que les associations et autorités indépendantes qui surveillent ses évolutions le dénoncent. Des travaux des associations comme la Cimade, à ceux des autorités indépendantes, comme le Défenseur des droits ou la Cour des comptes, en passant par les travaux de chercheurs et de journalistes, les preuves ne cessent de s’accumuler montrant l’instrumentalisation mortifère de ce qui ne devrait être pourtant qu’un droit parmi d’autres.
Couverture du livre France terre d’écueils.
Dans un petit livre simple et percutant, France, Terre d’écueils (Rue de l’échiquier, 2025, 112 pages), l’avocate Marianne Leloup-Dassonville explique, très concrètement, comment agit la maltraitance administrative à l’égard de 5,6 millions d’étrangers qui vivent en France. Marianne Leloup-Dassonville, avocate spécialisée en droit des étrangers et administratrice de l’association Droits d’urgence, nous montre depuis sa pratique les défaillances de l’administration à destination des étrangers. Une administration mise au pas, au service d’un propos politique de plus en plus déconnecté des réalités, qui concentre des pratiques mortifères et profondément dysfonctionnelles, dont nous devrions nous alarmer, car ces pratiques portent en elles des menaces pour le fonctionnement du droit et des services publics. A terme, les dysfonctionnements du droit des étrangers pourraient devenir un modèle de maltraitance à appliquer à tous les autres services publics.
Le dysfonctionnement des services publics à destination des étrangers est caractérisé par plusieurs maux, détaille Marianne Leloup-Dassonville. Ce sont d’abord des services publics indisponibles, ce sont partout des droits à minima et qui se réduisent, ce sont partout des procédures à rallonge, où aucune instruction n’est disponible dans un délai “normal”. Ce sont enfin une suspicion et une persécution systématique. L’ensemble produit un empêchement organisé qui a pour but de diminuer l’accès au droit, d’entraver la régularisation. Ce que Marianne Leloup-Dassonville dessine dans son livre, c’est que nous ne sommes pas seulement confrontés à des pratiques problématiques, mais des pratiques systémiques qui finissent par faire modèle.
Indisponibilité et lenteur systémiqueFrance, Terre d’écueils décrit d’abord des chaînes de dysfonctionnements administratifs. Par des exemples simples et accessibles, l’avocate donne de l’épaisseur à l’absurdité qui nous saisit face à la déshumanisation des étrangers dans les parcours d’accès aux droits. Nul n’accepterait pour quiconque ce que ces services font subir aux publics auxquels ils s’adressent. L’une des pratiques les plus courantes dans ce domaine, c’est l’indisponibilité d’un service : service téléphonique qui ne répond jamais, site web de prise de rendez-vous sans proposition de rendez-vous, dépôts sans récépissés, dossier auquel il n’est pas possible d’accéder ou de mettre à jour… Autant de pratiques qui sont là pour faire patienter c’est-à-dire pour décourager… et qui nécessitent de connaître les mesures de contournements qui ne sont pas dans la procédure officielle donc, comme de documenter l’indisponibilité d’un site par la prise de capture d’écran répétée, permettant de faire un recours administratif pour obliger le service à proposer un rendez-vous à un requérant.
Toutes les procédures que l’avocate décrit sont interminables. Toutes oeuvrent à décourager comme si ce découragement était le seul moyen pour désengorger des services partout incapables de répondre à l’afflux des demandes. Si tout est kafkaïen dans ce qui est décrit ici, on est surtout marqué par la terrible lenteur des procédures, rallongées de recours eux-mêmes interminables. Par exemple, l’Ofpra (Office Français de Protection des Réfugiés et Apatrides) statue en moyenne sur une demande d’asile en 4 mois, mais souvent par un refus. Pour une procédure de recours, la CNDA (Cour nationale du droit d’asile) met en moyenne 12 à 24 mois à réétudier un dossier. Quand un ressortissant étranger obtient le statut de réfugié, il devrait obtenir un titre de séjour dans les 3 mois. En réalité, les cartes de séjour et les actes d’état civils mettent de longs mois à être produits (douze mois en moyenne) ce qui prive les étrangers de nombreux droits sociaux, comme de pouvoir s’inscrire à France Travail ou de bénéficier des allocations familiales, du droit du travail. Même constat à l’AES (admission exceptionnelle au séjour). Depuis 2023, la demande d’AES se fait en ligne et consiste à enregistrer quelques documents pour amorcer la procédure. Mais les préfectures ne font de retour que 6 mois après le dépôt de la demande. Un rendez-vous n’est proposé bien souvent qu’encore une année plus tard, soit en moyenne 18 mois entre la demande initiale et le premier rendez-vous, et ce uniquement pour déposer un dossier. L’instruction qui suit, elle, prend entre 18 et 24 mois. Il faut donc compter à minima 3 à 4 années pour une demande de régularisation ! Sans compter qu’en cas de refus (ce qui est plutôt majoritairement le cas), il faut ajouter la durée de la procédure de recours au tribunal administratif. Même chose en cas de refus de visa injustifié, qui nécessite plus de 2 ans de procédure pour obtenir concrètement le papier permettant de revenir en France.
C’est un peu comme s’il fallait patienter des années pour obtenir un rendez-vous chez un dermatologue pour vérifier un grain de beauté inquiétant ou plusieurs mois pour obtenir des papiers d’identité. Dans le domaine du droit des étrangers, la dégradation des services publics semble seulement plus prononcée qu’ailleurs.
Droits minimaux et décisions discrétionnairesLe dysfonctionnement que décrit l’avocate n’est pas qu’administratif, il est également juridique. Dans le domaine de la demande d’asile par exemple, il n’existe pas de procédure d’appel, qui est pourtant une garantie simple et forte d’une justice équitable. Les demandeurs ayant été refusés peuvent demander un réexamen qui a souvent lieu dans le cadre de procédures « accélérées ». Mais cette accélération là ne consiste pas à aller plus vite, elle signifie seulement que la décision sera prise par un juge unique, et donc, potentiellement, moins équitable.
L’admission exceptionnelle au séjour (AES), autre possibilité pour obtenir une naturalisation, nécessite elle de faire une demande à la préfecture de son domicile. Même si cette admission est bornée de conditions concrètes très lourdes (promesse d’embauche, présence sur le territoire depuis 3 ans, bulletins de salaires sur au moins 2 ans…), le préfet exerce ici une compétence discrétionnaire, puisqu’il évalue seul les demandes. « En matière de naturalisation, l’administration a un très large pouvoir d’appréciation », souligne l’avocate. Même constat quant aux demandes de naturalisation, tout aussi compliquées que les autres demandes. L’entretien de naturalisation par exemple, qu’avait étudié le sociologue Abdellali Hajjat dans son livre, Les frontières de l’identité nationale, a tout d’une sinécure. Il consiste en un entretien discrétionnaire, sans procès verbal ni enregistrement, sans programme pour se préparer à y répondre. Ce n’est pas qu’un test de culture général d’ailleurs auquel nombre de Français auraient du mal à répondre, puisque de nombreuses questions ne relèvent pas d’un QCM, mais sont appréciatives. Il n’y a même pas de score minimal à obtenir, comme ce peut-être le cas dans d’autres pays, comme le Royaume-Uni. Vous pouvez répondre juste aux questions… et être refusé.
Suspicion, persécution et empêchement systématiquesLe fait de chercher à empêcher les demandeurs d’asile d’accéder à un travail (en janvier 2024, une loi anti-immigration, une de plus, est même venue interdire à ceux qui ne disposent pas de titre de séjour d’obtenir un statut d’entrepreneur individuel) créé en fait une surcouche de dysfonctionnements et de coûts qui sont non seulement contre-productifs, mais surtout rendent la vie impossible aux étrangers présents sur le territoire. Et ce alors que 90% des personnes en situation irrégulière travaillent quand même, comme le souligne France Stratégies dans son rapport sur l’impact de l’immigration sur le marché du travail. En fait, en les empêchant de travailler, nous produisons une surcouche de violences : pour travailler, les sans-papiers produisent les titres de séjour d’un tiers, à qui seront adressés les bulletins de salaires. Tiers qui prélèvent une commission de 30 à 50% sur ces revenus, comme le montrait l’excellent film de Boris Lokjine, L’histoire de Souleymane.
Une politique du non accueil perdu dans ses amalgames
Parce que le lien de paternité ou de maternité créé un droit pour l’enfant et pour le compagnon ou la compagne, la suspicion de mariage blanc est devenue systématique quand elle était avant un signe d’intégration, comme le rappelait le rapport du mouvement des amoureux aux ban publics. Enquêtes intrusives, abusives, surveillance policière, maires qui s’opposent aux unions (sans en avoir le droit)… Alors qu’on ne comptait que 345 mariages annulés en 2009 (soit moins de 0,5% des unions mixtes) et une trentaine de condamnations pénales par an, 100% des couples mixtes subissent des discriminations administratives. Le soupçon mariage blanc permet surtout de masquer les défaillances et le racisme de l’administration française. Ici comme ailleurs, le soupçon de fraude permet de faire croire à tous que ce sont les individus qui sont coupables des lacunes de l’administration française.France, terre d’écueils, nous montre le parcours du combattant que représente partout la demande à acquérir la nationalité. L’ouvrage nous montre ce que la France impose à ceux qui souhaitent y vivre, en notre nom. Une politique de non accueil qui a de quoi faire honte.
Ces dérives juridiques et administratives sont nées de l’amalgame sans cesse renouvelé à nous faire confondre immigration et délinquance. C’est ce que symbolise aujourd’hui le délires sur les OQTF. L’OQTF est une décision administrative prise par les préfectures à l’encontre d’un étranger en situation irrégulière, lui imposant un départ avec ou sans délai. Or, contrairement à ce que l’on ne cesse de nous faire croire, les OQTF ne concernent pas uniquement des individus dangereux, bien au contraire. La grande majorité des personnes frappées par des OQTF ne sont coupables d’aucun délit, rappelle Marianne Leloup-Dassonville. Elles sont d’abord un objectif chiffré. Les préfectures les démultiplent alors qu’elles sont très souvent annulées par les tribunaux. La France en émet plus de 100 000 par an et en exécute moins de 7000. Elle émet 30% des OQTF de toute l’Europe. Les services préfectoraux dédiés sont surchargés et commettent des “erreurs de droit” comme le dit très pudiquement la Cour des comptes dans son rapport sur la lutte contre l’immigration irrégulière. Le contentieux des étrangers représente 41% des affaires des tribunaux administratifs en 2023 (contre 30% en 2016) et 55% des affaires des cours d’appel, comme le rappelait Mediapart. La plupart des OQTF concernent des ressortissants étrangers qui n’ont jamais commis d’infraction (ou des infractions mineures et anciennes). Nombre d’entre elles sont annulées, nombre d’autres ne peuvent pas être exécutées. Peut-on sortir de cette spirale inutile, se demande l’avocate ?
Nous misons désormais bien plus sur une fausse sécurité que sur la sûreté. La sûreté, rappelle l’avocate, c’est la garantie que les libertés individuelles soient respectées, contre une arrestation, un emprisonnement ou une condamnation arbitraire. La sûreté nous garantit une administration équitable et juste. C’est elle que nous perdons en nous enfermant dans un délire sécuritaire qui a perdu contact avec la réalité. Les témoignages que livre Marianne Leloup-Dassonville montrent des personnes plutôt privilégiées, traumatisées par leurs rapports à l’administration française. Les étrangers sont partout assimilés à des délinquants comme les bénéficiaires de droits sociaux sont assimilés à des fraudeurs.
A lire le court ouvrage de Marianne Leloup-Dassonville, on se dit que nous devrions nous doter d’un observatoire de la maltraitance administrative pour éviter qu’elle ne progresse et qu’elle ne contamine toutes les autres administrations. Nous devons réaffirmer que l’administration ne peut se substituer nulle part à la justice, car c’est assurément par ce glissement là qu’on entraîne tous les autres.
Hubert Guillaud
PS : Au Royaume-Uni, le ministère de l’intérieur souhaite introduire deux outils d’IA dans les processus de décisions de demande d’asile d’après une étude pilote : une pour résumer les informations des dossiers, l’autre pour trouver des informations sur les pays d’origine des demandeurs d’asile. Une façon de renforcer là-bas, la boîte noire des décisions, au prétexte d’améliorer « la vitesse » de décision plutôt que leur qualité, comme le souligne une étude critique. Comme quoi, on peut toujours imaginer pire pour encore dégrader ce qui l’est déjà considérablement.
MAJ du 23/05/2025 : L’extension des prérogatives de l’administration au détriment du droit, permettant de contourner la justice sur l’application de mesures restreignant les libertés individuelles, à un nom, nous apprend Blast, l’« administrativisation », et permet des sanctions sans garanties de justice et d’appliquer des sanctions sans preuves.
-
7:00
Regouverner la monétisation ?
sur Dans les algorithmesPour Tech Policy Press, Victoire Rio de What to Fix estime qu’il faut réguler les programmes de monétisation de contenus que proposent désormais toutes les plateformes. Facebook a plus de 3,8 millions d’éditeurs « partenaires », comme il les appelle. Et plus d’un million ont été créés en 2025 seulement. Ces modèles de redistribution des revenus sont souvent très simples : plus le nombre de vues et d’engagements générés sont élevés, plus la plateforme verse d’argent. Or, la communauté de la régulation s’est beaucoup intéressée à la modération des contenus, aux recommandations publicitaires, aux problèmes que posent l’amplification algorithmique, mais elle s’est peu penchée sur la « gouvernance de leur monétisation », c’est-à-dire à la façon dont les plateformes redistribuent l’argent et à la manière dont leurs décisions de monétisation « façonnent in fine l’environnement informationnel ».
Dans un rapport consacré au sujet, What to Fix estime que « les plateformes de médias sociaux ont redistribué plus de 20 milliards de dollars de leurs revenus à plus de 6 millions de comptes l’année dernière ». « Et pourtant, nous ignorons qui les plateformes ont payé, combien elles ont payé, ni pour quel contenu ! », rappelle Victoire Rio. L’enjeu n’est pas que cette redistribution n’ait pas lieu, bien au contraire, précise-t-elle : « Ce qui m’inquiète, c’est de laisser les décisions de redistribution des revenus aux plateformes de médias sociaux, sans transparence ni contrôle ». Et notamment, le fait que ces revenus bénéficient de plus en plus à des acteurs de la désinformation ou encore le fait que ces financements puissent être coupés unilatéralement pour nombre d’acteurs légitimes, avec des recours limités et sans compensation pour les pertes de revenus associées. Or, ni le DSA européen, ni le Online Safety Act britannique, n’abordent clairement les systèmes de monétisation des plateformes comme un vecteur de risque. Là encore, la transparence des modalités de reversement est en cause, accuse Victoire Rio, qui souhaite que nous considérions les modalités de monétisation comme un enjeu spécifique, c’est-à-dire un enjeu de régulation.
Cette brève est parue originellement dans la lettre du Conseil national du numérique du 7 mai 2025.
-
7:00
Pascal Chabot : Coincés dans les digitoses
sur Dans les algorithmesPascal Chabot est philosophe et enseigne à l’Institut des hautes études des communications sociales à Bruxelles. Son plus récent ouvrage, Un sens à la vie : enquête philosophique sur l’essentiel (PUF, 2024) fait suite à une riche production de livres, où la question du numérique est toujours présente, lancinante, quand elle n’est pas au cœur de sa réflexion. L’occasion de revenir avec lui sur comment les enjeux numériques d’aujourd’hui questionnent la philosophie. Entretien.
Dans les algorithmes : Dans votre dernier livre, Un sens à la vie, vous vous interrogez sur le meaning washing, c’est à la dire à la fois sur la perte de sens de nos sociétés contemporaines et leur récupération, par exemple par le consumérisme qui nous invite à consommer pour donner du sens à l’existence. Pour vous, notre monde contemporain est saisi d’une “dissonance majeure”, où les sources de sens s’éloignent de nous du fait du développement d’environnements entièrement artificiels, du monde physique comme du monde numérique.
Couverture du livre de Pascal Chabot, Un sens à la vie.
Vous interrogez cette perte de sens ou notre difficulté, fréquente, à retrouver du sens dans les contradictions de la modernité. Retrouver le sens nécessite de trouver comment circuler entre les sensations, les significations et les orientations, expliquez-vous, c’est-à-dire à trouver des formes de circulations entre ce que l’on ressent, ce qu’on en comprend et là où l’on souhaite aller. “Vivre, c’est faire circuler du sens”, le désirer, se le réapproprier. Mais le sens que tout à chacun cherche est aujourd’hui bouleversé par le numérique. Le sens “est transformé par les modalités de sa transmission” dites-vous. En quoi ces nouvelles modalités de transmission modifient-elles notre compréhension même du monde ?
Pascal Chabot : Une chose qui m’intéresse beaucoup en philosophie, c’est de comprendre comment des questions, anciennes, traditionnelles, sont à la fois toujours actuelles et bouleversées par ce que nous vivons. Par rapport à la question du sens, qui est un accord entre ce que l’on sent, ce que l’on comprend et ce que l’on devient, les choses ont peu bougé. Un ancien grec ou un humaniste de la Renaissance auraient pu faire des constats sur le sens de la vie proches des miens, pour peu qu’ils aient été en dehors des très grands récits de transcendance qui s’imposaient alors, où le sens est donné par Dieu ou le Salut, c’est à dire où le sens a un nom avec une majuscule. Cette façon de faire circuler du sens dans nos vies, on la partage avec nos lointains prédécesseurs dans l’histoire de la philosophie. Il y a une lignée humaine dans laquelle nous sommes chacun profondément inscrits.
Cela étant, après avoir dit la continuité, il faut penser la rupture. Et la rupture, selon moi, elle est dans le branchement de nos consciences à ce que j’appelle le surconscient numérique. La conscience, telle qu’elle est ordinairement définie à partir du XXe siècle et bien sûr de Freud, est toujours couplée à son inconscient. Cette découverte, d’un enrichissement inédit, même si l’on ne sait pas toujours très bien ce qu’est l’inconscient, est restée d’une grande originalité, en apportant ce binôme conscience-inconscience qui permet d’enrichir notre compréhension de la pensée, en accord avec une nature humaine profonde, allant des grands mythes freudiens à la nature, dans lesquels notre inconscient peut s’exprimer, que ce soit via la sexualité ou la contemplation. Ce binôme a permis de créer des sens nouveaux. Cependant, je crois qu’on est de plus en plus débranchés de notre inconscient. C’est pourquoi une partie de la psychiatrie et de la psychanalyse ont un mal fou à comprendre ce qu’il se passe avec les nouvelles pathologies. En revanche, on est beaucoup plus branché, on fait couple, avec ce surconscient auquel on a accès dès qu’on fait le geste de consulter un écran. Ce mot surconscient, créé par analogie avec l’inconscient, est un mot assez large qui désigne pour moi un réseau, un dôme d’information, de communication, de protocoles d’échanges, d’images, qui a une certaine conscience. Une conscience relative comme l’inconscient a lui-même une conscience relative. Ce n’est pas une conscience en terme de « JE », mais de « NOUS ». C’est un savoir exploitable par la conscience et l’inconscient et qui est de plus en plus déterminant sur notre conscience comme sur notre inconscient.
Dans les algorithmes : Mais on pourrait dire que ce surconscient existait avant le numérique, non ? Des grands récits à la presse, toutes nos formes médiatiques et culturelles y participaient. Pourquoi le numérique modifierait-il particulièrement ce rapport ?
Pascal Chabot : Oui, toute œuvre culturelle, de la presse à la littérature, crée des bulles de signification, un cadre de signification, avec lequel nous sommes en dialogue. La graphosphère, comme on l’a parfois appelé, existe. Mais la grande différence, c’est que le monde numérique propose un monde où les significations ont une vie propre. Ce que Tolstoï a écrit par exemple, a été écrit une fois pour toute. On se réfère à Guerre et Paix à partir des significations qui ont été données depuis un écrit stabilisé. Si Guerre et Paix continue à vivre, c’est par l’acte d’enrichissement du livre dans notre imagination, dans nos souvenirs, dans notre mémoire. Dans le monde du surconscient numérique, il n’y a pas d’inertie. Les informations sont modifiées, mises à jour, répétées, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation là est assez spécifique, centrée sur les personnes, calibrée pour chacun d’entre nous.
Cette personnalisation est une caractéristique importante. Il y en a une autre, celle du temps. Quand on se réfère à un livre écrit à la fin du XIXe siècle, on fait venir dans le temps présent un objet du passé. La sphère numérique est caractérisée par un temps nouveau, comme je l’évoquais dans Avoir le temps, où j’essayais de dire, qu’il y a eu deux grands temps. Le temps comme destin, c’est le temps de la nature, et le temps du progrès, celui de la construction d’un monde commun. Dans le numérique on vit un hypertemps. Un temps de synchronisation permanente. Un temps où la nouveauté est tout le temps présente. Un temps décompté, à rebours. Le temps du surconscient est aussi cet hypertemps. On est de moins en moins dans l’espace et de plus en plus dans des bulles temporelles qui s’ouvrent notamment quand on est dans la consommation de l’écran, où l’on se branche à un hypertemps commun.
« Dans le monde du surconscient numérique, il n’y a pas d’inertie. Les informations sont modifiées, mises à jour, répétées, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation là est assez spécifique, centrée sur les personnes, calibrée pour chacun d’entre nous. »
Dans les algorithmes : Cette consommation d’écran, ce pas de côté dans nos réalités, nécessite de « faire le geste » dites-vous, c’est-à-dire d’ouvrir son smartphone. Geste que nous faisons des centaines de fois par jour. « Nous passons nos vies à caresser une vitre », ironise l’écrivain Alain Damasio. C’est consulter, nous brancher en permanence, dans un geste qui est désormais si présent dans notre quotidien, qu’il ne semble nullement le perturber, alors qu’il l’entrecoupe sans arrêt. Or, ce geste nous coupe de nos environnements. Il réduit nos sensations, limite nos orientations… Comme si ce geste était le symptôme de notre envahissement par ce surconscient…
Pascal Chabot : C’est effectivement sa matérialisation. C’est par ce geste que le surconscient colonise nos consciences. On dit beaucoup qu’on vit une mutation anthropologique majeure, mais elle est orchestrée par des ultraforces, c’est-à-dire des moyens qui ne sont pas une fin mais une force en soi, comme le sont la finance ou le numérique. « Faire le geste » nous fait changer de réalité, nous fait muter, nous fait passer dans un autre monde. Un monde très libidinal, un monde qui sait nos intentions, qui satisfait nos désirs. Un monde qui nous rend captif mais qui nous permet surtout de quitter une réalité qui nous apparaît de moins en moins satisfaisante. Le rapport au présent, à la matérialité, nous apparaît désormais plus pauvre que le voyage dans le surconscient de l’humanité. La plupart d’entre nous sommes devenus incapables de rester 5 minutes sans « faire le geste ». Toute addiction est aphrodisiaque : elle nous promet un désir qu’on ne peut plus avoir ailleurs. Comme si notre conscience et notre inconscient ne nous suffisaient plus.
Dans les algorithmes : Vous reconnaissez pourtant que ce surconscient a des vertus : « il fait exploser nos compréhensions », dites-vous. Vous expliquez que le rendement informationnel du temps que l’on passe sur son smartphone – différent de son impact intellectuel ou affectif – est bien supérieur à la lecture d’un livre ou même d’un dialogue avec un collègue. Que notre connexion au réseau permet de zoomer et dézoomer en continue, comme disait le sociologue Dominique Cardon, nous permet d’aller du micro au macro. Nous sommes plongés dans un flux continu de signifiants. “Les sensations s’atrophient, les significations s’hypertrophient. Quant aux orientations, en se multipliant et se complexifiant, elles ouvrent sur des mondes labyrinthiques” qui se reconfigurent selon nos circulations. Nous sommes plongés dans un surconscient tentaculaire qui vient inhiber notre inconscient et notre conscience. Ce surconscient perturbe certes la circulation du sens. Mais nos écrans ne cessent de produire du sens en permanence…
Pascal Chabot : Oui, mais ce surconscient apporte de l’information, plus que du sens. Je parle bien de rendement informationnel. Quand les livres permettent eux de déployer l’imagination, la créativité, la sensibilité, l’émotivité… de les ancrer dans nos corps, de dialoguer avec l’inconscient. En revanche, ce que nous offre le surconscient en terme quantitatif, en précision, en justesse est indéniable. Comme beaucoup, j’ai muté des mondes de la bibliothèque au monde du surconscient. Il était souvent difficile de retrouver une information dans le monde des livres. Alors que le surconscient, lui, est un monde sous la main. Nous avons un accès de plus en plus direct à l’information. Et celle-ci se rapproche toujours plus de notre conscience, notamment avec ChatGPT. La recherche Google nous ouvrait une forme d’arborescence dans laquelle nous devions encore choisir où aller. Avec les chatbots, l’information arrive à nous de manière plus directe encore.
Mais l’information n’est ni le savoir ni la sagesse et sûrement pas le sens.
Dans les algorithmes : Vous dites d’ailleurs que nous sommes entrés dans des sociétés de la question après avoir été des sociétés de la réponse. Nous sommes en train de passer de la réponse qu’apporte un article de Wikipédia, à une société de l’invite, à l’image de l’interface des chatbots qui nous envahissent, et qui nous invitent justement à poser des questions – sans nécessairement en lire les réponses d’ailleurs. Est-ce vraiment une société de la question, de l’interrogation, quand, en fait, les réponses deviennent sans importance ?
Pascal Chabot : Quand j’évoque les sociétés de la question et de la réponse, j’évoque les sociétés modernes du XVIIe et du XVIIIe siècle, des sociétés où certaines choses ne s’interrogent pas, parce qu’il y a des réponses partout. La question du sens ne hante pas les grands penseurs de cette époque car pour eux, le sens est donné. Les sociétés de la question naissent de la mort de Dieu, de la perte de la transcendance et du fait qu’on n’écrit plus le sens en majuscule. Ce sont des sociétés de l’inquiétude et du questionnement. La question du sens de la vie est une question assez contemporaine finalement. C’est Nietzsche qui est un des premiers à la poser sous cette forme là.
Dans la société de la question dans laquelle nous entrons, on interroge les choses, le sens… Mais les réponses qui nous sont faites restent désincanées. Or, pour que le sens soit présent dans une existence, il faut qu’il y ait un enracinement, une incarnation… Il faut que le corps soit là pour que la signification soit comprise. Il faut une parole et pas seulement une information. De même, l’orientation, le chemin et son caractère initiatique comme déroutant, produisent du sens.
Mais, si nous le vivons ainsi c’est parce que nous avons vécu dans un monde de sensation, de signification et d’orientation relativement classique. Les plus jeunes n’ont pas nécessairement ces réflexes. Certains sont déjà couplés aux outils d’IA générative qui leurs servent de coach particuliers en continue… C’est un autre rapport au savoir qui arrive pour une génération qui n’a pas le rapport au savoir que nous avons construit.
Dans les algorithmes : Vous expliquez que cette extension du surconscient produit des pathologies que vous qualifiez de digitoses, pour parler d’un conflit entre la conscience et le surconscient. Mais pourquoi parlez-vous de digitose plutôt que de nouvelles névroses ou de nouvelles psychoses ?
Pascal Chabot : Quand j’ai travaillé sur la question du burn-out, j’ai pu constater que le domaine de la santé mentale devait évoluer. Les concepts classiques, de névrose ou de psychose, n’étaient plus opérants pour décrire ces nouvelles afflictions. Nous avions des notions orphelines d’une théorie plus englobante. Le burn-out ou l’éco-anxiété ne sont ni des névroses ni des psychoses. Pour moi, la santé mentale avait besoin d’un aggiornamento, d’une mise à jour. J’ai cherché des analogies entre inconscient et surconscient, le ça, le là, le refoulement et le défoulement… J’ai d’abord trouvé le terme de numérose avant de lui préféré le terme de digitose en référence au digital plus qu’au numérique. C’est un terme qui par son suffixe en tout cas ajoute un penchant pathologique au digital. Peu à peu, les digitoses se sont structurées en plusieurs familles : les digitoses de scission, d’avenir, de rivalité… qui m’ont permis de créer une typologie des problèmes liés à un rapport effréné ou sans conscience au numérique qui génère de nouveaux types de pathologies.
Dans les algorithmes : Le terme de digitose, plus que le lien avec le surconscient, n’accuse-t-il pas plus le messager que le message ? Sur l’éco-anxiété, l’information que l’on obtient via le numérique peut nous amener à cette nouvelle forme d’inquiétude sourde vis à vis du futur, mais on peut être éco-anxieux sans être connecté. Or, dans votre typologie des digitoses, c’est toujours le rapport au numérique qui semble mis au banc des accusés…
Pascal Chabot : Je ne voudrais pas donner l’impression que je confond le thermomètre et la maladie effectivement. Mais, quand même : le média est le message. Ce genre de pathologies là, qui concernent notre rapport au réel, arrivent dans un monde où le réel est connu et transformé par le numérique. Pour prendre l’exemple de l’éco-anxiété, on pourrait tout à fait faire remarquer qu’elle a existé avant internet. Le livre de Rachel Carson, Le printemps silencieux, par exemple, date des années 60.
Mais, ce qui est propre au monde numérique est qu’il a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas. L’avenir a toujours été le lieu de l’opacité, comblé par de grands récits mythiques ou apocalyptiques. Aujourd’hui, l’apport informationnel majeur du numérique, permet d’avoir pour chaque réalité un ensemble de statistiques prospectives extrêmement fiables. On peut trouver comment vont évoluer les populations d’insectes, la fonte des glaciers, les températures globales comme locales… Ce n’est pas uniquement le média numérique qui est mobilisé ici, mais la science, la technoscience, les calculateurs… c’est-à-dire la forme contemporaine du savoir. Les rapports du Giec en sont une parfaite illustration. Ils sont des éventails de scénarios chiffrés, sourcés, documentés… assortis de probabilités et validés collectivement. Ils font partie du surconscient, du dôme de savoir dans lequel nous évoluons et qui étend sa chape d’inquiétude et de soucis sur nos consciences. L’éco-anxiété est une digitose parce que c’est le branchement à ce surconscient là qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numérique est le vecteur.
« Le numérique a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas »
Dans les algorithmes : Ce n’est pas le fait que ce soit numérique, c’est ce que ce branchement transforme en nous…
Pascal Chabot : Oui, c’est la même chose dans le monde du travail, par rapport à la question du burn-out… Nombre de burn-out sont liés à des facteurs extra-numériques qui vont des patrons chiants, aux collègues toxiques… et qui ont toujours existé, hélas. Mais dans la structure contemporaine du travail, dans son exigence, dans ce que les algorithmes font de notre rapport au système, au travail, à la société… ces nouveaux branchements, ce reporting constant, cette normalisation du travail… renforcent encore les souffrances que nous endurons.
« L’éco-anxiété est une digitose parce que c’est le branchement à ce surconscient là qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numérique est le vecteur. »
Dans les algorithmes : Outre la digitose de scission (le burn-out), et la digitose d’avenir (l’éco-anxiété) dont vous nous avez parlé, vous évoquez aussi la digitose de rivalité, celle de notre confrontation à l’IA et de notre devenir machine. Expliquez-nous !
Pascal Chabot : Il faut partir de l’écriture pour la comprendre. Ce que l’on délègue à un chatbot, c’est de l’écriture. Bien sûr, elles peuvent générer bien d’autres choses, mais ce sont d’abord des machines qui ont appris à aligner des termes en suivant les grammaires pour produire des réponses sensées, c’est-à-dire qui font sens pour quelqu’un qui les lit. Ce qui est tout à fait perturbant, c’est que de cette sorte de graphogenèse, de genèse du langage graphique, naît quelque chose comme une psychogenèse. C’est simplement le bon alignement de termes qui répond à telle ou telle question qui nous donne l’impression d’une intentionnalité. Depuis que l’humanité est l’humanité, un terme écrit nous dit qu’il a été pensé par un autre. Notre rapport au signe attribue toujours une paternité. L’humanité a été créée par les Ecritures. Les sociétés religieuses, celles des grands monothéismes, sont des sociétés du livre. Être en train de déléguer l’écriture à des machines qui le feront de plus en plus correctement, est quelque chose d’absolument subjuguant. Le problème, c’est que l’humain est paresseux et que nous risquons de prendre cette voie facile. Nos consciences sont pourtant nées de l’écriture. Et voilà que désormais, elles se font écrire par des machines qui appartiennent à des ultraforces qui ont, elles, des visées politiques et économiques. Politique, car écrire la réponse à la question « la démocratie est-elle un bon régime ? » dépendra de qui relèvent de ces ultraforces. Économique, comme je m’en amusait dans L’homme qui voulait acheter le langage… car l’accès à ChatGPT est déjà payant et on peut imaginer que les accès à de meilleures versions demain, pourraient être plus chères encore. La capitalisme linguistique va continuer à se développer. L’écriture, qui a été un outil d’émancipation démocratique sans commune mesure (car apprendre à écrire a toujours été le marqueur d’entrée dans la société), risque de se transformer en simple outil de consommation. Outre la rivalité existentielle de l’IA qui vient dévaluer notre intelligence, les impacts politiques et économiques ne font que commencer. Pour moi, il y dans ce nouveau rapport quelque chose de l’ordre de la dépossession, d’une dépossession très très profonde de notre humanité.
Dans les algorithmes : Ecrire, c’est penser. Être déposséder de l’écriture, c’est être dépossédé de la pensée.
Pascal Chabot : Oui et cela reste assez vertigineux. Notamment pour ceux qui ont appris à manier l’écriture et la pensée. Ecrire, c’est s’emparer du langage pour lui injecter un rythme, une stylistique et une heuristique, c’est-à-dire un outil de découverte, de recherche, qui nous permet de stabiliser nos relations à nous-mêmes, à autrui, au savoir… Quand on termine un mail, on réfléchit à la formule qu’on veut adopter en fonction de la relation à l’autre que nous avons… jusqu’à ce que les machines prennent cela en charge. On a l’impression pour le moment d’être au stade de la rivalité entre peinture et photographie vers 1885. Souvenons-nous que la photographie a balayé le monde ancien.
Mais c’est un monde dont il faut reconnaître aussi les limites et l’obsolescence. Le problème des nouvelles formes qui viennent est que le sens qu’elles proposent est bien trop extérieur aux individus. On enlève l’individu au sens. On est dans des significations importées, dans des orientations qui ne sont pas vécues existentiellement.
Dans les algorithmes : Pour répondre aux pathologies des digitoses, vous nous invitez à une thérapie de civilisation. De quoi avons-nous besoin pour pouvoir répondre aux digitoses ?
Pascal Chabot : La conscience, le fait d’accompagner en conscience ce que nous faisons change la donne. Réfléchir sur le temps, prendre conscience de notre rapport temporel, change notre rapport au temps. Réfléchir à la question du sens permet de prendre une hauteur et de créer une série de filtres permettant de distinguer des actions insensées qui relèvent à la fois des grandes transcendance avec une majuscule que des conduites passives face au sens. La thérapie de la civilisation, n’est rien d’autre que la philosophie. C’est un plaidoyer pro domo ! Mais la philosophie permet de redoubler ce que nous vivons d’une sorte de conscience de ce que nous vivons : la réflexivité. Et cette façon de réfléchir permet d’évaluer et garder vive la question de l’insensé, de l’absurde et donc du sens.
Dans les algorithmes : Dans ce surconscient qui nous aplatit, comment vous situez-vous face aux injonctions à débrancher, à ne plus écouter la télévision, la radio, à débrancher les écrans ? Cela relève d’un levier, du coaching comportemental ou est-ce du meaning washing ?
Pascal Chabot : Je n’y crois pas trop. C’est comme manger des légumes ou faire pipi sous la douche. Les mouvements auxquels nous sommes confrontés sont bien plus profonds. Bien sûr, chacun s’adapte comme il peut. Je ne cherche pas à être jugeant. Mais cela nous rappelle d’ailleurs que la civilisation du livre et de l’écrit a fait beaucoup de dégâts. La conscience nous aide toujours à penser mieux. Rien n’est neutre. Confrontés aux ultraforces, on est dans un monde qui développe des anti-rapports, à la fois des dissonnances, des dénis ou des esquives pour tenter d’échapper à notre impuissance.
Dans les algorithmes : Vous êtes assez alarmiste sur les enjeux civilisationnels de l’intelligence artificielle que vous appelez très joliment des « communicants artificiels ». Et de l’autre, vous nous expliquez que ces outils vont continuer la démocratisation culturelle à l’œuvre. Vous rappelez d’ailleurs que le protestantisme est né de la généralisation de la lecture et vous posez la question : « que naîtra-t-il de la généralisation de l’écriture ? »
Mais est-ce vraiment une généralisation de l’écriture à laquelle nous assistons ? On parle de l’écriture de et par des machines. Et il n’est pas sûr que ce qu’elles produisent nous pénètrent, nous traversent, nous émancipent. Finalement, ce qu’elles produisent ne sont que des réponses qui ne nous investissent pas nécessairement. Elles font à notre place. Nous leur déléguons non seulement l’écriture, mais également la lecture… au risque d’abandonner les deux. Est-ce que ces outils produisent vraiment une nouvelle démocratisation culturelle ? Sommes-nous face à un nouvel outil interculturel ou assistons-nous simplement à une colonisation et une expansion du capitalisme linguistique ?
Pascal Chabot : L’écriture a toujours été une sorte de ticket d’entrée dans la société et selon les types d’écritures dont on était capable, on pouvait pénétrer dans tel ou tel milieu. L’écriture est très clairement un marqueur de discrimination sociale. C’est le cas de l’orthographe, très clairement, qui est la marque de niveaux d’éducation. Mais au-delà de l’orthographe, le fait de pouvoir rédiger un courrier, un CV… est quelque chose de très marqué socialement. Dans une formation à l’argumentation dans l’équivalent belge de France Travail, j’ai été marqué par le fait que pour les demandeurs d’emploi, l’accès à l’IA leur changeait la vie, leur permettant d’avoir des CV, des lettres de motivation adaptées. Pour eux, c’était un boulet de ne pas avoir de CV corrects. Même chose pour les étudiants. Pour nombre d’entre eux, écrire est un calvaire et ils savent très bien que c’est ce qu’ils ne savent pas toujours faire correctement. Dans ces nouveaux types de couplage que l’IA permet, branchés sur un surconscient qui les aide, ils ont accès à une assurance nouvelle.
Bien sûr, dans cette imitation, personne n’est dupe. Mais nous sommes conditionnés par une société qui attribue à l’auteur d’un texte les qualités de celui-ci, alors que ses productions ne sont pas que personnelles, elles sont d’abord le produit des classes sociales de leurs auteurs, de la société dont nous sommes issus. Dans ce nouveau couplage à l’IA, il me semble qu’il y a quelque chose de l’ordre d’une démocratisation.
Dans les algorithmes : Le risque avec l’IA, n’est-il pas aussi, derrière la dépossession de l’écriture, notre dépossession du sens lui-même ? Le sens nous est désormais imposé par d’autres, par les résultats des machines. Ce qui m’interroge beaucoup avec l’IA, c’est cette forme de délégation des significations, leur aplatissement, leur moyennisation. Quand on demande à ces outils de nous représenter un mexicain, ils nous livrent l’image d’une personne avec un sombrero ! Or, faire société, c’est questionner tout le temps les significations pour les changer, les modifier, les faire évoluer. Et là, nous sommes confrontés à des outils qui les figent, qui excluent ce qui permet de les remettre en cause, ce qui sort de la norme, de la moyenne…
Pascal Chabot : Oui, nous sommes confrontés à un « Bon gros bon sens » qui n’est pas sans rappeler Le dictionnaire des idées de reçues de Flaubert…
Dans les algorithmes : …mais le dictionnaire des idées reçues était ironique, lui !
Pascal Chabot : Il est ironique parce qu’il a vu l’humour dans le « Bon gros bon sens ». Dans la société, les platitudes circulent. C’est la tâche de la culture et de la créativité de les dépasser. Car le « Bon gros bon sens » est aussi très politique : il est aussi un sens commun, avec des assurances qui sont rabachées, des slogans répétés…. Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est très loin de ce qui est subtil, de ce qui est fin, polysémique, ambiguë, plein de doute, raffiné, étrange, surréaliste… C’est-à-dire tout ce qui fait la vie de la culture. On est plongé dans un pragmatisme anglo-saxon, qui a un rapport au langage très peu polysémique d’ailleurs. Le problème, c’est que ce « Bon gros bon sens » est beaucoup plus invasif. Il a une force d’autorité. Le produit de ChatGPT ne nous est-il pas présenté d’ailleurs comme un summum de la science ?
« Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est très loin de ce qui est subtil, de ce qui est fin, polysémique, ambiguë, plein de doute, raffiné, étrange, surréaliste… C’est-à-dire tout ce qui fait la vie de la culture. »
Dans les algorithmes : Et en même temps, ce calcul laisse bien souvent les gens sans prise, sans moyens d’action individuels comme collectifs.
Le point commun entre les différentes digitoses que vous listez me semble-t-il est que nous n’avons pas de réponses individuelles à leur apporter. Alors que les névroses et psychoses nécessitent notre implication pour être réparées. Face aux digitoses, nous n’avons pas de clefs, nous n’avons pas de prises, nous sommes sans moyen d’action individuels comme collectifs. Ne sommes nous pas confrontés à une surconscience qui nous démunie ?
Pascal Chabot : Il est certain que le couplage des consciences au surconscient, en tant qu’elle est un processus de civilisation, apparaît comme un nouveau destin. Il s’impose, piloté par des ultraforces sur lesquelles nous n’avons pas de prise. En ce sens, il s’agit d’un nouveau destin, avec tout ce que ce terme charrie d’imposition et d’inexorabilité.
En tant que les digitoses expriment le versant problématique de ce nouveau couplage, elles aussi ont quelque chose de fatal. Branchée à une réalité numérique qui la dépasse et la détermine, la conscience peine souvent à exprimer sa liberté, qui est pourtant son essence. La rivalité avec les IA, l’eco-anxiété, la scission avec le monde sensible : autant de digitoses qui ont un aspect civilisationnel, presque indépendant du libre-arbitre individuel. Les seules réponses, en l’occurrence, ne peuvent être que politiques. Mais là aussi, elles ne sont pas faciles à imaginer.
Or on ne peut pourtant en rester là. Si ce seul aspect nécessaire existait, toute cette théorie ne serait qu’une nouvelle formulation de l’aliénation. Mais les digitoses ont une composante psychologique, de même que les névroses et psychoses. Cette composante recèle aussi des leviers de résistance. La prise de conscience, la lucidité, la reappropriation, l’hygiène mentale, une certaine désintoxication, le choix de brancher sa conscience sur des réalités extra-numériques, et tant d’autres stratégies encore, voire tant d’autres modes de vies, peuvent très clairement tempérer l’emprise de ces digitoses sur l’humain. C’est dire que l’individu, face à ce nouveau destin civilisationnel, garde des marges de résistance qui, lorsqu’elles deviennent collectives, peuvent être puissantes.
Les digitoses sont donc un défi et un repoussoir : une occasion de chercher et d’affirmer des libertés nouvelles dans un monde où s’inventent sous nos yeux de nouveaux déterminismes.
Dans les algorithmes : Derrière le surconscient, le risque n’est-il pas que s’impose une forme de sur-autorité, de sur-vision… sur lesquelles, il sera difficile de créer des formes d’échappement, de subtilité, d’ambiguité. On a l’impression d’être confronté à une force politique qui ne dit pas son nom mais qui se donne un nouveau moyen de pouvoir…
Pascal Chabot : C’est clair que la question est celle du pouvoir, politique et économique. Les types de résistances sont extrêmement difficiles à inventer. C’est le propre du pouvoir de rendre la résistance à sa force difficile. On est confronté à un tel mélange de pragmatisme, de facilitation de la vie, de création d’une bulle de confort, d’une enveloppe où les réponses sont faciles et qui nous donnent accès à de nouveaux mondes, comme le montrait la question de la démocratisation qu’on évoquait à l’instant… que la servitude devient très peu apparente. Et la perte de subtilité et d’ambiguïté est peu vue, car les gains économiques supplantent ces pertes. Qui se rend compte de l’appauvrissement ? Il faut avoir un pied dans les formes culturelles précédentes pour cela. Quand les choses seront plus franches, ce que je redoute, c’est que nos démocraties ne produisent pas de récits numériques pour faire entendre une autre forme de puissance.
Dans les algorithmes : En 2016 vous avez publié, ChatBot le robot, une très courte fable écrite bien avant l’avènement de l’IA générative, qui met en scène un jury de philosophes devant décider si une intelligence artificielle est capable de philosopher. Ce petit drame philosophique où l’IA fomente des réponses à des questions philosophiques, se révèle très actuel 9 ans plus tard. Qualifieriez vous ChatGPT et ses clones de philosophes ?
Pascal Chabot : Je ne suis pas sûr. Je ne suis pas sûr que ce chatbot là se le décernerait à lui, comme il est difficile à un artiste de se dire artiste. Mon Chatbot était un récalcitrant, ce n’est pas le cas des outils d’IA d’aujourd’hui. Il leur manque un rapport au savoir, le lien entre la sensation et la signification. La philosophie ne peut pas être juste de la signification. Et c’est pour cela que l’existentialisme reste la matrice de toute philosophie, et qu’il n’y a pas de philosophie qui serait non-existentielle, c’est-à-dire pure création de langage. La graphogenèse engendre une psychogenèse. Mais la psychogenèse, cette imitation de la conscience, n’engendre ni philosophie ni pensée humaine. Il n’y a pas de conscience artificielle. La conscience est liée à la naissance, la mort, la vie.
Dans les algorithmes : La question de l’incalculabité est le sujet de la conférence USI 2025 à laquelle vous allez participer. Pour un un philosophe, qu’est-ce qui est incalculable ?
Pascal Chabot : L’incalculable, c’est le subtil ! L’étymologie de subtil, c’est subtela, littéralement, ce qui est en-dessous d’une toile. En dessous d’une toile sur laquelle on tisse, il y a évidémment la trame, les fils de trame. Le subtil, c’est les fils de trame, c’est-à-dire nos liens majeurs, les liens à nous-mêmes, aux autres, au sens, à la culture, nos liens amoureux, amicaux… Et tout cela est profondément de l’ordre de l’incalculable. Et tout cela est même profané quand on les calcule. Ces liens sont ce qui résiste intrinsèquement à la calculabilité, qui est pourtant l’un des grands ressort de l’esprit humain et pas seulement des machines. Le problème, c’est qu’on est tellement dans une idéologie de la calculabilité qu’on ne perçoit même plus qu’on peut faire des progrès dans le domaine du subtil. Désormais, le progrès semble lié à la seule calculabilité. Le progrès est un progrès du calculable et de l’utile. Or, je pense qu’il existe aussi un progrès dans le domaine du subtil. Dans l’art d’être ami par exemple, dans l’art d’être lié à soi-même ou aux autres, il y a moyen de faire des progrès. Il y a là toute une zone de développement, de progrès (nous ne devons pas laisser le terme uniquement à la civilisation techno-économique), de progrès subtil. Un progrès subtil, incalculable, mais extrêmement précieux.
Propos recueillis par Hubert Guillaud.
Pascal Chabot sera l’un des intervenants de la conférence USI 2025 qui aura lieu lundi 2 juin à Paris et dont le thème est « la part incalculable du numérique » et pour laquelle Danslesalgorithmes.net est partenaire.
-
7:00
Aux US, le prix des études s’ajuste selon celui que vous êtes prêts à payer
sur Dans les algorithmesLes tarifs des études dans les grandes universités américaines sont très élevés et les établissements se livrent à une concurrence féroce que ce soit pour fixer les prix des frais de scolarité comme pour fixer les réductions qu’elles distribuent sous forme de bourses. Ces réductions peuvent être considérables : en moyenne, elles permettent de réduire le prix de plus de 56% pour les nouveaux étudiants et peuvent monter jusqu’à six chiffres sur le coût total des études. Or, explique Ron Lieber, pour le New York Times, les prix comme les réductions dépendent de calculs complexes, d’algorithmes opaques, mis au point discrètement depuis des décennies par des cabinets de conseil opérant dans l’ombre, notamment EAB et Ruffalo Noel Levitz (RNL) qui appartiennent à des sociétés de capital-investissement.
Lieber raconte la mise au point d’un algorithme dédié au Boston College par Jack Maguire dans les années 70, visant à accorder des réductions ciblées sur la base de la qualité des candidats plutôt que sur leurs moyens financiers, dans le but que nombre d’entre eux acceptent l’offre d’étude qui leur sera faite. Les sociétés qui proposent des algorithmes parlent, elles, “d’optimisation de l’aide financière”. Pour cela, elles utilisent les données sociodémographiques que les étudiants remplissent lors d’une demande d’information. S’ensuit des échanges numériques nourris entre universités et candidats pour évaluer leur engagement en mesurant tout ce qui est mesurable : clics d’ouvertures aux messages qui leurs sont adressés, nombre de secondes passées sur certaines pages web. L’EAB utilise plus de 200 variables pour fixer le prix d’admission en s’appuyant sur les données de plus de 350 clients et plus de 1,5 milliard d’interactions avec des étudiants. Pour chaque profil, des matrices sont produites mesurant à la fois la capacité de paiement et évaluant la réussite scolaire du candidat avant que les écoles ne fassent une offre initiale qui évolue au gré des discussions avec les familles. L’article évoque par exemple un établissement qui “a offert aux étudiants provenant d’autres Etats une réduction trois fois supérieure au prix catalogue par étudiant par rapport à celle proposée aux étudiants de l’Etat, tout en leur faisant payer le double du prix net”. Le but de l’offre était de les attirer en leur faisant une proposition qu’ils ne pouvaient pas refuser.
Mais contrairement à ce que l’on croit, les « bourses » ne sont pas que des bourses sur critères sociaux. C’est même de moins en moins le cas. Bien souvent, les universités proposent des bourses à des gens qui n’en ont pas besoin, comme une forme de remise tarifaire. En fait, la concurrence pour attirer les étudiants capables de payer est très forte, d’où l’enjeu à leur offrir des remises convaincantes, et les familles ont vite compris qu’elles pouvaient jouer de cette concurrence. En fait, constate une responsable administrative : “je pensais que l’aide financière servait à améliorer l’accès, mais ce n’est plus le cas. C’est devenu un modèle économique.” Les bourses ne servent plus tant à permettre aux plus démunis d’accéder à l’université, qu’à moduler la concurrence inter-établissement, à chasser les étudiants qui ont les capacités de payer.
En 2023, EAB a lancé Appily, un portail universitaire grand public à l’ambiance positive, une plateforme de mise en relation entre futurs étudiants à la manière d’une application de rencontre qui compte déjà 3 millions d’utilisateurs. Le recrutement d’étudiants est en passe de devenir de plus en plus concurrentiel à l’heure où les financements des universités s’apprêtent à se tarit sous les coupes de l’administration Trump et où la venue d’étudiants étrangers devient extrêmement difficile du fait des nouvelles politiques d’immigration mises en place. Comme on le constatait dans d’autres rapports tarifaires, dans les études supérieures également, le marketing numérique a pris le contrôle : là encore, le meilleur prix est devenu celui que les étudiants et les familles sont prêts à payer.
-
7:00
La crise de l’emploi créée par l’IA est déjà là !
sur Dans les algorithmes« La crise de l’emploi via l’IA est arrivée. Elle est là, maintenant. Elle ne ressemble simplement pas à ce que beaucoup attendaient.
La crise de l’emploi dans l’IA ne ressemble pas, comme je l’ai déjà écrit, à l’apparition de programmes intelligents partout autour de nous, remplaçant inexorablement et massivement les emplois humains. Il s’agit d’une série de décisions managériales prises par des dirigeants cherchant à réduire les coûts de main-d’œuvre et à consolider le contrôle de leurs organisations. La crise de l’emploi dans l’IA n’est pas une apocalypse d’emplois robotisés à la SkyNet : c’est le Doge qui licencie des dizaines de milliers d’employés fédéraux sous couvert d’une « stratégie IA prioritaire ».
La crise de l’emploi dans l’IA ne se résume pas au déplacement soudain de millions de travailleurs d’un seul coup ; elle se manifeste plutôt par l’attrition dans les industries créatives, la baisse des revenus des artistes, écrivains et illustrateurs indépendants, et par la propension des entreprises à embaucher moins de travailleurs humains.
En d’autres termes, la crise de l’emploi dans l’IA est davantage une crise de la nature et de la structure du travail qu’une simple tendance émergeant des données économiques », explique Brian Merchant. « Les patrons ont toujours cherché à maximiser leurs profits en utilisant des technologies de réduction des coûts. Et l’IA générative a été particulièrement efficace pour leur fournir un argumentaire pour y parvenir, et ainsi justifier la dégradation, la déresponsabilisation ou la destruction d’emplois précaires ». Le Doge en est une parfaite illustration : « il est présenté comme une initiative de réduction des coûts visant à générer des gains d’efficacité, mais il détruit surtout massivement des moyens de subsistance et érode le savoir institutionnel ».
« On entend souvent dire que l’IA moderne était censée automatiser les tâches rébarbatives pour que nous puissions tous être plus créatifs, mais qu’au lieu de cela, elle est utilisée pour automatiser les tâches créatives ». Pourquoi ? Parce que l’IA générative reste performante pour « certaines tâches qui ne nécessitent pas une fiabilité constante, ce qui explique que ses fournisseurs ciblent les industries artistiques et créatives ».
Luis von Ahn, PDG milliardaire de la célèbre application d’apprentissage des langues Duolingo, a annoncé que son entreprise allait officiellement être axée sur l’IA. Mais ce n’est pas nouveau, voilà longtemps que la startup remplace ses employés par de l’IA. En réalité, les employés ne cessent de corriger les contenus produits par l’IA au détriment du caractère original et de la qualité.
-
7:00
Nuages sur les infrastructures publiques : repenser la gouvernance d’internet à l’ère des hyperscalers
sur Dans les algorithmesDans une tribune pour Tech Policy Press, l’anthropologue Corinne Cath revient sur la montée de la prise de conscience de la dépendance européenne aux clouds américains. Aux Pays-Bas, le projet de transfert des processus d’enregistrements des noms de domaines nationaux « .nl » sur Amazon Web Services, a initié une réflexion nationale sur l’indépendance des infrastructures, sur laquelle la chercheuse a publié un rapport via son laboratoire, le Critical infrastructure Lab. Cette migration a finalement été stoppée par les politiciens néerlandais au profit de réponses apportées par les fournisseurs locaux.
Ces débats relatifs à la souveraineté sont désormais présents dans toute l’Europe, remarque-t-elle, à l’image du projet EuroStack, qui propose de développer une « souveraineté technologique européenne ». Son initiatrice, Francesca Bria, plaide pour la création d’un un Fonds européen pour la souveraineté technologique doté de 10 milliards d’euros afin de soutenir cette initiative, ainsi que pour des changements politiques tels que la priorité donnée aux technologies européennes dans les marchés publics, l’encouragement de l’adoption de l’open source et la garantie de l’interopérabilité. Ce projet a reçu le soutien d’entreprises européennes, qui alertent sur la crise critique de dépendance numérique qui menace la souveraineté et l’avenir économique de l’Europe.
La chercheuse souligne pourtant pertinemment le risque d’une défense uniquement souverainiste, consistant à construire des clones des services américains, c’est-à-dire un remplacement par des équivalents locaux. Pour elle, il est nécessaire de « repenser radicalement l’économie politique sous-jacente qui façonne le fonctionnement des systèmes numériques et leurs bénéficiaires ». Nous devons en profiter pour repenser la position des acteurs. Quand les acteurs migrent leurs infrastructure dans les nuages américains, ils ne font pas que déplacer leurs besoins informatiques, bien souvent ils s’adaptent aussi à des changements organisationnels, liés à l’amenuisements de leurs compétences techniques. Un cloud souverain européen ou national n’adresse pas l’enjeu de perte de compétences internes que le cloud tiers vient soulager. L’enjeu n’est pas de choisir un cloud plutôt qu’un autre, mais devrait être avant tout de réduire la dépendance des services aux clouds, quels qu’ils soient. Des universitaires des universités d’Utrecht et d’Amsterdam ont ainsi appelé leurs conseils d’administration, non pas à trouver des solutions de clouds souverains, mais à réduire la dépendance des services aux services en nuage. Pour eux, la migration vers le cloud transforme les universités « d’une source d’innovation technique et de diffusion de connaissances en consommateurs de services ».
Les initiatives locales, même très bien financées, ne pourront jamais concurrencer les services en nuage des grands acteurs du numérique américain, rappelle Corinne Cath. Les remplacer par des offres locales équivalentes ne peut donc pas être l’objectif. Le concept de souveraineté numérique produit un cadrage nationaliste voire militariste qui peut-être tout aussi préjudiciable à l’intérêt général que l’autonomie technologique pourrait souhaiter porter. Nous n’avons pas besoin de cloner les services en nuage américains, mais « de développer une vision alternative du rôle de l’informatique dans la société, qui privilégie l’humain sur la maximisation du profit ». Ce ne sont pas seulement nos dépendances technologiques que nous devons résoudre, mais également concevoir et financer des alternatives qui portent d’autres valeurs que celles de l’économie numérique américaine. « Les systèmes et les économies fondés sur les principes de suffisance, de durabilité, d’équité et de droits humains, plutôt que sur l’abondance informatique et l’expansion des marchés, offrent une voie plus prometteuse ».
-
7:00
Au Brésil, la sécurité sociale sous IA ne fait pas mieux qu’ailleurs
sur Dans les algorithmesDepuis 2018, l’administration brésilienne s’est mise à l’IA pour examiner les demandes de prestations sociales, avec pour objectif que 55% des demandes d’aides sociales soient automatisées d’ici la fin 2025. Problème : au Brésil comme partout ailleurs, le système dysfonctionne et rejette de nombreuses demandes à tort, rapporte Rest of the World, notamment celles de travailleurs ruraux pauvres dont les situations sont souvent aussi complexes que les règles de calcul de la sécurité sociale à leur égard. « Les utilisateurs mécontents des décisions peuvent faire appel auprès d’un comité interne de ressources juridiques, ce qui doit également se faire via l’application de la sécurité sociale brésilienne. Le délai moyen d’attente pour obtenir une réponse est de 278 jours ».
-
7:00
Doge : la fin du cloisonnement des données
sur Dans les algorithmesA l’heure où, aux Etats-Unis, le FBI, les services d’immigration et de police se mettent à poursuivre les ressortissants étrangers pour les reconduire aux frontières, sur Tech Policy Press, l’activiste Dia Kayyali rappelle que les Etats-Unis ont une longue histoire de chasse aux opposants politiques et aux étrangers. Du MacCarthysme au 11 septembre, les crises politiques ont toujours renforcé la surveillance des citoyens et plus encore des ressortissants d’origine étrangère. Le Brennan Center for Justice a publié en 2022 un rapport sur la montée de l’utilisation des réseaux sociaux dans ces activités de surveillance et rappelle que ceux-ci sont massivement mobilisés pour la surveillance des opposants politiques, notamment depuis Occupy et depuis 2014 pour le contrôle des demandes d’immigration et les contrôles aux frontières, rappelle The Verge.
Le premier projet de loi du second mandat de Donald Trump était un texte concernant l’immigration clandestine, nous rappelle Le Monde. C’est un texte qui propose la détention automatique par les forces de l’ordre fédérales de migrants en situation irrégulière qui ont été accusés, condamnés ou inculpés pour certains délits, mêmes mineurs, comme le vol à l’étalage.
La lutte contre l’immigration est au cœur de la politique du président américain, qui dénonce une “invasion” et annonce vouloir déporter 11 millions d’immigrants illégaux, au risque que le tissu social des Etats-Unis, nation d’immigrants, se déchire, rappelait The Guardian. Dès janvier, l’administration Trump a mis fin à l’application CBP One, seule voie pour les demandeurs d’asile désirant entrer légalement sur le territoire des Etats-Unis pour prendre rendez-vous avec l’administration douanière américaine et régulariser leur situation. La suppression unilatérale de l’application a laissé tous les demandeurs d’asile en attente d’un rendez-vous sans recours, rapportait Le Monde.
Une opération de fusion des informations sans précédentCette politique est en train de s’accélérer, notamment en mobilisant toutes les données numériques à sa disposition, rapporte Wired. Le Doge est en train de construire une base de données dédiée aux étrangers, collectant les données de plusieurs administrations, afin de créer un outil de surveillance d’une portée sans précédent. L’enjeu est de recouper toutes les données disponibles, non seulement pour mieux caractériser les situations des étrangers en situation régulière comme irrégulière, mais également les géolocaliser afin d’aider les services de police chargés des arrestations et de la déportation, d’opérer.
Jusqu’à présent, il existait d’innombrables bases de données disparates entre les différentes agences et au sein des agences. Si certaines pouvaient être partagées, à des fins policières, celles-ci n’ont jamais été regroupées par défaut, parce qu’elles sont souvent utilisées à des fins spécifiques. Le service de l’immigration et des douanes (ICE, Immigration and Customs Enforcement) et le département d’investigation de la sécurité intérieure (HSI, Homeland Security Investigations), par exemple, sont des organismes chargés de l’application de la loi et ont parfois besoin d’ordonnances du tribunal pour accéder aux informations sur un individu dans le cadre d’enquêtes criminelles, tandis que le service de citoyenneté et d’immigration des États-Unis (USCIS, United States Citizenship and Immigration Services) des États-Unis collecte des informations sensibles dans le cadre de la délivrance régulière de visas et de cartes vertes.
Des agents du Doge ont obtenu l’accès aux systèmes de l’USCIS. Ces bases de données contiennent des informations sur les réfugiés et les demandeurs d’asile, des données sur les titulaires de cartes vertes, les citoyens américains naturalisés et les bénéficiaires du programme d’action différée pour les arrivées d’enfants. Le Doge souhaite également télécharger des informations depuis les bases de données de myUSCIS, le portail en ligne où les immigrants peuvent déposer des demandes, communiquer avec l’USCIS, consulter l’historique de leurs demandes et répondre aux demandes de preuves à l’appui de leur dossier. Associées aux informations d’adresse IP des personnes qui consultent leurs données, elles pourraient servir à géolocaliser les immigrants.
Le département de sécurité intérieur (DHS, Department of Homeland Security) dont dépendent certaines de ces agences a toujours été très prudent en matière de partage de données. Ce n’est plus le cas. Le 20 mars, le président Trump a d’ailleurs signé un décret exigeant que toutes les agences fédérales facilitent « le partage intra- et inter-agences et la consolidation des dossiers non classifiés des agences », afin d’entériner la politique de récupération de données tout azimut du Doge. Jusqu’à présent, il était historiquement « extrêmement difficile » d’accéder aux données que le DHS possédait déjà dans ses différents départements. L’agrégation de toutes les données disponibles « représenterait une rupture significative dans les normes et les politiques en matière de données », rappelle un expert. Les agents du Doge ont eu accès à d’innombrables bases, comme à Save, un système de l’USCIS permettant aux administrations locales et étatiques, ainsi qu’au gouvernement fédéral, de vérifier le statut d’immigration d’une personne. Le Doge a également eu accès à des données de la sécurité sociale et des impôts pour recouper toutes les informations disponibles.
Le problème, c’est que la surveillance et la protection des données est également rendue plus difficile. Les coupes budgétaires et les licenciements ont affecté trois services clés qui constituaient des garde-fous importants contre l’utilisation abusive des données par les services fédéraux, à savoir le Bureau des droits civils et des libertés civiles (CRCL, Office for Civil Rights and Civil Liberties), le Bureau du médiateur chargé de la détention des immigrants et le Bureau du médiateur des services de citoyenneté et d’immigration. Le CRCL, qui enquête sur d’éventuelles violations des droits de l’homme par le DHS et dont la création a été mandatée par le Congrès est depuis longtemps dans le collimateur du Doge.
Le 5 avril, le DHS a conclu un accord avec les services fiscaux (IRS) pour utiliser les données fiscales. Plus de sept millions de migrants travaillent et vivent aux États-Unis. L’ICE a également récemment versé des millions de dollars à l’entreprise privée Palantir pour mettre à jour et modifier une base de données de l’ICE destinée à traquer les immigrants, a rapporté 404 Media. Le Washington Post a rapporté également que des représentants de Doge au sein d’agences gouvernementales – du Département du Logement et du Développement urbain à l’Administration de la Sécurité sociale – utilisent des données habituellement confidentielles pour identifier les immigrants sans papiers. Selon Wired, au Département du Travail, le Doge a obtenu l’accès à des données sensibles sur les immigrants et les ouvriers agricoles. La fusion de toutes les données entre elles pour permettre un accès panoptique aux informations est depuis l’origine le projet même du ministère de l’efficacité américain, qui espère que l’IA va lui permettre de rendre le traitement omniscient.
Le changement de finalités de la collecte de données, moteur d’une défiance généraliséeL’administration des impôts a donc accepté un accord de partage d’information et de données avec les services d’immigration, rapporte la NPR, permettant aux agents de l’immigration de demander des informations sur les immigrants faisant l’objet d’une ordonnance d’expulsion. Derrière ce qui paraît comme un simple accès à des données, il faut voir un changement majeur dans l’utilisation des dossiers fiscaux. Les modalités de ce partage d’information ne sont pas claires puisque la communication du cadre de partage a été expurgée de très nombreuses informations. Pour Murad Awawdeh, responsable de la New York Immigration Coalition, ce partage risque d’instaurer un haut niveau de défiance à respecter ses obligations fiscales, alors que les immigrants paient des impôts comme les autres et que les services fiscaux assuraient jusqu’à présent aux contribuables sans papiers la confidentialité de leurs informations et la sécurité de leur déclaration de revenus.
La NPR revient également sur un autre changement de finalité, particulièrement problématique : celle de l’application CBP One. Cette application lancée en 2020 par l’administration Biden visait à permettre aux immigrants de faire une demande d’asile avant de pénétrer aux Etats-Unis. Avec l’arrivée de l’administration Trump, les immigrants qui ont candidaté à une demande d’asile ont reçu une notification les enjoignants à quitter les Etats-Unis et les données de l’application ont été partagées avec les services de police pour localiser les demandeurs d’asile et les arrêter pour les reconduire aux frontières. Pour le dire simplement : une application de demande d’asile est désormais utilisée par les services de police pour identifier ces mêmes demandeurs et les expulser. Les finalités sociales sont transformées en finalités policières. La confidentialité même des données est détruite.
CBP One n’est pas la seule application dont la finalité a été modifiée. Une belle enquête du New York Times évoque une application administrée par Geo Group, l’un des principaux gestionnaires privés de centres pénitentiaires et d’établissements psychiatriques aux Etats-Unis. Une application que des étrangers doivent utiliser pour se localiser et s’identifier régulièrement, à la manière d’un bracelet électronique. Récemment, des utilisateurs de cette application ont été convoqués à un centre d’immigration pour mise à jour de l’application. En fait, ils ont été arrêtés.
Geo Group a développé une activité lucrative d’applications et de bracelets électroniques pour surveiller les immigrants pour le compte du gouvernement fédéral qui ont tous été mis au service des procédures d’expulsion lancées par l’administration Trump, constatent nombre d’associations d’aides aux étrangers. “Alors même que M. Trump réduit les dépenses du gouvernement fédéral, ses agences ont attribué à Geo Group de nouveaux contrats fédéraux pour héberger des immigrants sans papiers. Le DHS envisage également de renouveler un contrat de longue date avec l’entreprise – d’une valeur d’environ 350 millions de dollars l’an dernier – pour suivre les quelque 180 000 personnes actuellement sous surveillance”. Ce programme “d’alternative à la détention en centre de rétention » que Noor Zafar, avocate principale à l’American Civil Liberties Union, estime relever plutôt d’une “extension à la détention”, consiste en des applications et bracelets électroniques. Les programmes de Geo Group, coûteux, n’ont pas été ouverts à la concurrence, rapporte le New York Times, qui explique également que ses programmes sont en plein boom. Ces applications permettent aux employés de Geo Group de savoir en temps réel où se trouvent leurs porteurs, leur permettent de délimiter des zones dont ils ne peuvent pas sortir sans déclencher des alertes.
Une confiance impossible !Ces exemples américains de changement de finalités sont emblématiques et profondément problématiques. Ils ne se posent pourtant pas que de l’autre côté de l’Atlantique. Utiliser des données produites dans un contexte pour d’autres enjeux et d’autres contextes est au cœur des fonctionnements des systèmes numériques, comme nous l’avions vu à l’époque du Covid. Les finalités des traitements des services numériques qu’on utilise sont rarement claires, notamment parce qu’elles peuvent être mises à jour unilatéralement et ce, sans garantie. Et le changement de finalité peut intervenir à tout moment, quelque soit l’application que vous utilisez. Remplir un simple questionnaire d’évaluation peut finalement, demain, être utilisé par le service qui le conçoit ou d’autres pour une toute autre finalité, et notamment pour réduire les droits des utilisateurs qui y ont répondu. Répondre à un questionnaire de satisfaction de votre banque ou d’un service public, qui semble anodin, peut divulguer des données qui seront utilisées pour d’autres enjeux. Sans renforcer la protection absolue des données, le risque est que ces exemples démultiplient la méfiance voire le rejet des citoyens et des administrés. A quoi va être utilisé le questionnaire qu’on me propose ? Pourra-t-il être utilisé contre moi ? Qu’est-ce qui me garantie qu’il ne le sera pas ?
La confiance dans l’utilisation qui est faite des données par les services, est en train d’être profondément remise en question par l’exemple américain et pourrait avoir des répercussions sur tous les services numériques, bien au-delà des Etats-Unis. La spécialiste de la sécurité informatique, Susan Landau, nous l’avait pourtant rappelé quand elle avait étudié les défaillances des applications de suivi de contact durant la pandémie : la confidentialité est toujours critique. Elle parlait bien sûr des données de santé des gens, mais on comprend qu’assurer la confidentialité des données personnelles que les autorités détiennent sur les gens est tout aussi critique. Les défaillances de confidentialité sapent la confiance des autorités qui sont censées pourtant être les premières garantes des données personnelles des citoyens.
Aurait-on oublié pourquoi les données sont cloisonnées ?« Ces systèmes sont cloisonnés pour une raison », rappelle Victoria Noble, avocate à l’Electronic Frontier Foundation. « Lorsque vous centralisez toutes les données d’une agence dans un référentiel central accessible à tous les membres de l’agence, voire à d’autres agences, vous augmentez considérablement le risque que ces informations soient consultées par des personnes qui n’en ont pas besoin et qui les utilisent à des fins inappropriées ou répressives, pour les instrumentaliser, les utiliser contre des personnes qu’elles détestent, des dissidents, surveiller des immigrants ou d’autres groupes. »
« La principale inquiétude désormais est la création d’une base de données fédérale unique contenant tout ce que le gouvernement sait sur chaque personne de ce pays », estime Cody Venzke de l’Union américaine pour les libertés civiles (ACLU). « Ce que nous voyons est probablement la première étape vers la création d’un dossier centralisé sur chaque habitant.» Wired rapporte d’ailleurs que l’ACLU a déposé plainte contre l’Administration de la Sécurité Sociale (SSA) et le Département des Anciens Combattants (VA) qui ont ouvert des accès de données sensibles au Doge en violation de la loi sur la liberté d’information, après en avoir déjà déposé une en février contre le Trésor américain pour les mêmes raisons (alors que ce n’est pas nécessairement la seule manière de procéder. Confronté aux demandes du Doge, le régulateur des marchés financiers américains, rapporte Reuters, a pour l’instant pu créer une équipe de liaison spécifique pour répondre aux demandes d’information du Doge, afin que ses équipes n’aient pas accès aux données de l’autorité des marchés financiers).
En déposant plainte, l’ACLU cherche notamment à obtenir des documents pour saisir exactement ce à quoi a accès le Doge. “Les Américains méritent de savoir qui a accès à leurs numéros de sécurité sociale, à leurs informations bancaires et à leurs dossiers médicaux”, explique une avocate de l’ACLU.
Le cloisonnement des données, des bases, selon leurs finalités et les agences qui les administrent, est un moyen non seulement d’en préserver l’intégrité, mais également d’en assurer la sécurité et la confidentialité. Ce sont ces verrous qui sont en train de sauter dans toutes les administrations sous la pression du Doge, posant des questions de sécurité inédites, comme nous nous en inquiétons avec Jean Cattan dans une lettre du Conseil national du numérique. Ce sont les mesures de protection d’une démocratie numérique qui sont en train de voler en éclat.
Pour Wired, Brian Barrett estime que les données qu’agrège le Doge ne sont pas tant un outil pour produire une hypothétique efficacité, qu’une arme au service des autorités. La question de l’immigration n’est qu’un terrain d’application parmi d’autres. La brutalité qui s’abat sur les étrangers, les plus vulnérables, les plus démunis, est bien souvent une préfiguration de son extension à toutes les autres populations, nous disait le philosophe Achille Mbembe dans Brutalisme.
Et maintenant que les croisements de données sont opérationnels, que les données ont été récupérées par les équipes du Doge, l’enjeu va être de les faire parler, de les mettre en pratique.
Finalement, le départ annoncé ou probable de Musk de son poste en première ligne du Doge ne signe certainement pas la fin de cette politique, toute impopulaire qu’elle soit (enfin, Musk est bien plus impopulaire que les économies dans les services publics qu’il propose), mais au contraire, le passage à une autre phase. Le Doge a pris le contrôle, et il s’agit désormais de rendre les données productives. L’efficacité n’est plus de réduire les dépenses publiques de 2 000 milliards de dollars, comme le promettait Musk à son arrivée. Il a lui-même reconnu qu’il ne visait plus que 150 milliards de dollars de coupe en 2025, soit 15 % de l’objectif initial, comme le soulignait Le Monde. Mais le débat sur les coupes et l’efficacité, sont d’abord un quolifichet qu’on agite pour détourner l’attention de ce qui se déroule vraiment, à savoir la fin de la vie privée aux Etats-Unis. En fait, la politique initiée par le Doge ne s’arrêtera pas avec le retrait probable de Musk. IL n’en a été que le catalyseur.
Elizabeth Lopatto pour The Verge explique elle aussi que l’ère du Doge ne fait que commencer. Malgré ses échecs patents et l’explosion des plaintes judiciaires à son encontre (Bloomberg a dénombré plus de 300 actions en justice contre les décisions prises par le président Trump : dans 128 affaires, ils ont suspendu les décisions de l’administration Trump). Pour elle, Musk ne va pas moins s’immiscer dans la politique publique. Son implication risque surtout d’être moins publique et moins visible dans ses ingérences, afin de préserver son égo et surtout son portefeuille. Mais surtout, estime-t-elle, les tribunaux ne sauveront pas les Américains des actions du Doge, notamment parce que dans la plupart des cas, les décisions tardent à être prises et à être effectives. Pourtant, si les tribunaux étaient favorables à « l’élimination de la fraude et des abus », comme le dit Musk – à ce stade, ils devraient surtout œuvrer à “éliminer le Doge” !
Ce n’est malgré tout pas la direction qui est prise, au contraire. Même si Musk s’en retire, l’administration continue à renforcer le pouvoir du Doge qu’à l’éteindre. C’est ainsi qu’il faut lire le récent hackathon aux services fiscaux ou le projet qui s’esquisse avec Palantir. L’ICE, sous la coupe du Doge, vient de demander à Palantir, la sulfureuse entreprise de Thiel, de construire une plateforme dédiée, explique Wired : “ImmigrationOS”, « le système d’exploitation de l’immigration » (sic). Un outil pour “choisir les personnes à expulser”, en accordant une priorité particulière aux personnes dont le visa est dépassé qui doivent, selon la demande de l’administration, prendre leurs dispositions pour “s’expulser elles-mêmes des Etats-Unis”. L’outil qui doit être livré en septembre a pour fonction de cibler et prioriser les mesures d’application, c’est-à-dire d’aider à sélectionner les étrangers en situation irrégulière, les localiser pour les arrêter. Il doit permettre de suivre que les étrangers en situation irrégulière prennent bien leur disposition pour quitter les Etats-Unis, afin de mesurer la réalité des départs, et venir renforcer les efforts des polices locales, bras armées des mesures de déportation, comme le pointait The Markup.
De ImmigrationOS au panoptique américain : le démantèlement des mesures de protection de la vie privéeDans un article pour Gizmodo qui donne la parole à nombre d’opposants à la politique de destructions des silos de données, plusieurs rappellent les propos du sénateur démocrate Sam Ervin, auteur de la loi sur la protection des informations personnelles suite au scandale du Watergate, qui redoutait le caractère totalitaire des informations gouvernementales sur les citoyens. Pour Victoria Noble de l’Electronic Frontier Foundation, ce contrôle pourrait conduire les autorités à « exercer des représailles contre les critiques adressées aux représentants du gouvernement, à affaiblir les opposants politiques ou les ennemis personnels perçus, et à cibler les groupes marginalisés. » N’oubliez pas qu’il s’agit du même président qui a qualifié d’« ennemis » les agents électoraux, les journalistes, les juges et, en fait, toute personne en désaccord avec lui. Selon Reuters, le Doge a déjà utilisé l’IA pour détecter les cas de déloyauté parmi les fonctionnaires fédéraux. Pour les défenseurs des libertés et de la confidentialité, il est encore temps de renforcer les protections citoyennes. Et de rappeler que le passage de la sûreté à la sécurité, de la défense contre l’arbitraire à la défense de l’arbitraire, vient de ce que les élus ont passé bien plus d’énergie à légiférer pour la surveillance qu’à établir des garde-fous contre celle-ci, autorisant toujours plus de dérives, comme d’autoriser la surveillance des individus sans mandats de justice.
Pour The Atlantic, Ian Bogost et Charlie Warzel estiment que le Doge est en train de construire le panoptique américain. Ils rappellent que l’administration est l’univers de l’information, composée de constellations de bases de données. Des impôts au travail, toutes les administrations collectent et produisent des données sur les Américains, et notamment des données particulièrement sensibles et personnelles. Jusqu’à présent, de vieilles lois et des normes fragiles ont empêché que les dépôts de données ne soient regroupés. Mais le Doge vient de faire voler cela en éclat, préparant la construction d’un Etat de surveillance centralisé. En mars, le président Trump a publié un décret visant à éliminer les silos de données qui maintiennent les informations séparément.
Dans leur article, Bogost et Warzel listent d’innombrables bases de données maintenues par des agences administratives : bases de données de revenus, bases de données sur les lanceurs d’alerte, bases de données sur la santé mentale d’anciens militaires… L’IA promet de transformer ces masses de données en outils “consultables, exploitables et rentables”. Mais surtout croisables, interconnectables. Les entreprises bénéficiant de prêts fédéraux et qui ont du mal à rembourser, pourraient désormais être punies au-delà de ce qui est possible, par la révocation de leurs licences, le gel des aides ou de leurs comptes bancaires. Une forme d’application universelle permettant de tout croiser et de tout inter-relier. Elles pourraient permettre de cibler la population en fonction d’attributs spécifiques. L’utilisation actuelle par le gouvernement de ces données pour expulser des étrangers, et son refus de fournir des preuves d’actes répréhensibles reprochées à certaines personnes expulsées, suggère que l’administration a déjà franchi la ligne rouge de l’utilisation des données à des fins politiques.
Le Doge ne se contente pas de démanteler les mesures de protection de la vie privée, il ignore qu’elles ont été rédigées. Beaucoup de bases ont été conçues sans interconnectivité par conception, pour protéger la vie privée. “Dans les cas où le partage d’informations ou de données est nécessaire, la loi sur la protection de la vie privée de 1974 exige un accord de correspondance informatique (Computer Matching Agreement, CMA), un contrat écrit qui définit les conditions de ce partage et assure la protection des informations personnelles. Un CMA est « un véritable casse-tête », explique un fonctionnaire, et constitue l’un des moyens utilisés par le gouvernement pour décourager l’échange d’informations comme mode de fonctionnement par défaut”.
La centralisation des données pourrait peut-être permettre d’améliorer l’efficacité gouvernementale, disent bien trop rapidement Bogost et Warzel, alors que rien ne prouve que ces croisements de données produiront autre chose qu’une discrimination toujours plus étendue car parfaitement granulaire. La protection de la vie privée vise à limiter les abus de pouvoir, notamment pour protéger les citoyens de mesures de surveillance illégales du gouvernement.
Derrière les bases de données, rappellent encore les deux journalistes, les données ne sont pas toujours ce que l’on imagine. Toutes les données de ces bases ne sont pas nécessairement numérisées. Les faire parler et les croiser ne sera pas si simple. Mais le Doge a eu accès à des informations inédites. “Ce que nous ignorons, c’est ce qu’ils ont copié, exfiltré ou emporté avec eux”.
“Doge constitue l’aboutissement logique du mouvement Big Data” : les données sont un actif. Les collecter et les croiser est un moyen de leur donner de la valeur. Nous sommes en train de passer d’une administration pour servir les citoyens à une administration pour les exploiter, suggèrent certains agents publics. Ce renversement de perspective “correspond parfaitement à l’éthique transactionnelle de Trump”. Ce ne sont plus les intérêts des américains qui sont au centre de l’équation, mais ceux des intérêts commerciaux des services privés, des intérêts des amis et alliés de Trump et Musk.
La menace totalitaire de l’accaparement des données personnelles gouvernementalesC’est la même inquiétude qu’exprime la politiste Allison Stanger dans un article pour The Conversation, qui rappelle que l’accès aux données gouvernementales n’a rien à voir avec les données personnelles que collectent les entreprises privées. Les référentiels gouvernementaux sont des enregistrements vérifiés du comportement humain réel de populations entières. « Les publications sur les réseaux sociaux et les historiques de navigation web révèlent des comportements ciblés ou intentionnels, tandis que les bases de données gouvernementales capturent les décisions réelles et leurs conséquences. Par exemple, les dossiers Medicare révèlent les choix et les résultats en matière de soins de santé. Les données de l’IRS et du Trésor révèlent les décisions financières et leurs impacts à long terme. Les statistiques fédérales sur l’emploi et l’éducation révèlent les parcours scolaires et les trajectoires professionnelles. » Ces données là, capturées pour faire tourner et entraîner des IA sont à la fois longitudinales et fiables. « Chaque versement de la Sécurité sociale, chaque demande de remboursement Medicare et chaque subvention fédérale constituent un point de données vérifié sur les comportements réels. Ces données n’existent nulle part ailleurs aux États-Unis avec une telle ampleur et une telle authenticité. » « Les bases de données gouvernementales suivent des populations entières au fil du temps, et pas seulement les utilisateurs actifs en ligne. Elles incluent les personnes qui n’utilisent jamais les réseaux sociaux, n’achètent pas en ligne ou évitent activement les services numériques. Pour une entreprise d’IA, cela impliquerait de former les systèmes à la diversité réelle de l’expérience humaine, plutôt qu’aux simples reflets numériques que les gens projettent en ligne.« A terme, explique Stanger, ce n’est pas la même IA à laquelle nous serions confrontés. « Imaginez entraîner un système d’IA non seulement sur les opinions concernant les soins de santé, mais aussi sur les résultats réels des traitements de millions de patients. Imaginez la différence entre tirer des enseignements des discussions sur les réseaux sociaux concernant les politiques économiques et analyser leurs impacts réels sur différentes communautés et groupes démographiques sur des décennies ». Pour une entreprise développant des IA, l’accès à ces données constituerait un avantage quasi insurmontable. « Un modèle d’IA, entraîné à partir de ces données gouvernementales pourrait identifier les schémas thérapeutiques qui réussissent là où d’autres échouent, et ainsi dominer le secteur de la santé. Un tel modèle pourrait comprendre comment différentes interventions affectent différentes populations au fil du temps, en tenant compte de facteurs tels que la localisation géographique, le statut socio-économique et les pathologies concomitantes. » Une entreprise d’IA qui aurait accès aux données fiscales, pourrait « développer des capacités exceptionnelles de prévision économique et de prévision des marchés. Elle pourrait modéliser les effets en cascade des changements réglementaires, prédire les vulnérabilités économiques avant qu’elles ne se transforment en crises et optimiser les stratégies d’investissement avec une précision impossible à atteindre avec les méthodes traditionnelles ». Explique Stanger, en étant peut-être un peu trop dithyrambique sur les potentialités de l’IA, quand rien ne prouve qu’elles puissent faire mieux que nos approches plus classiques. Pour Stanger, la menace de l’accès aux données gouvernementales par une entreprise privée transcende les préoccupations relatives à la vie privée des individus. Nous deviendrons des sujets numériques plutôt que des citoyens, prédit-elle. Les données absolues corrompt absolument, rappelle Stanger. Oubliant peut-être un peu rapidement que ce pouvoir totalitaire est une menace non seulement si une entreprise privée se l’accapare, mais également si un Etat le déploie. La menace d’un Etat totalitaire par le croisement de toutes les données ne réside pas seulement par l’accaparement de cette puissance au profit d’une entreprise, comme celles de Musk, mais également au profit d’un Etat.
Nombre de citoyens étaient déjà résignés face à l’accumulation de données du secteur privé, face à leur exploitation sans leur consentement, concluent Bogost et Warzel. L’idée que le gouvernement cède à son tour ses données à des fins privées est scandaleuse, mais est finalement prévisible. La surveillance privée comme publique n’a cessé de se développer et de se renforcer. La rupture du barrage, la levée des barrières morales, limitant la possibilité à recouper l’ensemble des données disponibles, n’était peut-être qu’une question de temps. Certes, le pire est désormais devant nous, car cette rupture de barrière morale en annonce d’autres. Dans la kleptocratie des données qui s’est ouverte, celles-ci pourront être utilisées contre chacun, puisqu’elles permettront désormais de trouver une justification rétroactive voire de l’inventer, puisque l’intégrité des bases de données publiques ne saurait plus être garantie. Bogost et Warzel peuvent imaginer des modalités, en fait, désormais, les systèmes n’ont même pas besoin de corréler vos dons à des associations pro-palestiniennes pour vous refuser une demande de prêt ou de subvention. Il suffit de laisser croire que désormais, le croisement de données le permet.
Pire encore, “les Américains sont tenus de fournir de nombreuses données sensibles au gouvernement, comme des informations sur le divorce d’une personne pour garantir le versement d’une pension alimentaire, ou des dossiers détaillés sur son handicap pour percevoir les prestations d’assurance invalidité de la Sécurité sociale”, rappelle Sarah Esty, ancienne conseillère principale pour la technologie et la prestation de services au ministère américain de la Santé et des Services sociaux. “Ils ont agi ainsi en étant convaincus que le gouvernement protégerait ces données et que seules les personnes autorisées et absolument nécessaires à la prestation des services y auraient accès. Si ces garanties sont violées, ne serait-ce qu’une seule fois, la population perdra confiance dans le gouvernement, ce qui compromettra à jamais sa capacité à gérer ces services”. C’est exactement là où l’Amérique est plongée. Et le risque, devant nous, est que ce qui se passe aux Etats-Unis devienne un modèle pour saper partout les garanties et la protection des données personnelles.
Hubert Guillaud
-
7:01
Les médias sociaux ont envahi nos structures sociales pour les dissoudre
sur Dans les algorithmesSi Zuck peut dire que les médias sociaux sont morts, c’est parce qu’il sait très bien qui a tenu le couteau : lui-même !, explique Kyle Chayka pour le New Yorker. Même constat pour Rob Horning : “Les entreprises technologiques ont construit une infrastructure sociale uniquement pour la saper, pour contribuer à la démanteler en tant que lieu de résistance à la commercialisation, à la marchandisation et à la médiatisation. Saboter le graphe social a été plus rémunérateur que l’exploiter, car les personnes isolées sont des consommateurs plus fiables” (…) “Les réseaux sociaux ont toujours voulu que vous détestiez vos amis”.
-
7:00
A l’heure des investissements « philosophiques »
sur Dans les algorithmesLes grands entrepreneurs de la Silicon Valley, ces « intellectuels oligarques » ont conçu des « portefeuilles d’investissement qui fonctionnent comme des arguments philosophiques, des positions de marché qui opérationnalisent leurs convictions. Et tandis que les milliardaires de l’ère industrielle construisaient des fondations pour immortaliser leurs visions du monde, ces figures érigent des fonds d’investissement qui font également office de forteresses idéologiques. » Evgeny Morozov sort la kalach pour montrer que leurs idées ne sont que des arguments pour défendre leurs positions ! « Ils ont colonisé à la fois le média et le message, le système et le monde réel ».
Pour les nouveaux législateurs de la tech, l’intellectuel archéologue d’hier est mort, il l’ont eux-mêmes remplacé. Experts en démolition, ils n’écrivent plus sur l’avenir, mais l’installe. Ils ne financent plus de think tank, mais les suppriment. Ils dirigent eux-mêmes le débat « dans une production torrentielle qui épuiserait même Balzac », à coups de mèmes sur X repris en Une des journaux internationaux. « Leur droit divin de prédire découle de leur divinité avérée ». « Leurs déclarations présentent l’ancrage et l’expansion de leurs propres programmes non pas comme l’intérêt personnel de leurs entreprises, mais comme la seule chance de salut du capitalisme ».
L’accélération et l’audace entrepreneuriale sont pour eux le seul antidote à la sclérose systémique. Leur objectif : réaligner l’intelligentsia technologique sur le pouvoir de l’argent traditionnel en purifiant ses rangs des pensées subversives. Dans le Washington de Trump, ils n’arrivent pas en invités, mais en architectes, pour faire ce qu’ils ne cessent de faire : manipuler la réalité. « En réécrivant les réglementations, en canalisant les subventions et en réajustant les attentes du public, les intellectuels oligarques transforment des rêves fiévreux – fiefs de la blockchain, fermes martiennes – en futurs apparemment plausibles ».
Reste que le déni de réalité risque bien de les rattraper, prédit Morozov.
-
7:00
Samah Karaki : « Le social est incalculable »
sur Dans les algorithmesSamah Karaki est chercheuse et docteure en neuroscience. Elle est l’auteure de deux essais à succès, Le talent est une fiction (JC Lattès, 2023) et L’empathie est politique (JC Lattès, 2024). La force des livres de Karaki consiste à remettre en perspective nos idées préconçues. Elle ne fait pas qu’une lecture neuroscientifique de nos comportements, mais intègre à cette lecture des perspectives sociales et politiques, nous invitant à prendre du recul sur nos émotions et nos comportements pour mieux les politiser. Interview.
Dans les algorithmes : Dans vos deux derniers essais, vous ne faites pas qu’une lecture neuroscientifique de nos comportements, mais vous immergez les apports de la recherche en neuroscience et en psychologie de perspectives sociales et politiques. Dans l’un comme dans l’autre, vous nous invitez à prendre du recul sur nos émotions et nos comportements, pour mieux les politiser. Est-ce à dire que vous ne trouvez pas les apports des neurosciences suffisamment politiques ?
Samah Karaki : Effectivement, je trouve que les neurosciences s’intéressent peu aux facteurs sociaux. La lecture des comportements y est souvent faite d’une façon réductionniste, depuis des études en laboratoire, où les comportements ne ressemblent pas à ce qui se produit dans la vie réelle. Cela ne veut pas dire que ces apports ne peuvent pas être mis au service d’une lecture sociologique pour autant. Les neuroscientifiques n’ont jamais prétendu le contraire d’ailleurs… C’est souvent la vulgarisation scientifique qui fait des généralisations, qui souvent bâti un « pont trop loin », et passe, un peu facilement, de la cellule au comportement. Sans compter que le piège naturalisant de la biologie peut avoir tendance à ignorer certains facteurs visibles et invisibles, alors qu’ils peuvent influer sur des facteurs biologiques. Dans la formation même des biologistes, on ne rend pas toujours compte de la complexité de ces interactions.
Ainsi, on a connu une phase monogénique jusque dans les années 90, où l’on cherchait les gènes de tels ou tels phénotypes ou de tels comportements. On s’est depuis éloigné de cette approche pour une approche plus polygénique où l’on admet qu’il y a des milliers de gènes qui peuvent donner un phénotype donné. Reste que l’impérialisme biologique qui a régné au XIXe siècle a parfois tendance à revenir, avec des propos de généticiens du comportement qui donnent une primauté sur l’explication des comportements par le biologique.
La difficulté des neurosciences, c’est qu’on ne peut pas reproduire les facteurs sociologiques au sein d’un laboratoire. D’où l’importance de s’ouvrir aux lectures d’autres disciplines, d’éclairer les neurosciences d’autres disciplines.
Dans les algorithmes : Cette discussion en tout cas, entre les apports des neurosciences et les apports de la sociologie, est souvent très riche dans vos livres. Ces deux essais nous montrent que les comportements des autres influencent profondément les nôtres. Dans Le talent est un fiction, vous nous dites que les comportements des éducateurs ont le plus d’effet sur nos capacités à croire en nos chances de réussite. Dans L’empathie est politique, vous nous dites également que celle-ci est très dépendante de nos représentations, de nos ancrages sociologiques, et que pour faire advenir des comportements pro-sociaux et dépasser nos réponses émotionnelles, nous devons dépasser les influences qui nous façonnent et les déconstruire. Les deux essais donnent l’impression que nous sommes des éponges sociales et que nous avons beaucoup de mal à nous en extraire. Que nos croyances et nos représentations nous façonnent bien plus qu’on le pense. En être conscient suffit-il à dépasser nos biais ?
Samah Karaki : Absolument pas, hélas. Aujourd’hui, on parle de cognition incarnée, qui est un paradigme qui règne de plus en plus sur la lecture que nous faisons de notre manière de penser. Cela signifie que la cognition n’existe pas que dans nos cerveaux mais aussi dans nos corps et que nos corps existent aussi dans notre rapport aux autres. Cela signifie que ma cognition est traversée par celle des autres. C’est bien sûr ce qui a facilité la survie de notre espèce. En tant qu’êtres physiquement vulnérables, nous avons besoin de récupérer des informations pour explorer un danger ou des opportunités. Et ces informations ne proviennent pas uniquement de notre traitement sensoriel, mais passent aussi par ce qu’on observe chez les autres. En fait, les autres aussi nous permettent de traiter l’information. Cela ne concerne pas que l’espèce humaine d’ailleurs, les plantes aussi construisent un traitement informationnel collectif pour pouvoir avoir des réactions au monde. La cognition incarnée permet de mieux saisir l’intersubjectivité par laquelle on comprend les interactions avec les autres.
Reste à savoir si l’on peut transcender cette intersubjectivité. En fait, une fois que nous avons automatisé un apprentissage, on l’opère comme on respire. Quand un apprentissage a pris en nous, il devient de l’ordre de l’intuition. On peut certes regarder notre respiration de manière consciente, mais cette conscience là ne nous permet pas de faire autre chose en même temps. On a attribué une grande puissance à notre capacité à nous regarder penser, plus que ce qu’elle est vraiment. Or, détecter en nous une influence, ne signifie pas qu’on soit en capacité de la changer. C’est une approche spinoziste que certains neuroscientifiques rejoignent aujourd’hui : se rendre compte de ses déterminismes ne signifie pas qu’on va les transcender.
Reste que cette prise de conscience nous permet de nous organiser pour pouvoir, peut-être ou parfois, changer l’influence à sa racine. On n’opère pas un changement au sein de sa propre cognition, par coertion cognitive, mais on peut s’organiser pour influer sur les systèmes qui nous déterminent. Il y a donc des brèches que nous pouvons opérer dans un déterminisme, mais il ne faut pas sur-exagérer la force de la volonté. Le libre-arbitre, dans l’état actuel des connaissances en neurosciences, n’existe pas vraiment. Nos automatismes sont beaucoup plus écrasants que notre force à les observer ou à y résister.
Modérons cependant ces constats en rappelant que les études sur le libre-arbitre sont faites en laboratoire : on ne peut donc pas écarter qu’il n’y ait aucune résistance cognitive à soi-même. Les travaux sur la résistance cognitive et l’anticipation du regret montrent que ce sont des aptitudes mentales qui permettent de montrer que l’on sait observer ses influences et y résister. Mais cela a un coût énergétique important qui implique un ralentissement de l’action cognitive. Or, notre cognition ne peut pas se baser sur une résistance permanente à soi. Il est donc utopique et très optimiste de penser que nous aurions beaucoup de pouvoir sur notre propre pensée.
Dans les algorithmes : Je suis frappé par le fait que vos deux essais questionnent profondément notre rapport à la domination. Notre désir de domination est-il impossible à rassasier ? D’où vient un tel besoin de domination ?
Samah Karaki : Certes. Mais il ne faut pas croire que cela relèverait d’une forme de nature humaine. C’est le sens de mon prochain ouvrage : nous ne devons pas naturaliser la domination comme un trait biologique. Ce n’est ni Jean-Jacques Rousseau ni Hobbes ! L’homme n’est ni bon à l’état de nature, ni égoïste et tourné vers la domination à l’état de nature. Par contre, la domination est une façon de diviser et simplifier le réel. Comme on a besoin de créer des endogroupes et des exogroupes, de catégoriser les phénomènes, les personnes et les sujets autour de nous, la catégorisation, au niveau de la proximité de l’autre, se fait naturellement. Elle se fait déjà chez le bébé par exemple, qui va montrer une préférence pour les visages familiers et une anxiété et une méfiance vis-à-vis de ce qui lui est inconnu et étrange..
Reste que la catégorisation hiérarchique, verticale, est quelque chose qui s’impose surtout socialement… C’est là où l’on peut rejoindre un peu plus Jean-Jacques Rousseau, dans le sens où l’instinct de conservation nous pousse à entretenir nos hiérarchies. La société peut nous pousser à catégoriser dans les statuts sociaux une valeur sociale, qui dépend de nos intérêts économiques. Cela ne se fait pas tant à l’échelle individuelle, mais à l’échelle de systèmes hiérarchiques qui cherchent à assurer leur survie. Je ne fais pas partie des neuroscientifiques qui vont dire que le besoin d’acquérir du pouvoir ou de dominer ou de consommer (ce qui était aussi une théorie très répandue il y a quelques années sur le rapport à la crise climatique, qu’il serait dans notre nature d’user de la vitalité des autres pour soi-même) nous constitue… Pour moi, il n’y a besoin ni de pessimisme ni d’optimisme anthropologique. Mais d’observations de nos systèmes complexes, riches, différents, historiquement comme géographiquement, qui nous imposent des formes de domination. Sans compter toutes les récompenses qu’on peut obtenir en se positionnant dans les échelles de la hiérarchie de domination.
Dans les algorithmes : Dans Le talent est une fiction, vous expliquez que le mérite est une justification a posteriori. “Dans une société inégalitaire, ceux qui arrivent au sommet veulent ou ont besoin de croire que leur succès est moralement justifié”, alors que ni le talent ni les efforts ne savent renverser la pesanteur du social. Nos propres progrès dépendent bien plus des autres, du contexte, et de notre rapport aux autres, que simplement de nous-mêmes, de notre talent ou de notre travail, qui sont en fait bien plus hérités qu’acquis. “Croire que notre mérite découle de nos talents et de notre travail personnel encourage l’égoïsme, la discrimination et l’indifférence face au sort des autres”. A quoi sert alors cette fiction du mérite, qui est partout autour de nous ?
Couverture du livre, Le talent est une fiction.
Samah Karaki : La fiction du mérite, que beaucoup de sociologues décrivent comme nécessaire car elle vient remplacer l’héritocratie de l’ancien régime, stipule que toute personne a un potentiel qu’elle nourrit par ses efforts et ses liens, dispose d’un principe d’émancipation, à l’image de la déclaration des Droits de l’Homme qui l’a érigée en principe. Chacun à le droit de tenter sa chance. En cela, cette fiction est rassurante, car elle paraît comme un ordre plus juste. C’est aussi une fiction sécurisante, car elle dit que les hommes de pouvoir ont les compétences pour occuper ces positions de pouvoir. Elle est aussi rassurante pour ceux qui perdent dans ce système, puisqu’elle légitime aussi cette perte. La fiction de la méritocratie est finalement apaisante pour la société, car elle ne pousse pas à analyser les raisons des inégalités et donc à éventuellement les subvertir. La fiction du mérite, nous donne l’illusion que si on n’y arrive pas, c’est parce qu’on n’a pas le talent ou qu’on n’a pas assez travaillé. Elle permet finalement de stabiliser la société.
Mais ce que je montre dans Le Talent est une fiction, c’est que la société repose toujours sur une héritocratie qui finit par se valider par elle-même. Certes, ce n’est pas parce qu’on a hérité qu’on n’a pas mérité. Mais l’héritage permet plus que le travail de faire fructifier son potentiel. Ceux qui disent que la méritocratie est un principe juste et émancipateur, disent souvent qu’on n’est pas dans une vraie méritocratie. Mais en fait, les personnes qui héritent finissent bien plus que d’autres par hériter d’une position de pouvoir parce qu’ils intègrent les bonnes formations et les opportunités qui leurs permettent de légitimer leur position d’arrivée.
Dans les algorithmes : Nous devrions remettre en question notre “crédentialisme” – c’est-à-dire la croyance que les qualifications académiques ou autres identifiants prestigieux sont la meilleure mesure de l’intelligence ou de la capacité. Comment pourrions-nous réinventer nos croyances dans le mérite pour le rendre plus inclusif, pour qu’il accorde une place à d’autres formes de mérite que la seule réussite sociale ? Pensez-vous que ce soit un enjeu de société important aujourd’hui de réinventer le mérite ?
Samah Karaki : La méritocratie ne peut pas reposer que sur des critères de réussite, car on a aussi le droit de s’émanciper « sur place », sans élévation économique. Nous n’avons pas tous le culte de l’ambition. Et nous avons tous le droit à la dignité, au-delà de ce qu’on réalise ou pas. La concentration de certains types d’aptitudes qui seules mèneraient à la réussite a peut-être fonctionné à une époque où on avait besoin d’aptitudes liées au raisonnement abstrait, comme le proposaient les tests QI ou comme le valorise le système académique. L’aptitude de raisonnement abstrait – qui signifie principalement une rapidité et une aisance de processus mentaux logico-mathématiques – est en opposition avec d’autres types d’aptitudes comme celle de la résistance cognitive. Penser vite est l’opposé de penser lentement, car penser lentement consiste comme on l’a dit à résister et remettre en question. Cela nous dit que si nous n’avons pas assez développé cette réflexivité mentale et le doute de sa pensée, on peut avoir du mal face à l’incertitude, mais être très bons sur la résolution de problèmes. En fait, on n’a aucune idée, aucun indicateur sur l’entraînement de ces autres aptitudes, du talent lié au doute… Je propose d’ailleurs qu’on s’intéresse à ces autres aptitudes. On peut être à l’aise dans le raisonnement abstrait et mal à l’aise dans d’autres aptitudes. Cela nous rappelle d’ailleurs que le génie solitaire n’existe pas. C’est bien souvent les discordes dans nos façons de penser qui permettent de parvenir à des pensées complexes, notamment dans les situations incertaines. Même notre définition de l’intelligence artificielle s’appelle intelligence parce qu’on la compare à la nôtre dans un anthropomorphisme qui nous rappelle qu’on n’arrive pas à concevoir d’autres façons d’appréhender le monde. Or, aujourd’hui, on devrait définir l’intelligence autrement. En neuroscience, on parle d’ailleurs plutôt d’aptitudes que d’intelligence.
« Penser vite est l’opposé de penser lentement, car penser lentement consiste comme on l’a dit à résister et remettre en question. »
Dans les algorithmes : Vous concluez Le Talent est une fiction par la nécessité de plus d’empathie et de diversité pour élargir la mesure de la réussite. Au regard de votre second livre, plus critique sur les limites de l’empathie, votre constat est-il toujours d’actualité ?
Samah Karaki : Oui, parce que si on ne se projette pas dans d’autres façons de vivre le monde et dans d’autres conditions pour le vivre, on risque de rester camper sur une seule façon de lire les trajectoires. C’est pour cela que les procédures de sélection dans les formations se basent sur des critères éprouvés, celles des personnes qui sélectionnent et donc des personnes qui ont elles-mêmes réussi dans ces mêmes formations. Par cette empathie, je suggérais qu’on puisse s’ouvrir à d’autres trajectoires et inclure ces trajectoires dans les processus de sélection pour ne pas qu’ils ne se ferment, qu’ils favorisent l’entre-soi. Notre façon de vivre dans le monde n’est pas universelle. C’est ce que je disais sur la question de la réussite, c’est ce que je répète sur la question de la morale dans L’empathie est politique. Il n’y a pas une recette et une seule de ce qu’est d’avoir une vie réussie. Nous devons nous ouvrir à d’autres définitions, à d’autres formes d’attachements… Et nous devons arrêter de déconsidérer les perdants de nos systèmes sociaux. Nos sociétés nous invitent trop souvent à réussir à un seul jeu selon une seule règle, alors que nous avons tous des habilités différentes au départ. C’est comme si nous étions invités à un concours de natation, jugés par des poissons.
Je n’aime pas parler de personnes atypiques, qui me semble une forme d’essentialisation. La psychiatrie, heureusement, sort d’une définition déficitaire, où certaines personnes auraient des déficits par rapport à la norme et que la société doit les amener à cette norme. En psychiatrie, on parle plutôt de « spectre » désormais et de différences d’appréhension de l’apprentissage. C’est là un vrai progrès. Mais les systèmes scolaires et professionnels, eux, sont toujours dans une approche déficitaire. Nous avons encore besoin d’y diversifier la norme. Ce n’est pas que la norme n’est pas bonne d’ailleurs, mais elle est totalitaire, trop rigide. On ne peut pas vivre en étant une espèce si complexe et si riche pour atteindre une seule forme normative d’exister.
« Nous devons arrêter de déconsidérer les perdants de nos systèmes sociaux. Nos sociétés nous invitent trop souvent à réussir à un seul jeu selon une seule règle, alors que nous avons tous des habilités différentes au départ ». « On ne peut pas vivre en étant une espèce si complexe et si riche pour atteindre une seule forme normative d’exister ».
Couverture du livre, L’empathie est politique.
Dans les algorithmes : L’empathie est politique est incontestablement une suite et une réponse de votre précédent livre, puisqu’il interroge ce qui le concluait, l’empathie. Notre capacité d’empathie est très plastique, modulable, sélective. Le film de Jonathan Glazer, La Zone d’intérêt, le montre très bien, en soulignant la grande normalité d’une famille nazie qui parvient très bien à faire abstraction de l’horreur qui se déroule à côté d’eux, en étant compatissante pour les siens et indifférentes aux hurlements et aux coups de feux qui leur parvient de l’autre côté des murs de leur maison. L’empathie n’est pas une capacité universelle ou naturelle, mais sociale, orientée et orientable. Politique. Elle est biaisée par la proximité sociale : on se sent plus proche de ceux qui nous sont proches, socialement ou culturellement. Nous la convoquons pour nous donner l’illusion de compréhension des autres, mais « nous nous projetons bien plus dans l’autre que nous ne le comprenons », dites-vous. Aurions-nous une forme d’illusion à comprendre l’autre ?
Samah Karaki : Vous avez cité les trois limites que je pose à l’empathie. D’abord, qu’elle est mécaniquement sélective, car on n’a pas assez d’attention disponible pour se projeter dans les expériences de tout le monde. On réserve donc cette habilité à ceux qui nous sont proches, à ceux qui appartiennent à notre cercle, à notre endogroupe. Et en plus, elle est influencée par les cadrages culturels, politiques, médiatiques qui viennent positionner les groupes humains selon une hiérarchie de valeur. L’empathie est une aptitude qui cherche une similitude – « l’impérialisme du même », disait Lévinas -, c’est-à-dire qu’elle cherche en l’autre mon semblable – ce qui est sa force et sa limite. Cela signifie que si je ne trouve pas dans l’autre mon semblable je ne vais pas l’humaniser et lui attribuer de l’empathie. Cela nous montre qu’elle n’est pas très fiable. On peut décider que l’autre n’est pas notre semblable, comme nous le rappelle le film de Glazer justement.
Enfin, on est attaché à ce qui nous ressemble, ce qui est une forme de narcissisme de l’espèce. Mais, cette impression de similitude est bien souvent factice. L’expérience de l’autre n’est bien souvent pas celle qu’on imagine qu’elle est. C’est la troisième limite à l’empathie. Même quand on arrive à s’identifier à l’autre, après plein d’examens de similitude morale et de traits de comportements ou de sensibilité intellectuelle… à la fin, on est dans l’illusion de la compréhension de l’autre, car on ne le voit que là où on s’y retrouve ! Si on est exclu d’une expérience par exemple, on l’analyse mal avec nos outils limités et tronqués car nous n’avons pas nécessairement les vies riches que nous imaginerions avoir. Avoir connu la souffrance par exemple ne signifie pas qu’on soit capable de comprendre celle des autres. Les expériences restent toujours singulières.
Dans les algorithmes : Oui, vous dites que l’appartenance est une perception. Nous autoproduisons nos propres stéréotypes sociaux. Les étudiants blancs sont plus susceptibles d’interpréter une bousculade comme violente lorsqu’elle est causée par une personne noire que par une personne blanche. Notre interprétation semble toujours confirmer nos stéréotypes plutôt qu’elle ne les remet en cause. Et les informations qui confirment nos stéréotypes sont mieux mémorisées que celles qui les réfutent. Comment peut-on lutter contre nos représentations et nos stéréotypes, dans lesquels nous sommes englués ?
Samah Karaki : En fait, les biais de confirmation nous simplifient notre lecture du monde. Nous avons envie d’avoir un favoritisme d’endogroupe au profit de notre groupe et de son image. Par recherche de cohérence, et d’efficience, on a tendance à préserver l’image de groupe qui miroite sur notre image de soi, et donc c’est pour cela qu’on a tendance à favoriser notre groupe. On explique et on pardonne bien mieux les comportements négatifs de nos proches que ceux des gens de l’exogroupe. On a plus de facilités à juger les groupes externes avec des caractéristiques très réductrices. Cela nous rassure sur notre position morale et notre image de nous-mêmes. Si on reprend l’exemple du film de Glazer, l’indifférence de cette famille s’explique aussi parce que ces personnes pensent qu’elles sont dans le camp du bien et que l’effacement du groupe humain qui est de l’autre côté des murs est une nécessité. Ces personnes ne sont pas que indifférentes. Elles sont persuadées que cet effacement est nécessaire pour la survie de leur propre groupe. Cette victimisation inversée sert le groupe, comme l’instrumentalisation des animaux nous sert à légitimer notre nourriture, notre agriculture. Il y a quelques siècles en arrière, l’instrumentalisation du corps des esclaves pour l’économie européenne était considérée comme une nécessité. En fait, l’empathie ne disparaît pas par simple indifférence, elle disparaît aussi par le sentiment d’être victime. L’effacement de l’autre devient une forme de légitime défense.
Ce sont là des mécanismes qui nous simplifient le monde. On peut ramener ces mécanismes à leur biologie. On a besoin de simplifier le monde car on n’a pas assez d’énergie. Mais on a aussi besoin d’être en cohérence avec sa propre image. C’est là où s’intègrent les cadrages politiques et sociaux qui donnent à chaque groupe l’impression d’être dominé ou menacé par l’autre. C’est en cela que ces affects nous éloignent d’une lecture objective des situations. Je ne veux pas dire dans mon livre que tous les affects sont légitimes, bien au contraire. Tous sont réels et précis, mais ne sont pas objectivement situés au même endroit. Et c’est pour cela que nous avons besoin de quelque chose que nous avons produit, suite à la Shoah d’ailleurs, qui est le droit humanitaire international. C’est un moyen de nous protéger de notre propre raison et de notre propre définition de ce qui est moral.
Dans les algorithmes : C’est le moyen que nous avons pour sortir du cercle infernal de l’empathie envers son endogroupe. Développer des règles qui s’appliquent à tous ?
Samah Karaki : Oui. Ce sont des règles que nous avons construites avec notre organisation sociale. Ce sont des règles auxquelles on se conforme pour naviguer dans les interactions sociales qui nous lient. Des règles qui nous permettent de conserver nos droits, de ne pas céder à des affects et donc, ce sont des règles où tout le monde n’est pas gagnant de la même façon mais qui peuvent régir des biens collectifs supérieurs aux intérêts d’un groupe par rapport à d’autres. C’est pourquoi je suggère de sortir du lexique affectif qui revient souvent aujourd’hui et qui ne se concrétise pas en action politique, car il se suffirait à lui-même, justifiant même certaines inerties. L’affect nous évite de passer à des actions concrètes.
Dans les algorithmes : Vous êtes très critique sur la manière dont nous pouvons réparer l’empathie. Vous dites par exemple que ce ne sont pas les formations à l’empathie qui vont permettre de mettre fin à l’organisation hiérarchique des sociétés humaines.
Samah Karaki : Les formations à l’empathie qui parlent de l’histoire des oppressions, de ce qu’ont vécu les groupes humains opprimés, permettent de modifier notre appréhension du monde. Éviter ces sujets ne donne pas des outils pour comprendre, pour questionner les raisons qui font que nous avons des biais racistes. Je ne pense pas que ce soit en sachant que nous sommes biaisés que nous pouvons résoudre les biais. Car le biais consiste à suivre un automatisme appris, comme quand on respire. Je ne pense pas que la bonne manière de faire consiste à résister à ces apprentissages, mais de les modifier, d’acquérir une autre lecture.
En fait, je voudrais qu’on sorte un peu de notre fainéantise intellectuelle. Aujourd’hui, par exemple, trop souvent, quand on fait des films sur des populations opprimées, on ne prend pas le temps d’analyser, d’amener les personnes concernées, de modifier les conditions de production pour sortir du regard que l’on porte sur elles pour donner la voix à leurs propres regards. Et on justifie cette fainéantise intellectuelle par l’affect, l’intuition ou la création spontanée. Peut-être aussi par romantisme de notre nature, en expliquant qu’on comprendra par soi-même. C’est comme quand on dit que les enfants sont bons par nature. Ce n’est pas le cas pourtant. Le racisme est présent chez les enfants à partir de 3 ans si on ne leur explique pas les structures de suprématie qui structurent nos sociétés. J’invite à faire nôtre ce que la journaliste Douce Dibondo appelle « l’épistémologie de la connaissance contre celle de l’ignorance ». Nous devons parler des sujets qui fâchent plutôt que de demander aux gens de travailler leur capacité d’identification. Nous ne nous identifions pas assez aux personnes qui ne nous ressemblent pas. Nous devons le dire et le répéter : nous avons une difficulté à nous identifier à certains comme nous n’entendons pas les sons sous une certaine fréquence. Les formations sur l’empathie par l’identification ne résoudront pas les problèmes de harcèlement scolaire ou de comportements de domination.
« Je ne pense pas que ce soit en sachant que nous sommes biaisés que nous pouvons résoudre les biais. Pour les modifier, il nous faut acquérir une autre lecture ». « Nous devons parler des sujets qui fâchent plutôt que de demander aux gens de travailler leur capacité d’identification »
Dans les algorithmes : Ce que vous dites, c’est que nous avons besoin d’une lecture plus politique de nos rapports sociaux ?
Samah Karaki : Oui. On a besoin d’une lecture historique en tout cas. Et nous devrions d’ailleurs beaucoup valoriser la lecture historique à l’heure où les tentatives d’effacement de certaines histoires se multiplient tout autour de nous. Nous devons défendre ce patrimoine. Cet attachement aux faits, au réel, doit nous permettre de nous éloigner des attitudes complotistes au monde. Nous avons un devoir de protéger cette discipline.
Dans les algorithmes : Dans votre second livre, vous parlez un peu du numérique. Vous nous dites qu’on est confronté, sur les réseaux sociaux, à une empathie un peu factice. Que les algorithmes basés sur la viralité cherchent d’abord et avant tout à produire de l’émotion, de l’exacerbation de nos sensations, de nos sentiments. En analysant 430 milliards de vidéos, le facteur le plus puissant du succès viral est la réponse émotionnelle (“Plus l’intensité de l’émotion suscitée par le contenu sera grande, plus les gens auront tendance à le partager”). Vous dites même que le numérique favorise une forme de « tourisme affectif »…
Samah Karaki : Si on prend la question en la ramenant à l’attention avant même de parler de réseaux sociaux, il nous faut observer ce que la prédiction des calculs produit. Que ce soit des sons ou des images, l’attention passe d’un niveau phasique à un niveau tonique, avec des changements de circulation électro-chimique dans le cerveau quand je suis dans ce que l’on appelle un écart de prédiction. Cet écart de prédiction, c’est ce qu’on appelle l’émotion. C’est ce qui nous surprend, nous émeut. Et nous avons besoin de réduire cet écart de prédiction en analysant cette information. Et ce travail d’analyse me fait dépenser de l’énergie. S’il ne se passe rien d’intéressant dans un échange, je peux perdre mon attention car je ne fais plus le travail qui fait que je suis en train de réduire les écarts de prédiction. C’est un peu comme cela qu’on apprend aussi. Face à une information nouvelle, on a un écart de prédiction : soit on rejette cette nouvelle information, soit on l’intègre dans nos prédictions, ce qui nous permet ensuite de revenir à ce que l’on appelle un monde émotionnellement neutre ou stable.
Un contenu viral est donc un contenu qui va produire un écart de prédiction. C’est pourquoi ils sont souvent émotionnels. Ils captent notre attention et créent un attachement par rapport à ces contenus. Dans la vie intime, c’est le même processus qui nous fait nous attacher à certaines personnes plutôt qu’à d’autres, parce que ces personnes produisent en nous des déplacements. La viralité repose sur des objets qui attirent l’attention, qui produisent un travail émotionnel et ce travail nous fait créer un lien avec ces contenus. Faire reposer l’intérêt sur un travail émotionnel peut vite être pernicieux, car il nous empêche par exemple de saisir le contexte de ce que l’on regarde, car notre cognition est déjà sollicitée pour rétablir l’équilibre émotionnel qui nous atteint.
La seconde chose qui peut se produire, c’est que l’exposition à un même écart de répétition, finit par l’aplatir, comme quand on est exposé à un son répétitif qu’on finit par ne plus entendre. Face à des contenus émotionnels répétitifs, nous finissons par nous engourdir. Face au flux d’affect, les contenus viraux finissent par ne plus provoquer de réaction en nous. Beaucoup d’études montrent que l’exposition répétée à des contenus violents abaisse notre capacité à être ému par ces contenus. De même quand nous sommes exposés à des contenus de personnes en souffrance. Le risque, c’est que par leur répétition, nous normalisions des contenus qui devraient nous heurter, nous faire réagir. Les études montrent que cette exposition répétée peut conduire à la violence de certains et surtout à l’inertie.
Le tourisme affectif est un troisième niveau. Quand on scroll ces contenus affectifs, nous faisons un travail, comme si nous les vivions à notre tour. Ces contenus nouveaux nous dépaysent, nous surprennent. Le tourisme, dans la vie réelle, consiste à chercher quelque chose qui nous déplace, qui ne corresponde pas à nos prédictions. Le problème, c’est que quand ce tourisme se fait sur la souffrance des autres, ce déplacement devient indécent, car alors, on instrumentalise ce que vivent les autres pour notre propre déplacement et notre propre émancipation. C’est pour cela que j’estime que nous ne devons pas nous suffire à l’émotion et à l’empathie. L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nécessaire.
« L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nécessaire. »
Dans les algorithmes : Le numérique était censé nous ouvrir à la diversité du monde, à nous rendre plus conscient des différences. On a l’impression à vous lire qu’il favorise surtout des comportements homophiles, réduits à notre endogroupe. danah boyd, disait “La technologie ne bouleverse pas les clivages sociaux. Au contraire, elle les renforce”. Partagez-vous ce constat ? Pourquoi sa promesse de diversité n’est-elle pas réalisée selon vous ?
Samah Karaki : Cette amplification n’est pas dans la nature des technologies. C’est lié à leur usage surtout et le fait que nos technologies suivent nos biais, nos biais de confirmation, produisent des effets bulles… Mais la technologie peut aussi aider à faire circuler la connaissance nécessaire pour comprendre les oppressions. On peut aussi découvrir des pensées qui ne sont pas institutionnalisées, ou peu référencées. Elle peut aussi nous permettre de nous organiser, pour refuser ou questionner un système. Mais effectivement, elle peut aussi servir à confirmer nos stéréotypes et représentations : nous conforter dans notre façon de voir le monde.
Les dernières élections américaines se sont beaucoup faites sur les réseaux sociaux. Il n’y a eu qu’un débat télévisé entre les deux candidats. La persuasion c’est faite aussi avec les outils. Pourtant, plus que de s’en méfier, nous devrions chercher à les comprendre pour les mettre au service d’une autre façon d’appréhender la connaissance. Le débat sur l’utilisation des technologies a toujours accompagné ses avancées. Souvent on est un peu naïf avec elles. On crée des outils qui nous ressemblent. Mais on peut toujours les transcender. Il y a aussi sur les réseaux sociaux des voies alternatives, subversives, subalternes qui existent. Nous devons questionner et nous méfier des algorithmes, comme on se méfie de la nicotine en précisant ce qu’elle nous fait. On est en devoir d’avoir une littératie des médias qui s’apprend à l’école comme tout autre outil de connaissance. Et c’est une fois que nous avons cette connaissance que nous pouvons juger de ce qu’on décide d’en faire collectivement. Aujourd’hui, trop peu de gens comprennent comment fonctionnent les algorithmes. Sur TikTok, la majorité des jeunes qui l’utilisent ne comprennent pas son fonctionnement, alors que c’est essentiel. La formation aux médias, cela devrait être une formation obligatoire pour s’en protéger et les utiliser pour la découverte intellectuelle nous permettant d’accéder à des personnes auxquelles nous n’aurions pas accès autrement. Mais aussi pour faire rebondir ses idées avec d’autres personnes distantes. C’est la question de l’usage et de la connaissance de ces outils que nous devons mener une bataille, en plus de celle de la transparence des algorithmes qui a lieu à l’échelle européenne.
Dans les algorithmes : Quel regard portez-vous sur l’Intelligence artificielle ? D’autant que celle-ci semble avoir un rôle important sur nos représentations culturelles et nos stéréotypes. Pour ma part, j’ai l’impression que l’IA favorise et amplifie nos représentations culturelles les plus partagées. Ce qu’on pourrait appeler la « moyennisation culturelle de nos représentations » (comme quand on demande à une IA de produire l’image d’un mexicain et qu’elle va produire l’image d’un homme avec un sombrero). Le risque n’est-il pas que nos stéréotypes sociaux et comportementaux, demain, soient encore plus marqués qu’ils ne sont, plus indépétrables – alors que vous nous dites dans vos livres que nous devons les questionner, les déconstruire ?
Samah Karaki : Pour moi, l’IA nous confronte à ce qui ne va pas chez nous. Elle n’invente pas nos stéréotypes. Elle nous montre au contraire à quel point nous sommes réducteurs, à quels points nous sommes eurocentrés, hétérocentrés, validistes… L’IA nous expose ce que nous sommes. En exposant ce que nous sommes, elle montre aussi aux jeunes générations ce que le monde est, au risque de ne pas leur permettre de séparer la représentation du réel. Mais je trouve très intéressant que nous soyons confrontés au ridicule de nos représentations. Critiquer ce que les IA produisent, c’est un peu comme les formations à l’empathie qui ne veulent pas parler des problèmes qui structurent nos rapports de force. Alors que cela devrait nous inviter à comprendre avec quoi nous nourrissons ces machines, que ce soit nos représentations comme d’ailleurs toutes les études qui les défient. C’est comme si l’IA nous renvoyait un état des lieux de là où nous en sommes dans notre compréhension, qui sera toujours tronquée, car nous analysons ces représentations avec les mêmes cerveaux qui l’ont produit. Sans compter qu’avec l’IA, nous en restons à une définition de l’intelligence qui colle aux intérêts de l’homme. Quand nous attribuons à l’IA des intentions, nous le faisons parce que nous n’arrivons pas, dans les limites de notre intelligence, à nous imaginer autre chose que des intentions humaines. C’est aussi une des grandes limites de notre intelligence : d’être aussi obsédée par soi au point de ne pas voir dans ce qui se produit dans l’IA ce qui nous est incompréhensible ou parallèle. Elle nous permet de nous rappeler que notre espèce n’est peut-être pas centrale dans l’appréhension du monde, comme nous le rappelle aussi le reste du vivant. La puissance de l’IA nous permet de douter de soi, en tant qu’individu, mais aussi de notre espèce. Peut-être peut-elle nous aider à trouver un peu d’humilité épistémologique, en nous renvoyant à nous-mêmes et à nos propres limites.
Nous n’avons pas à fermer les yeux parce que l’IA nous renvoie des mexicains stéréotypés ou des médecins qui sont toujours des hommes blancs. C’est l’occasion plutôt de poser des questions. Pourquoi avons-nous ces représentations ? Qui nourrit ces systèmes ? Quelle partie du monde les nourrit ? Comme dans les études en psychologie et neurosciences d’ailleurs, il y a un eurocentrisme et une lecture de la psychologie humaine à travers 25% de ceux qui la constituent.
Dans les algorithmes : La question de l’incalculabité est le sujet de la conférence USI 2025 à laquelle vous allez participer. Pour une spécialiste des neurosciences, qu’est-ce qui est incalculable ?
Samah Karaki : Pour moi, l’incalculabe, ce sont les interactions qui se sont produites dans notre cognition depuis notre vie intra-utérine en interaction avec notre patrimoine génétique, qui ne sont pas ni une addition ni une compétition, mais une interaction qui font de nous ce que nous sommes d’une manière incalculable et qui ridiculisent nos tentatives à quantifier l’humain. Que ce soit au niveau de nos compétences, de nos prises de décisions ou de nos jugements, on les pense rationnels et calculables, alors qu’ils reposent sur des écarts de prédiction extrêmement précis, mais sans avoir d’outils pour les démêler. C’est ce que je défends dans Le mérite est une fiction. Quand je vois un résultat, je ne peux pas remonter aux raisons qui l’expliquent. Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. Cela nous dit de nous méfier de tout ce qu’on appelle talent, personnalité… Et cela nous invite enfin à admettre une forme d’incertitude constitutive de l’homme.
« Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. »
Propos recueillis par Hubert Guillaud.
Samah Karaki sera l’une des intervenantes de la conférence USI 2025 qui aura lieu lundi 2 juin à Paris et dont le thème est « la part incalculable du numérique » et pour laquelle Danslesalgorithmes.net est partenaire.
-
7:00
Des délires tarifaires au blocage économique
sur Dans les algorithmesLe 2 avril 2025, le président américain a mis à exécution sa décision d’augmenter unilatéralement les droits de douane pour les produits étrangers entrant sur le sol américain. Trump a pourtant rapidement rétropédalé, mais sans annuler complètement les augmentations (voir le détail des mesures et revirements prises par l’administration américaine sur Wikipédia). Les tarifs ont été modérés depuis (sauf pour la Chine), notamment pour certains secteurs (dont les produits technologiques), abaissés voire figés pour 90 jours, mais avec la menace que les augmentations reprennent dans 3 mois. Suite à la panique boursière, à d’innombrables contestations (notamment judiciaires d’Etats américains) et représailles des pays touchés par ces nouvelles exigences tarifaires, les tarifs douaniers mondiaux sont devenus partout l’inconnu des perspectives économiques. Cette politique de sanctions commerciales et de protectionnisme a surtout déclenché une grande incertitude économique, non seulement tout autour de la planète, mais plus encore aux Etats-Unis.
Partout, les économistes dénoncent une politique inconséquente, qui s’apprête surtout à ralentir les échanges, relancer l’inflation et ralentir l’innovation, plus que de protéger l’industrie américaine. Explications.
Incertitude généraliséeL’escalade des tarifs et les revirements de Trump ont surtout produit ce que tout le monde déteste en économie : de l’incertitude. C’était particulièrement flagrant concernant les droits de douane des produits technologiques, dans un premier temps impactés par les évolutions tarifaires, puis soudainement exclues, visiblement sous la pression des entreprises de la tech qui ont su imposer un lobbying puissant sur le président Trump, ce qui est loin d’être le cas de nombre d’autres secteurs de l’économie qui n’ont pas l’oreille présidentielle pour les protéger. « Les va-et-vient de l’administration Trump concernant les droits de douane sur les produits technologiques sèment la confusion dans un secteur fortement dépendant des chaînes d’approvisionnement mondiales », explique The Hill. L’exemption des droits de douane sur les produits technologiques n’est annoncée que comme temporaire. Or, « Les entreprises apprécient la stabilité, la prévisibilité et la certitude de l’environnement commercial, et cela s’applique non seulement à la politique commerciale, mais aussi aux niveaux institutionnels, programmatiques, réglementaires, etc. » En fait, tant que l’issue des négociations sur l’évolution des tarifs restera floue, les investissements des entreprises risquent d’être freinés. Pour l’économiste Paul Krugman : l’exemption des produits électroniques des droits de douane n’est pas un retour à la raison de Trump ou de son administration, c’est surtout le signe qu’ils pilotent à vue sans savoir où ils vont. Le yoyo des tarifs est en train de générer une incertitude fatale pour les entreprises américaines, estime Krugman.
Comment les des droits de douane… vont favoriser les plus fortsPour David Dayen de The American Prospect, les droits de douane imposés par Trump vont surtout favoriser les monopoles, notamment parce que les exemptions, comme vient de le connaître le secteur technologique, ne sont pas des solutions à la portée des petites entreprises. Aux Etats-Unis, le géant de l’alimentation Albertsons a annoncé qu’il refusera l’augmentation du coût des produits, invitant les producteurs à assumer seuls la charge de l’élévation des droits de douane, sans vouloir les faire porter sur les consommateurs finaux. Il est probable que les deux autres géants de la distribution, Walmart et Kroger, imposent les mêmes conditions à leurs fournisseurs. Mais les indépendants, eux, ne pourront pas imposer les mêmes règles. Le problème, explique Dayen, c’est que la guerre tarifaire est concomitante à l’affaiblissement des aides aux petites entreprises du fait du démantèlement des agences fédérales, à l’image de la Small Business Administration. Or, rappelle le Wall Street Journal, les petites entreprises américaines sont responsables d’un tiers des importations américaines et elles ne pourront pas éviter la hausse des coûts due aux droits de douane, ni en transférer la charge à quelqu’un d’autre. « La situation pourrait empirer avec l’annonce par la Chine d’imposer des contrôles à l’exportation de terres rares et d’aimants vers les États-Unis », qui pourrait paralyser des secteurs entiers de la production américaine, explique le New York Times.
Sans alternatives nationales pour rapatrier rapidement leur production aux Etats-Unis et avec peu de temps pour s’adapter, de nombreuses PME sont déjà en difficulté. Celles qui optent pour l’augmentation du prix de leurs produits se mettent à produire des « frais de douane » sur les factures de leurs clients pour accroître la pression populaire à leur contestation voire à leur suppression. Mais l’augmentation des tarifs risque surtout de rapidement détourner les consommateurs de produits devenus trop chers. Les droits de douane de Trump n’avaient peut-être pas l’objectif de favoriser la concentration de l’économie américaine, mais le fait que les plus grands acteurs puissent négocier des exemptions à leur avantage pourraient bien d’abord et avant tout renforcer certains monopoles.
Pour un responsable de la division antitrust du ministère de la Justice, l’inflation de ces dernières années avait déjà permis à des entreprises de se livrer à des pratiques extrêmement néfastes pour la société… le risque est que les droits de douane permettent à nombre d’acteurs d’augmenter leurs tarifs au-delà du nécessaire, à l’image de la récente grippe aviaire qui a été une explication bien commode pour augmenter le prix des œufs aux Etats-Unis, ces derniers mois. En effet, aux Etats-Unis, le prix des œufs a augmenté de 53%. L’explication la plus communément avancée pour expliquer « l’eggflation » serait dû à la grippe aviaire et à l’abattage en masse qui en a résulté, explique Basel Musharbash dans sa newsletter, Big. Pourtant, souligne-t-il, la production d’oeufs n’a pas baissée : par rapport à 2021, la baisse de la production d’oeufs n’a été que de 3 à 5 %, alors que la consommation d’oeufs est passée de 206 oeufs par Américain et par an en 2021 à 190 oeufs en 2024 (-7,5%). Sans compter que l’exportation d’œufs a également reculé… L’augmentation des tarifs n’est donc pas liée à la baisse de production, comme on l’entend trop souvent, mais à la nouvelle concentration du marché. Cal-Maine Foods – le plus grand producteur d’œufs et le seul à publier ses données financières en tant que société cotée en bourse – a vu ses profits s’envoler avec l’épidémie de grippe aviaire, “dépassant le milliard de dollars pour la première fois de son histoire”. En fait, Cal-Maine a réalisé des marges sans précédent de 70 à 145 % sur les coûts de production agricoles. Pour Doctorow, l’oeuflation est typique d’une inflation de la cupidité, liée à l’établissement de monopoles sur les marchés. Pour nombre d’entreprises, la reprise de l’inflation pourrait bien être une aubaine pour continuer à augmenter leurs tarifs.
L’augmentation des tarifs ne relocalisera pas la productionWired explique pourquoi nombre de petites entreprises américaines ne peuvent pas produire aux Etats-Unis. Pour elles, bien souvent, il n’y a pas d’alternative à faire produire en Chine, quels que soient le niveau des droits de douane, notamment parce que l’appareil productif américain n’est plus disponible. En fait, la hausse des droits de douane à eux seuls ne suffiront pas à inciter les entreprises à s’implanter aux États-Unis, affirme Kyle Chan, chercheur spécialisé dans la politique industrielle à l’université de Princeton. Si les coûts bas sont une raison importante qui motive l’approvisionnement en Chine, la raison pour laquelle la production manufacturière en Chine est moins chère que dans d’autres régions n’est pas toujours liée au salaire des travailleurs ni à une moindre qualité. Au contraire. L’industrie chinoise est très qualifiée, spécialisée et intégrée. « La Chine est également un leader mondial dans la production d’outils industriels, ce qui signifie que les usines peuvent facilement adapter leurs machines aux besoins en constante évolution de leurs clients ». Non seulement la production chinoise sait s’adapter aux exigences, mais elle sait produire aussi tant en petites qu’en grosses quantités. Enfin, rapatrier la production aux Etats-Unis nécessiterait de construire des usines, voire de faire venir des spécialistes chinois pour cela, ce qui avec les politiques d’immigration mises en place s’avérerait désormais impossible.
Dans un éditorial saignant, le modéré Financial Times n’a pas de mots assez durs contre la hausse des tarifs douaniers décidés par Trump qu’il qualifie de « pire acte d’autodestruction de l’histoire économique américaine ». Pour l’économie américaine, les effets les plus immédiats des mesures de Trump seront une hausse de l’inflation et un ralentissement de l’activité économique. Même son de cloche pour David Brooks dans le New York Times : « Trump construit des murs. Ses politiques commerciales entravent non seulement la circulation des biens, mais aussi celle des idées, des contacts, des technologies et des amitiés. Ses politiques d’immigration ont le même effet. Il s’en prend aux institutions et aux communautés les plus impliquées dans les échanges internationaux ». C’est oublier que les grandes nations sont des carrefours, rappelle Brooks. « Elles ont été des lieux où des gens du monde entier se sont rencontrés, ont échangé des idées et en ont inventé de nouvelles ensemble ». L’entrée en vigueur des droits de douane aux Etats-Unis n’est pas le « Jour de la Libération » de l’Amérique comme le clame Trump, mais risque bien plus d’être le « Jour de la Stagnation » et du déclin de l’empire américain.
La presse américaine se fait l’écho des effets très immédiats que les tarifs douaniers ont sur le commerce. Le New York Times par exemple explique que les droits de douane réduisent déjà les importations de voitures et paralysent les usines américaines, du fait de pièces indisponibles, comme aux pires temps de la pandémie. Avec les tarifs douaniers, Trump espère faire revivre l’industrie manufacturière d’après-guerre, qui, jusque dans les années 70, a employé plus de 20 millions d’Américains, rappelle le New York Times. Mais les pôles industriels ont largement périclité depuis. Les économistes eux-mêmes restent profondément sceptiques : pour eux, les droits de douane ne suffiront pas à rétablir l’industrie d’antan. Ils ne suffisent pas à faire une politique industrielle.
Pour Wired, le gouvernement Trump, en même temps qu’il augmentait les droits de douane, a surtout arrêté de financer le programme qui a stimulé l’industrie américaine pendant des décennies, le Manufacturing Extension Partnership (MEP), un programme et un réseau d’aide à l’industrialisation pour les PME américaines. Dans une tribune, Brian Desse, ancien président du Conseil économique des Etats-Unis durant l’administration Biden, rappelle que l’industrie automobile américaine est désormais à la traîne dans la course à l’innovation. 60% des pièces qui constituent les véhicules américains sont importées et les droits de douane vont surtout venir renchérir les prix des véhicules des constructeurs nationaux. Mais Trump ne s’est pas attaqué qu’aux droits de douane. Son projet de réduire les incitations fiscales pour l’innovation et la production nationale de batteries par exemple a gelé les investissements des constructeurs américains : au premier trimestre 2025, les entreprises ont annulé plus de 6 milliards de dollars de projets de fabrication de batteries. Or, ces incitations fiscales ont permis de limiter le retard dans la production de batteries, qui est aujourd’hui le lieu de la course à l’innovation pour la voiture du futur. Trump enferme les Etats-Unis dans un piège luddiste, qui risque bien plus de pénaliser les entreprises américaines que de les aider à développer leurs capacités d’innovation et d’investissements.
Le Financial Times semble assez inquiet de l’escalade des tarifs douaniers lancée par le président Américain. Les marchés également, qui anticipent plutôt un ralentissement économique mondial voire une récession. “Les droits de douane de Trump n’ont pas accéléré la croissance économique américaine. Au contraire, ils l’ont probablement stoppée”, rapporte Vox. Les entrepreneurs de la Tech, qui s’étaient ralliés massivement à Trump, sont en train de faire la grimace. Pourtant, pour l’instant, souligne The Verge, ils restent assez silencieux sur l’augmentation des tarifs malgré l’impact certain sur leur activité. Il faut dire que personne ne souhaite se mettre Trump à dos.
Dans le New York Times, la journaliste Patricia Cohen estime que les perturbations économiques introduites par le gouvernement Trump seront difficiles à inverser, notamment parce que le reste du monde, lui, va rapidement s’y adapter. “Les chaînes d’approvisionnement seront réorganisées, de nouveaux partenariats seront conclus, et les étudiants, chercheurs et talents technologiques étrangers trouveront d’autres destinations où migrer.”
Face au virage protectionniste de l’Amérique, Pékin se positionne déjà comme le défenseur du libre-échange et le nouveau leader du système commercial mondial. Comme le montrait un reportage du New York Times, les entreprises chinoises s’adaptent déjà et réorientent leurs marchés et leurs budgets publicitaires, quand ils ne se mettent pas à s’adresser directement aux Américains, explique la Technology Review, pour leur proposer des modalités de vente directe pour réduire les prix en tentant de contourner l’augmentation des tarifs, comme les commissions des grandes plateformes chinoises de B2B, qui mettent les fabricants en relation avec les entreprises américaines.
Les conséquences ne se font pas attendre. Les tarifs de la Fast Fashion ont augmenté de 300% et les sites Shein et Temu ont clairement affiché sur leurs sites l’impact des droits de douanes de chaque produit. Sur Amazon, Trump a appelé personnellement Jeff Bezos pour que celui-ci n’affiche pas, en plus du prix des produits, les droits de douane spécifiques de chacun, afin que les consommateurs ne voient pas l’impact des tarifs douaniers sur le prix des produits. Bezos a visiblement cédé très facilement. Le grand défenseur de la liberté et du libre marché, celui qui avait promis de mettre sa fortune en rempart contre les intimidations, n’a pas été plus courageux que les autres, ironise The Verge. Amazon a préféré faire pression sur ses fournisseurs pour que leurs prix n’augmentent pas et qu’ils absorbent eux-mêmes l’augmentation plutôt que de réduire les commissions que prélève sa plateforme.
En s’intéressant aux conséquences sur une vaste gamme de produits, The Verge montre surtout que plus personne n’y comprend rien… Et que l’incompréhension génère un fort attentisme des entreprises américaines qui ralentissent leurs achats comme leurs investissements. L’évolution des tarifs va également “modifier les habitudes de consommation des Américains, ainsi que la production et les produits des entreprises américaines”. Les droits de douane ressemblent à une arme automatique qui tire dans tous les sens. Mais nul ne sait qui elle va abattre en premier. Ce qui est sûr, c’est que la guerre commerciale, elle, a déjà commencé. Et elle ne va bénéficier à personne, sauf aux plus grandes entreprises qui vont continuer d’imposer leurs conditions à toutes les autres.
-
7:00
L’administration Trump compromet le développement de l’IA
sur Dans les algorithmesL’avenir du leadership américain en matière d’IA est compromis, estime Matteo Wong pour The Atlantic. Les produits d’IA générative développés par les grandes entreprises de l’IA américaine s’appuient sur des travaux de recherche, alors que le financement des universités est attaqué par le gouvernement Trump. Si Trump se présente comme le défenseur de l’IA, notamment en finançant le projet Stargate, c’est oublier que « l’IA générative n’est pas seulement une industrie : c’est une technologie qui repose sur des innovations » et de la R&D. « L’industrie de l’IA a transformé des recherches fondamentales antérieures en avancées majeures, propulsant les modèles de génération de langage et d’images vers des sommets impressionnants. Mais si ces entreprises souhaitent aller au-delà des chatbots, leurs laboratoires d’IA ne peuvent fonctionner sans étudiants diplômés. » « Aux États-Unis, on ne décroche pas de doctorat sans financement fédéral », rappelle le journaliste.
« De 2018 à 2022, le gouvernement a soutenu près de 50 milliards de dollars de projets universitaires liés à l’IA, qui ont simultanément reçu environ 14 milliards de dollars de subventions non fédérales, selon une étude menée par Julia Lane, économiste du travail à l’Université de New York. Une part importante des subventions est consacrée à la rémunération des professeurs, des étudiants de troisième cycle et des chercheurs postdoctoraux, qui enseignent généralement eux-mêmes en licence, puis travaillent ou créent des entreprises privées, apportant leur expertise et leurs idées nouvelles. Jusqu’à 49 % du coût de développement de modèles d’IA avancés, tels que Gemini et GPT-4, est reversé au personnel de recherche« . Dans un article pour Nature, Julia Lane tentait d’évaluer le poids des dépenses de recherche et des investissements publics dans l’IA, en soulignant la difficulté, notamment parce qu’elle ne se limite pas aux seuls laboratoires d’IA. Certains chercheurs estiment même que quatre cinquièmes des économies de certains pays avancés peuvent désormais être qualifiés de « difficiles à mesurer ».
« L’innovation est le fruit d’investissements fédéraux, c’est un investissement dans les personnes », explique Mme Lane. « Si les entreprises d’IA souhaitent appliquer leurs modèles à des problèmes scientifiques – par exemple en oncologie ou en physique des particules – ou construire des machines « superintelligentes », elles auront besoin de personnel doté d’une formation scientifique sur mesure qu’une entreprise privée ne peut tout simplement pas fournir. Réduire drastiquement le financement du NIH, de la NSF et d’autres organismes de financement de la recherche, ou retirer directement des fonds aux universités, pourrait entraîner une baisse de l’innovation, une diminution du nombre de chercheurs en IA formés aux États-Unis et, in fine, une industrie américaine moins prospère ».
-
7:00
Doge : la privatisation des services publics
sur Dans les algorithmesIl reste difficile de suivre ce qui se déroule de l’autre côté de l’Atlantique depuis l’arrivée de Trump au pouvoir, ce démantèlement de l’Amérique, comme nous l’appelions. Nous avons tenté également de faire le point de ce qu’était le Doge, de quelle efficacité il était le nom, à savoir un piratage, un remplacement démocratique, une porte ouverte pour la corruption et l’escroquerie… Depuis, les articles s’accumulent encore. Un son de cloche complémentaire le présente souvent comme une privatisation inédite des services publics. Explorons cette piste.
Une privatisation inédite : les délégataires aux commandesLe Doge tient d’une privatisation inédite des services publics, assène Brett Heinz pour The American Prospect, rappelant que si Musk a dépensé 290 millions de dollars pour l’élection de Trump, ses entreprises ont reçu plus de 38 milliards de dollars d’aides gouvernementales au cours des deux dernières décennies.
En fait, le Doge ne vise pas à accroître l’efficacité gouvernementale, mais bien à démanteler la fonction publique en ciblant les dépenses que Musk et Trump désapprouvent, tout en centralisant le pouvoir décisionnel à la Maison Blanche. Mais surtout, le Doge entérine une nouvelle stratégie : « l’accession de sous-traitants gouvernementaux comme Musk au rang de décideurs politiques ». Ce sont ceux qu’on appellerait en France les délégataires des services publics qui prennent les commandes.
« La seule classe parasitaire qui profite de l’inefficacité du gouvernement est constituée de sous-traitants gouvernementaux à but lucratif comme Musk, qui s’enrichissent sur l’argent des contribuables en fournissant des services hors de prix pour compenser le manque de capacités de l’État, tout en utilisant leurs milliards pour manipuler le système à leur avantage. Permettre à des sous-traitants comme lui de décider de la façon dont le gouvernement dépense l’argent est à la fois un affront à la démocratie et une invitation ouverte à davantage de corruption », explique Heinz.
« La plupart des Américains ignorent à quel point leur gouvernement a déjà été privatisé. On estimait en 2017 que plus de 40 % des personnes travaillant pour le gouvernement ne sont pas réellement des fonctionnaires. Ce sont des sous-traitants d’entreprises privées, embauchés pour prendre en charge une tâche particulière du secteur public. Dans certains secteurs gouvernementaux, comme l’armée, le recours aux sous-traitants est monnaie courante : en 2019, on comptait 1,5 sous-traitant pour chaque soldat américain en Irak et en Afghanistan. »
Pour le dire autrement, le gouvernement fédéral ne souffre pas d’un effectif pléthorique, au contraire : il y a moins d’employés fédéraux en 2015 qu’en 1984. Par contre, la sous-traitance privée, elle, a explosé. « Entre 2013 et 2023, les dépenses totales consacrées à l’attribution de contrats fédéraux ont augmenté de près de 65 % ».
La croyance dans l’efficacité de la sous-traitance privée n’a jamais été corroborée par des preuves solides, rappelle Heinz. Reste que, désormais, ces contractants ne veulent pas seulement résoudre pour plus cher les problèmes du secteur public, ils veulent aussi pouvoir décider, pour le gouvernement, de la nature du problème. « Les entrepreneurs ne veulent pas simplement obéir aux ordres du gouvernement, mais fonctionner comme un para-État capable d’influencer les ordres que le gouvernement leur donne. À l’instar du rêve de Musk de construire des voitures autonomes, l’industrie rêve d’un entrepreneur auto-contractant. Et Musk lui-même teste ce concept. » Brett Heinz rappelle que les rafles de données du Doge ont d’abord ciblé des agences fédérales où Musk avait des conflits d’intérêts. « En le qualifiant d’ailleurs d’« employé spécial du gouvernement », la Maison Blanche lui impose des normes éthiques moins strictes que la plupart des fonctionnaires qu’il licencie. » Et Musk n’est pas le seul sous-traitant du gouvernement à y étendre son pouvoir. « On entend souvent dire que le gouvernement devrait être géré « davantage comme une entreprise ». Le cas du Doge nous montre pourtant le contraire. Si nous voulions réellement un gouvernement plus efficace, il faudrait réduire le nombre de sous-traitants et embaucher davantage de fonctionnaires, souvent plus rentables et toujours plus responsables et transparents. Musk fait le contraire, offrant à ses entreprises et alliés davantage d’opportunités d’intervenir et de proposer des travaux surévalués et de qualité douteuse. »
L’effondrement des services publicsLe Washington Post raconte l’effondrement de la Sécurité sociale américaine. L’agence fédérale, qui verse 1 500 milliards de dollars par an en prestations sociales à 73 millions de retraités, à leurs survivants et aux Américains pauvres et handicapés a vu ses effectifs fondre. Son site web est souvent en panne depuis que le Doge a pris les commandes, empêchant de nombreux bénéficiaires de mettre à jour leurs demandes ou d’obtenir des informations sur des aides qui ne viennent plus. 12% des 57 000 employés ont été licenciés. Des milliers d’Américains s’inquiètent auprès de leurs députés ou de l’agence des versements à venir. « La sécurité sociale est la principale source de revenus d’environ 40 % des Américains âgés ». En sous-effectif et en manque de budgets de fonctionnement depuis longtemps, la purge est en train de laminer ce qu’il restait du service. Mais, face aux retraités inquiets, les employés ont peu de réponses à apporter, et ce alors que les escroqueries en ligne se multiplient, profitant de l’aubaine que l’inquiétude génère auprès d’eux. Certains bureaux estiment que les gens pourraient être privés de prestations pendant des mois.
Wired rapporte que le Doge a décidé de réécrire le code du système de la Sécurité sociale américaine, afin de se débarrasser du langage Cobol avec lequel il a été écrit depuis l’origine et que peu de développeurs maîtrisent. Réécrire ce code en toute sécurité prendrait des années : le Doge souhaite que cela se fasse en quelques mois. Qu’importe si cela bloque les versements d’allocation de millions d’Américains.
En 2020, pour Logic Mag, Mar Hicks avait exploré les enjeux du langage Cobol depuis lequel nombre d’applications des services publics sont construites (et pas seulement aux Etats-Unis, notamment parce que ces systèmes sont souvent anciens, héritages de formes de calcul précédant l’arrivée d’internet). Mar Hicks rappelait déjà que ce vieux langage de programmation avait été, durant la pandémie, un bouc-émissaire idéal pour expliquer la défaillance de nombre de services publics à répondre à l’accroissement des demandes d’aides des administrés. Pourtant depuis 6 décennies, les programmes écrits en Cobol se sont révélés extrêmement robustes, très transparents et très accessibles. C’est sa grande accessibilité et sa grande lisibilité qui a conduit les informaticiens à le dénigrer d’ailleurs, lui préférant des langages plus complexes, valorisant leurs expertises d’informaticiens. Le problème c’est que ces systèmes nécessitent surtout une maintenance constante. Or, c’est celle-ci qui a fait souvent défaut, notamment du fait des logiques d’austérité qui ont réduit le personnel en charge de la maintenance des programmes. “C’est ce manque d’investissement dans le personnel, dû à l’austérité, plutôt que la fiction répandue selon laquelle les programmeurs aux compétences obsolètes partaient à la retraite, qui a éliminé les programmeurs Cobol des années avant cette récente crise.“ Hicks souligne que nous ne manquons pas de programmeurs Cobol. En fait, explique-t-elle : “la technologie actuelle pourrait bénéficier davantage de la résilience et de l’accessibilité que Cobol a apportées à l’informatique, en particulier pour les systèmes à fort impact”.
“Les systèmes anciens ont de la valeur, et construire constamment de nouveaux systèmes technologiques pour des profits à court terme au détriment des infrastructures existantes n’est pas un progrès. En réalité, c’est l’une des voies les plus régressives qu’une société puisse emprunter ». “Le bonheur et le malheur d’une bonne infrastructure, c’est que lorsqu’elle fonctionne, elle est invisible : ce qui signifie que trop souvent, nous n’y accordons pas beaucoup d’attention. Jusqu’à ce qu’elle s’effondre”.
-
7:00
Dégouverner ?
sur Dans les algorithmesEn 2021, après les confinements de la pandémie de Covid-19, la question des chaînes d’approvisionnement et de leur pilotage s’est reposée depuis de nouvelles perspectives. Comment assurer la gouvernance du monde ? Et pourquoi nos organisations savent-elles être si vulnérables dans les tensions ?
Si le monde nous semble si incompréhensible, c’est qu’il l’est devenu !, explique l’écrivain Tim Maughan, auteur notamment d’un roman de science-fiction, Infinite Detail (MCD Books, 2019, non traduit), sur One Zero. Des chaînes d’approvisionnement automatisées aux échanges commerciaux à haute fréquence, la complexité rend le monde « inconnaissable » à toute intelligence humaine. Pire souligne-t-il, pour générer toujours plus de croissance, les systèmes automatisés doivent augmenter sans cesse leur complexité. Aucun humain n’est capable de comprendre ce qu’il se passe derrière les écrans : chaque jour, 82,2 ans de vidéo sont téléchargés sur YouTube ; 500 millions de tweets sont échangés, l’équivalent d’un livre de 10 millions de pages ! En 2014 déjà, l’écrivain a passé une semaine sur un porte-conteneur… Et ce qui l’a le plus frappé, c’était de constater combien chaque décision était prise par la technologie. Du grutier au capitaine, chacun recevait des instructions via des algorithmes de gestion, acceptés et respectés sans conteste par des professionnels compétents, quand bien même ces décisions ne se motivaient d’aucune explication. Ainsi, explique-t-il, le capitaine du bateau recevait régulièrement des courriels automatisés lui demandant de ralentir le navire, sans que la compagnie maritime lui en explique la raison. Comme si nous avions déjà lâché prise sur la motivation des décisions et l’explicabilité du monde…
Qu’importe, tant qu’il y a de la nourriture et des vêtements dans les magasins, de l’argent dans les distributeurs, des histoires sur notre Instagram… Tout semble désormais se faire tout seul, sans avoir besoin de s’en inquiéter ! Pourtant, ces systèmes complexes peuvent tomber en panne. 2020 par exemple, a permis de constater combien les chaînes d’approvisionnement pouvaient être sous pression, entraînant leurs lots de pénuries. Les chaînes d’approvisionnement subissent également régulièrement les offensives de logiciels malveillants… Pourtant, à ce jour, aucune défaillance n’a été réellement catastrophique, comme si l’effondrement lié à la complexité était finalement bien plus résilient qu’escompté. C’est à se demander si ces réseaux finalement ne fonctionnent pas trop bien, malgré leur opacité intrinsèque. Nous leur avons donné un grand pouvoir décisionnel pour atteindre leurs objectifs le plus efficacement possible et ils y arrivent relativement bien… pour autant qu’on ne les inspecte pas en détail, souligne Maughan, car ils ne sont pas dotés de capacité à prendre des décisions éthiques ou des jugements moraux sur ce qu’ils font – nous rappelant les propos de Miriam Posner sur les limites de la transformation logicielle de la chaîne logistique. En fait, rappelle Maughan, par sa conception même, le réseau de la chaîne d’approvisionnement mondial fait perdurer et accroît les inégalités : son rôle est de tirer parti des écarts de niveaux de vie pour faire produire dans les pays où cette production est la moins chère et expédier les marchandises à l’autre bout du monde pour les vendre à profit. Ces constats se prolongent jusqu’aux plateformes de streaming qui fournissent des contenus de divertissement illimités, au détriment des revenus de ceux qui les produisent. Tout comme le capitaine du porte-conteneur, nous avons de moins en moins de contrôle politique sur nos démocraties elles-mêmes, explique Maughan. Pour paraphraser le cinéaste Adam Curtis, au lieu d’élire des dirigeants visionnaires, nous ne faisons en fait que voter pour des cadres intermédiaires dans un système mondial complexe que personne ne contrôle entièrement. Le résultat de cette situation ressemble de plus en plus à un vide démocratique. Nous vivons à une époque où les électeurs ont un niveau record de méfiance envers les politiciens, en partie parce qu’ils peuvent sentir cette déconnexion, soutient Maughan : ils voient dans la réalité quotidienne que, malgré leurs revendications, les politiciens ne peuvent pas apporter de changements, comme si nul ne pouvait plus agir sur le système décisionnel automatisé. Pire, souligne Maughan, nombre de politiques pensent qu’on ne doit pas réparer le système, mais accélérer le processus de déréglementation, c’est-à-dire donner plus de pouvoir encore à l’automatisation en réseau.
Pour Maughan, il nous faut trouver des moyens pour accroître notre connaissance de l’inconnaissable et des stratégies pour contrer l’impuissance et l’anxiété que le système produit, conclut-il. Nous pourrions être tout à fait d’accord avec lui, si l’on ne constatait pas, avec le temps, que cette demande d’explication et d’éthique, à force d’être répétée, semble s’éloigner de nous à mesure que les systèmes se déploient et s’enracinent. Plutôt que d’exiger une transparence qui semble partout reculer à mesure qu’on la mobilise, ne faut-il pas mieux regarder ce qui l’empêche ? Pourquoi ces chaînes semblent-elles de plus en plus fortes et de moins en moins gouvernables ? Peut-être faut-il entendre qu’elles n’ont pas pour but d’être gouvernables justement – ou plus exactement que leur structuration (qui elle est bien gouvernée) tend surtout à produire, volontairement, de l’ingouvernabilité, c’est-à-dire à réduire la portée de ceux qui peuvent les gouverner…
Un monde sans gouvernance accessible ?La revue juridique Transnational Legal Theory se saisissait justement dans un numéro récent du concept de « non-gouvernance » (ungovernance). Dans les différentes contributions à ce numéro, plusieurs sens ressortaient, montrant que le concept avait certainement encore besoin d’être affiné. Pour certains auteurs, la non-gouvernance semblait plutôt tenir d’une ingouvernabilité, d’une impossibilité à gouverner du fait de l’absence de structures et d’instruments pour se faire. Pour d’autres, la non-gouvernance semblait plutôt relever d’une dégouvernance, d’un recul de la gouvernementalité, comme le proposent les procédures reposant sur les algorithmes et l’intelligence artificielle par exemple (en suivant le concept de gouvernementalité algorithmique défini par Antoinette Rouvroy et Thomas Berns, qui est un changement de modalités de gouvernement justement visant à faire disparaître le « projet même de gouverner »).
Ainsi, les juristes Deval Desai et Andrew Lang, dans leur article introductif définissent la non-gouvernance comme des projets globaux qui poursuivent de grandes visions sous des revendications d’universalité sans pour autant proposer de prescriptions adéquates, sans possibilité de faire correspondre les structures institutionnelles aux résultats.
Plus précisément, expliquent-ils, la non-gouvernance globale ne signifie pas une absence de gouvernance, mais des tensions entre le fait que le côté mondial trouble la gouvernance et le fait que la gouvernance trouble son projet mondial. Pour eux, la non-gouvernance fonctionne dans un contexte de grandes visions (comme le marché ou l’État de droit) qui ne disposent pas de voies de recours adaptées… et qui donc souffrent d’une impossibilité d’action (c’est-à-dire que les structures institutionnelles ne peuvent pas matcher avec les résultats souhaités), ce qui conduit à la fois à poursuivre leur action et à en constater l’impossibilité, tant et si bien que le succès ne se mesure pas dans sa capacité à construire des institutions adaptées, mais plutôt à réarranger sans cesse les grandes visions initiales.
Pour leurs confrères Dimitri Van Den Meerssche et Geoff Gordon, le risque et la résilience sont la nouvelle architecture normative. En prenant l’exemple du fonctionnement de la banque mondiale, les deux chercheurs soulignent que le risque et la complexité ne sont plus considérés comme des conditions limitant un projet, mais comme des éléments constitutifs, visant à gouverner depuis des outils qui reposent sur l’inconnaissabilité. Un autre article signé Stephen Humpreys s’intéresse à la non-gouvernance de la question climatique. Pour ce dernier, le GIEC par exemple a souvent souligné que la gouvernance de la question climatique – ou plutôt son absence – était justement un obstacle majeur au règlement du problème climatique. Ou pour le dire autrement, que les structures de gouvernance existantes sont en elles-mêmes un obstacle à la gestion du climat. Pour Humphreys, la non-gouvernance signifie ici plutôt un refus provisoire, stratégique ou conscient de mécanismes de contrôles par rapport aux compétences institutionnelles existantes. Le régime de droit construit pour contenir le changement climatique est imparfait et complexe et s’inscrit dans un vaste réseau d’appareils réglementaires interconnectés. Si la question climatique est d’abord un problème de connaissance que le GIEC éclaire et cartographie, celui-ci ne gouverne pas la politique climatique qui est laissée aux décideurs politiques (ainsi qu’aux organisations internationales, aux institutions scientifiques, aux ONG voire même aux entreprises ou aux individus…). Quand on regarde certains secteurs par exemple, comme le pétrole ou l’aviation, toute la question est de savoir ce qui doit être régi, par qui et comment… et selon quelles pratiques réglementaires. La question de la non-gouvernance ne consiste pas à reconnaître la complexité ou l’incohérence des politiques, mais à comprendre comment leurs interactions peuvent être comprises comme quelque chose de nécessaire, de rationnel ou d’utile, plutôt que comme quelque chose de contingent, irrationnel, erroné ou inévitable.
Il distingue plusieurs modes de non-gouvernance : agnostique, expérimentale, inoculative ou catastrophique. Pour lui, explique-t-il, la non-gouvernance est le résultat accidentel ou fortuit d’un ensemble de décisions rationnelles, soutenues par un vaste appareil réglementaire, mais qui se révèle au final très sélectif et qui surtout intègre et présume l’incertitude à toute résolution. Pour Christine Bell, l’ingouvernance n’est pas hors du droit, mais dans ses failles, ses assemblages, ses mises à jour, ses dissonances… Pour Zinaida Miller, la justice transitionnelle par exemple relève d’une forme de non-gouvernance où les objectifs de justice, d’apaisement, de vérité et réconciliation semblent plus importants que les solutions mobilisées (voir son article). Pour Michelle Burgis-Kasthala, les accords d’Oslo qui ont défini les modalités des rapports entre Israéliens et Palestiniens reposent beaucoup plus sur une absence de gouvernance que sur des modalités de gouvernements claires, qui ont permis aux acteurs d’y introduire d’innombrables perturbations (voir son article).
Le numéro de Transnational Legal Theory ne s’intéresse pas au numérique. Mais le concept de non-gouvernance voire de dégouvernance par les systèmes techniques mériteraient certainement d’être explorés et précisés plus avant. À l’heure où les systèmes techniques nous font entrer dans une gestion à vue, agile et réactive en continue, où les outillages de la décision n’ont jamais été aussi nourris pour modéliser le futur, ceux-ci peinent pourtant à dessiner un futur, comme le soulignait très justement le chercheur Olivier Ertzscheid en rendant compte d’une discussion avec Antoinette Rouvroy justement. « De fait, c’est peut-être précisément parce que les gouvernements sont noyés par les (en partie) fausses capacitations à prévoir « le » futur qu’ils se retrouvent aussi incapables de dessiner « un » futur. La quasi-certitude de pouvoir juguler la part d’incertitude du monde, diminue plus qu’elle n’augmente la capacité d’agir en situation d’incertitude. »
La désorganisation : mode de fonctionnement des organisations ?Nous voici confrontés à des errements répétés que la crise sanitaire a d’autant plus amplifiés qu’elle a mis de côté les questions d’équité et d’égalité, au profit d’une efficacité qui serait seule essentielle quand tout le reste ne le serait plus. Reste que l’efficacité de la réponse à la pandémie a elle aussi buté sur les modalités de réponse, sur ses réponses opérationnelles, comme le soulignaient les chercheurs en sociologie des organisations, Henri Bergeron, Olivier Borraz, Patrick Castel et François Dedieu dans leur très stimulant bilan de la pandémie Covid-19 : une crise organisationnelle (Presses de SciencesPo, 2020). Les chercheurs s’y interrogeaient : pourquoi les situations de crises donnent lieu à une telle créativité organisationnelle rendant les plans préparés avec tant d’attention caduque avant d’être mis en oeuvres ? Pourquoi ce foisonnement augmente-t-il les problèmes de coordination qu’ils sont censés résoudre ?
Pour les chercheurs, nous questionnons le poids des défaillances ou des mérites individuels et négligeons les dimensions collectives et organisationnelles des décisions. Nous minimisons les risques et signaux certainement parce que les organisations sont mal équipées pour les faire remonter. « La coopération et la coordination demeurent le maillon faible – le « peu-pensé » – des dispositifs organisationnels », d’où le fait qu’ils sortent des cadres en cas de crise, mais souvent au détriment de ce qui en est exclu (comme les considérations économiques exclues du cadrage très hospitalier de la crise). Dans un monde saturé d’organisations, nous peinons toujours à les organiser ! Certainement parce que cette organisation est intimement liée au pouvoir (ce qui n’est pas sans évoquer pour moi, les questions posées par Frédéric Laloux dans Reinventing organisations). Dans la gestion élitaire et sanitaire de la crise que nous connaissons, les organisations et protocoles créés ont favorisé une décision à courte vue, top-down, conflictuelle… expliquent-ils. Derrière leurs analyses, les auteurs consacrent tout un chapitre sur comment apprendre des crises, comment passer de la recherche de culpabilités à la réforme des causes structurelles, appelant à créer une sorte d’observatoire des crises pour en tirer des enseignements qui ne soient plus singuliers – car les crises ne le sont pas – mais systémiques. En dénonçant, avec rigueur, l’excès de confiance, la saturation désorganisationnelle, la gestion élitaire, l’exubérante créativité procédurale, l’épuisement décisionniste et contradictoire… les chercheurs soulignent néanmoins que ces défauts demeurent le lot commun de toutes nos organisations.
Le « command and control » autoritaire produit rarement ce qu’on en attend. Il produit surtout de la défiance. Finalement, à les lire, on se dit que la non-gouvernance, la désorganisation ou la production de l’ingouvernabilité… sont peut-être les diverses facettes d’une réponse à une même complexité. Sous cet angle, la non-gouvernance tiendrait plus d’une réponse infrastructurelle aux incertitudes. En ce sens, finalement, l’opacité, la coupure démocratique et l’absence d’éthique semblent plutôt tenir de réponses pour entretenir l’inactionnabilité du monde, un moyen pour réduire, même dans l’adversité, le nombre de ceux qui peuvent gouverner ? Ne pas gouverner n’est pas tant un moyen de désinnover, comme le prônait le philosophe Alexandre Monnin dans nos pages, mais plutôt un moyen pour assurer la continuité du monde. Dégouverner, tient du symptôme plus que du remède. Dégouverner, c’est assurément invisibiliser toute gouvernance.
Hubert Guillaud
Cet article a été publié originellement sur InternetActu.net, le 6 janvier 2021.
-
7:00
Du rôle du logiciel dans la chaîne d’approvisionnement
sur Dans les algorithmesEn 2019, dans une tribune pour le New Yorker, Miriam Posner explique le rôle du logiciel dans les chaînes d’approvisionnement, pour mieux nous en pointer les limites. Si les chaînes logistiques ne sont pas éthiques, c’est parce que l’éthique n’est pas une donnée que traite leurs logiciels. Explication.
Professeure à l’université de Californie et spécialiste des questions technologiques, Miriam Posner signe dans le New Yorker une très intéressante tribune sur la transformation logicielle de la chaîne logistique.
En consultant un rapport (« cauchemardesque ») du China Labor Watch (l’Observatoire du travail en Chine, une association qui informe et dénonce les conditions de travail sur les chaînes de fabrication des usines chinoises) sur les conditions de fabrication de jouets en Chine, Miriam Posner s’interrogeait : comment se fait-il que nous ne sachions pas mieux tracer l’origine des produits que nous consommons ?
De l’abstraction des chaînes d’approvisionnementsQuand elle a demandé à ses étudiants de travailler sur la question de la chaîne d’approvisionnement de matériel électronique, elle s’est rendu compte que, quand bien même certaines entreprises se vantent de connaître et maîtriser leur chaîne logistique de bout en bout, aucune ne sait exactement d’où proviennent les composants qu’elles utilisent. « Cette ignorance est inhérente au mode de fonctionnement des chaînes d’approvisionnement ». La coque de plastique d’une télévision par exemple peut-être construite dans une petite usine n’employant que quelques personnes qui n’interagit qu’avec des fournisseurs et acheteurs adjacents (un fournisseur de plastique et une entreprise de montage par exemple). Cette intrication favorise la modularité : si une entreprise cesse son activité, ses partenaires immédiats peuvent la remplacer rapidement, sans nécessairement avoir à consulter qui que ce soit, ce qui rend la chaîne très souple et adaptable… Mais rend également très difficile l’identification des multiples maillons de la chaîne logistique.
Nous avons une vision souvent abstraite des chaînes d’approvisionnements que nous n’imaginons que comme des chaînes physiques. Or leur gestion est devenue complètement virtuelle, logicielle. Les personnes qui conçoivent et coordonnent ces chaînes logicielles elles non plus ne voient ni les usines, ni les entrepôts, ni les travailleurs. Elles regardent des écrans et des tableurs : leur vision de la chaîne d’approvisionnement est tout aussi abstraite que la nôtre, explique la chercheuse.
Le leader logiciel de la chaîne d’approvisionnement est l’allemand SAP. SAP est une suite logicielle que vous ne pouvez pas télécharger sur l’App Store. C’est un logiciel industriel spécialisé qui se déploie à l’échelle d’entreprises pour piloter la chaîne d’approvisionnement (et qui comprend de nombreux modules additionnels de comptabilité ou de ressources humaines). Pour comprendre son fonctionnement, Miriam Posner a suivi une formation en ligne dédiée.
Le logiciel est complexe. Il se présente comme un ensemble de dossiers de fichiers qu’on peut agencer pour former la chaîne d’approvisionnement (commande, fabrication, emballage, expéditions…). La conception d’une chaîne est un processus qui implique plusieurs opérateurs et entreprises, sous forme de « composants ». Un spécialiste de la demande par exemple entre des informations sur les ventes passées (variations saisonnières, promotions planifiées, etc.) et le logiciel calcule combien de produits doivent être fabriqués. Un autre spécialiste utilise des informations sur les délais d’expéditions, les coûts de stockage, les capacités d’usine pour créer un « plan de réseau logistique » qui détermine le moment où chaque engrenage du processus de fabrication doit tourner. Ce plan est ensuite transmis à un autre spécialiste pour planifier la production et calculer le calendrier détaillé qui vont déterminer la manière dont le processus se déroulera sur le terrain le plus précisément possible. Tout cela prend la forme de séries de feuilles de calcul, de cases à cocher, de fenêtres contextuelles… qui n’est pas sans rappeler l’analyse que faisait Paul Dourish sur la matérialité de l’information qui s’incarne aujourd’hui dans le tableur. C’est « pourtant là que les prévisions de marchés sont traduites en ordre de marche des travailleurs », explique Posner. La planification de la production et le calendrier détaillé reposent sur des « heuristiques », des algorithmes intégrés qui répartissent la production et donc la main d’oeuvre pour que les installations fonctionnent à leur capacité maximale. D’ailleurs, souligne Miriam Posner, l’exécution d’une heuristique implique de cliquer sur un bouton de l’interface qui ressemble à une petite baguette magique, comme s’il suffisait d’une action simple pour activer la chaîne.
L’utilisation de SAP est difficile reconnaît la chercheuse. Chaque tâche est compliquée à configurer, avec d’innombrables paramètres à valider. Le plus souvent, ce travail est divisé et nécessite de multiples interventions différentes. En fait, « aucun individu ne possède une image détaillée de l’ensemble de la chaîne d’approvisionnement. Au lieu de cela, chaque spécialiste sait seulement ce dont ses voisins ont besoin. »
« Dans un tel système, un sentiment d’inévitabilité s’installe. Les données dictent un ensemble de conditions qui doivent être remplies, mais rien n’explique comment ces données ont été obtenues. Pendant ce temps, le logiciel joue un rôle actif, en peaufinant le plan pour répondre aux conditions le plus efficacement possible. Les optimiseurs intégrés de SAP déterminent comment répondre aux besoins de la production avec le moins de « latence » et au moindre coût possible (le logiciel suggère même comment optimiser un conteneur pour économiser sur les frais d’expédition). Cela implique que des composants particuliers deviennent disponibles à des moments particuliers. Les conséquences de cette optimisation incessante sont bien documentées. Les sociétés qui commandent des produits transmettent leurs demandes déterminées par calcul à leurs sous-traitants, qui exercent ensuite une pression extraordinaire sur leurs employés. Ainsi, China Labour Watch a constaté que les travailleurs de la ville de Heyuan en Chine chargés de fabriquer une poupée Disney que Miriam a achetée à ses enfants (vendue au prix 26,40 $) travaillent vingt-six jours par mois, assemblent entre 1800 et 2500 poupées par jour et gagnent un centime pour chaque poupée qu’ils complètent. »
De la distance spatiale, temporelle et informationnellePour la chercheuse, le défi majeur dans la gestion de la chaîne d’approvisionnement est la grande distance – « spatiale, temporelle et informationnelle » – qui sépare le processus du monde réel de la fabrication et de la consommation. Ces distances introduisent de nombreux problèmes, comme l’effet « coup de fouet », qui consiste à ce que chaque niveau produise plus que prévu pour mieux répondre à la demande ou ajuster ses bénéfices avec ses coûts. Le battement d’ailes d’un consommateur peut-être amplifié de manière démesurée par la chaîne. En fait, la demande temps réel du pilotage que produit le logiciel ne correspond pas vraiment à la réalité effective des multiples chaînes de production, où chaque acteur fait ses ajustements (qui prennent en compte d’autres commandes, des délais, la disponibilité de fournitures ou la surproduction pour réduire les coûts…). Pourtant, le logiciel procède d’une vision qui maximise le temps réel et donne l’illusion d’être au coeur de la tour de contrôle de la production.
L’autre effet coup de fouet, bien sûr, s’applique directement aux travailleurs des différentes usines prestataires de la chaîne. Quand les exigences des commandes parviennent jusqu’aux travailleurs, elles se révèlent plus exigeantes et plus punitives.
Dans le numéro 4 de l’excellent magazine Logic, Miriam Posner avait déjà livré une réflexion sur le sujet. Elle y rappelait déjà que si les questions de l’architecture physique de la chaîne d’approvisionnement mondialisée était souvent étudiée (notamment dans The Box de Marc Levinson qui s’intéressait au rôle du conteneur ou encore dans The Deadly life of logistics de Deborah Cowen), ce n’était pas beaucoup le cas de son aspect logiciel comme des échanges de données et d’informations qui la sous-tendent. L’industrie logicielle de la gestion de la chaîne d’approvisionnement est pourtant l’un des domaines d’activité qui connaît la plus forte croissance, mais qui opère de manière assez discrète, car les informations qu’elle traite sont très concurrentielles. Amazon, par exemple, n’est pas tant un commerçant qu’une chaîne d’approvisionnement incarnée et peu de personnes connaissent le logiciel qui l’optimise. Pour Leonardo Bonanni, PDG de Sourcemap, une entreprise qui aide les entreprises à construire leurs chaînes d’approvisionnement, l’incapacité des entreprises à visualiser cette chaîne est une fonction même de l’architecture logicielle. Pour Miriam Posner, le terme de chaîne d’approvisionnement est finalement trompeur : cette chaîne « ressemble beaucoup plus à un réseau de voies navigables, avec des milliers de minuscules affluents composés de sous-traitants qui s’écoulent dans de plus grandes rivières d’assemblage, de production et de distribution. »
Pour Bonanni, nous ne voyons qu’une parcelle des abus sur les lieux de travail qui sont portés à notre connaissance : c’est surtout le cas de quelques chaînes prestigieuses, comme dans l’électronique grand public. Mais les conditions de travail sont souvent plus opaques et les abus plus répandus dans d’autres industries, comme l’habillement ou l’agriculture, des lieux où la chaîne se recompose à chaque approvisionnement, à chaque saison, avec un nombre de noeuds et de sous-traitants, qui sont loin d’être tous intégrés à la chaîne logicielle. Les usines géantes de Foxcon masquent d’innombrables petits ateliers et usines beaucoup moins présentables qui permettent à la chaîne d’être extrêmement résiliente et robuste. En fait, « il n’y a pas de tour de contrôle supervisant les réseaux d’approvisionnement », les noeuds ne parlent qu’à leurs voisins immédiats.
Du rôle de l’échelle pour gérer l’information et de la modularité pour gérer la complexité« Ces infrastructures physiques distribuées ressemblent finalement beaucoup au réseau invisible qui les rend possibles : internet ». À chaque étape de la transformation, le produit est transformé en marchandise. Et l’information qui l’accompagnait transformée à son tour. Du plastique devient une coque qui devient une télévision… En fait, la transformation et l’échelle d’action impliquent une perte d’information. Pour récupérer une tonne d’or, vous devez en acheter à plein d’endroits différents que la fonte va transformer en une marchandise unique : la tonne d’or que vous vendez.
Un fonctionnement assez proche de la programmation modulaire, remarque Miriam Posner. La programmation modulaire est une méthode familière à tout programmeur et architecte de systèmes. Elle consiste à gérer la complexité par des unités fonctionnelles distinctes. Chaque programmeur travaille ainsi sur un module qui s’interface aux autres en spécifiant les entrées et sorties où les modalités qu’il prend en charge. Les systèmes modulaires permettent notamment de gérer la complexité et d’améliorer un module sans avoir à toucher les autres : chacun étant une sorte de « boite noire » vis-à-vis des autres.
Comme l’explique Andrew Russell, historien de l’informatique, la modularité, née dans l’architecture, a été un moyen de structurer les organisations comme l’économie. « C’est une sorte de caractéristique de la modernité ». Et les chaînes d’approvisionnement sont hautement modulaires, à l’image du conteneur, standardisé et interchangeable, qui peut contenir n’importe quoi pour se rendre n’importe où, ce qui permet aux marchandises transportées de passer à l’échelle globale.
« Les informations sur la provenance, les conditions de travail et l’impact sur l’environnement sont difficiles à gérer lorsque l’objectif de votre système est simplement de fournir et d’assembler des produits rapidement. « Vous pouvez imaginer une manière différente de faire les choses, de sorte que vous sachiez tout cela », explique Russell, « afin que votre regard soit plus immersif et continu. Mais ce que cela fait, c’est inhiber l’échelle ». Et l’échelle, bien sûr, est la clé d’une économie mondialisée. »
Pour Miriam Posner, le passage à l’échelle – la fameuse scalabilité – explique pourquoi les branches d’un réseau d’approvisionnement disparaissent. Cela aide également à expliquer pourquoi la syndicalisation transnationale a été si difficile : pour répondre aux demandes du marché, les ateliers ont appris à se rendre interchangeables. Un peu comme si « nous avions assimilé les leçons de la modularité d’une manière psychologique ».
La traçabilité de bout en bout ! Mais pour quelle transparence ?Reste à savoir si la technologie peut remédier au problème qu’elle a créé. Miriam Posner constate que l’internet des objets et la blockchain sont deux technologies qui ont reçu beaucoup d’engouements chez les praticiens des systèmes de gestion de la chaîne d’approvisionnement.
La première permet de localiser et tracer les composants alors que la seconde permet d’y attacher un numéro d’identification et un journal qui enregistre chaque fois qu’une fourniture change de main. Leurs partisans affirment que ces technologies pourraient apporter une transparence radicale aux chaînes d’approvisionnement mondiales. Le problème est que l’une comme l’autre peuvent vite être vidées de leurs sens si elles ne sont qu’une chaîne d’enregistrement de prestataires, sans informations sur leurs pratiques. Et ni l’une ni l’autre ne résolvent les problèmes liés à la transformation de produits. Pour Bonanni, elles ne résolvent pas non plus le manque de visibilité : quand tout le monde est incité à agir toujours plus rapidement et efficacement, il est difficile d’imaginer qui sera chargé de fournir plus d’informations que nécessaire. Si ces technologies pourraient certes fournir des informations détaillées sur les conditions de travail et le respect des normes de sécurité, il reste difficile de croire que l’internet des objets et la blockchain, qui sont surtout des objets techniques visant à accroître l’efficacité, le contrôle, la rapidité et la sécurité des informations puissent devenir demain des moyens pour s’assurer de chaînes d’approvisionnement socialement responsables.
Dans le domaine de la gestion des chaînes d’approvisionnement, l’autre technologie source d’innovation, c’est bien sûr l’apprentissage automatique, via des algorithmes capables de faire de meilleures prévisions et de prendre des décisions. Appliqué à la chaîne logistique, le machine learning pourrait aider à déterminer les fournisseurs et les itinéraires qui livreront les marchandises de la manière la plus rapide et la plus fiable. Les algorithmes pourraient prédire les performances des fournisseurs et des transporteurs, en leur attribuant des scores de risques selon l’historique de leurs résultats. Et demain, les réseaux d’approvisionnement pourraient se reconfigurer automatiquement, de manière dynamique, selon cette évaluation de risques… Pas sûr que cette piste améliore la cécité collective des outils, pointe Posner. Pas sûr non plus qu’elle soit si accessible quand déjà les données utilisées ne savent pas grand-chose de la qualité des fournisseurs.
En fait, ces technologies nous montrent que les spécialistes de la gestion de la chaîne logistique ne parlent pas de la même transparence ou de la même visibilité que le consommateur final. La transparence de la chaîne logistique ne vise pas à aider à comprendre d’où vient un produit, mais vise à améliorer son efficacité : diminuer le coût tout en maximisant la rapidité.
Quel levier pour transformer l’approvisionnement ?Les défis politiques pour transformer ces constats sont immenses, conclut Miriam Posner. En l’absence de véritables efforts pour créer un contrôle démocratique des chaînes d’approvisionnement, nous en sommes venus à les considérer comme fonctionnant de manière autonome – davantage comme des forces naturelles que des forces que nous avons créées nous-mêmes.
En 2014, le Guardian a signalé que des migrants birmans travaillaient dans des conditions qui tenaient de l’esclavagisme à bord de crevettiers au large des côtes thaïlandaises. Pour un importateur de crevettes, l’esclavagisme semblait un symptôme plus qu’une cause des modalités d’approvisionnement elles-mêmes. Et effectivement, il est possible d’avoir une chaîne d’approvisionnement parfaitement efficace, mais également parfaitement ignorante des conditions de travail qu’elle implique.
Reste que nous avons construit les réseaux décentralisés tels qu’ils opèrent, rappelle la chercheuse. L’anthropologue Anna Tsing dans ses travaux sur la chaîne d’approvisionnement souligne que Walmart par exemple exige un contrôle parfait sur certains aspects de sa chaîne d’approvisionnement : notamment sur les prix et les délais de livraison, et ce au détriment d’autres aspects comme les pratiques de travail. L’absence d’information sur certains aspects de la chaîne d’approvisionnement est profondément liée à un système conçu pour s’adapter à la variété de produits que nous produisons et à la rapidité avec lesquelles nous les produisons. Et cette absence d’information est intégrée dans les logiciels mêmes qui produisent la mondialisation. Exiger une chaîne logistique plus transparente et plus juste nécessite d’intégrer des informations que peu d’entreprises souhaitent utiliser, notamment parce que par nature, elles remettent en question les paradigmes de l’efficacité et de la scalabilité qui les font fonctionner.
Hubert Guillaud
Cet article a été publié originellement sur InternetActu.net, le 17 mars 2019.
-
7:00
De la matérialisation des données
sur Dans les algorithmesEn 2017, Paul Dourish publiait « The Stuff of Bits », un livre qui s’intéressait à notre rapport aux tableurs et aux impacts matériels de l’information numérique sur la réalité. Une manière de saisir et comprendre comment le monde réel est piloté par les outils numériques dans les organisations. Relecture.
La couverture du livre Stuff of bits.
Paul Dourish (Wikipedia) a signé au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une manière un peu cavalière par « La substance de l’information »), un livre qui s’intéresse aux impacts matériels de l’information numérique. Comment la simulation numérique, nos outils de modélisation et nos outils de travail façonnent-ils à rebours notre expérience ? Pour le professeur d’informatique et anthropologue, les arrangements matériels de l’information, c’est-à-dire la manière dont elle est représentée, dont elle est façonnée, dont on peut l’utiliser, ont une importance significative dans notre rapport à l’information. Comme le soulignait le philosophe Donald Schön, le design reflète notre conversation avec les matériaux. Dourish regarde comment le numérique impacte désormais nos modalités d’usage. Pour lui, « les matérialités de l’information reposent sur des propriétés et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces représentations peuvent être créées, transmises, stockées, manipulées et mises à profit ». A la suite par exemple de Lev Manovich, il souligne combien la base de données est devenue la forme culturelle majeure du XXIe siècle (après le roman au XIXe et le film au XXe siècle).
Dourish prend de nombreux exemples pour explorer son idée. Il développe longuement les différentes façons de représenter une même image au format numérique, en observant les multiples manières de la coder : une image peut-être effectivement une image, mais également peut-être produite par un programme ou une itération. Reste que, même dans le programme, des choses échappent à la représentation, comme ce peut-être le cas par exemple de la vitesse d’exécution d’un programme pour représenter cette image ou de la taille de la mémoire de l’ordinateur utilisé. Un programme est une série d’instructions, mais l’expérience qui résulte de son exécution, elle, n’est pas spécifiée par le programme. Or, bien sûr, la manipulation de cette image sera très différente selon la manière dont elle est codée. C’est bien à cette relation entre les formes et les possibilités que permettent les matériaux numériques que s’intéresse Dourish. Comment leurs affordances, c’est-à-dire leurs propriétés relationnelles, façonnent-elles nos pratiques ?
Du rôle du tableur dans les organisationsDans son livre Dourish évoque longuement un exemple significatif qui permet de mieux saisir là où il souhaite nous emmener, ce qu’il estime qu’il nous faut désormais regarder avec attention. Il revient longuement sur ce qu’il appelle les « spreadsheet events » des réunions organisées autour de la projection de tableurs, comme elles se pratiquent dans de plus en plus d’entreprises – avec les « powerpoint events », plus anciens et plus documentés, qui sont des rencontres organisées autour de la présentation de documents projetés qui forment l’essentiel des réunions ou des conférences professionnelles – voir notamment « Les transformations de l’écosystème de l’information dans le monde du travail » ou « PowerPoint, voilà l’ennemi ! »).
Image : Exemple d’un « spreadsheet event » tiré d’un blog local américain – qui montre qu’il n’est pas si simple de trouver des images de ce type de pratiques pourtant courantes.
Les réunions spreadsheet ne sont pas vraiment des réunions Tupperware : ce sont des réunions de travail autour d’un écran qui projette un tableur dont l’accès est parfois partagé. Souvent utilisé pour travailler de manière collaborative autour d’un budget (avec toutes les limites que cela peut avoir, comme le faisait remarquer récemment Bjarte Bogsnes), le tableur est utilisé pour une multitude de raisons. C’est à la fois un artefact de coordination et d’archivage des décisions prises lors de l’événement. Dourish rappelle d’ailleurs l’importance de l’enchevêtrement des organisations et de leurs systèmes d’information : combien les « workflows » encodent les procédures, les processus et les règles d’organisation. Cet exemple permet à Dourish de poser des questions sur comment nos outils façonnent nos usages. « Comment la matérialité d’un spreadsheet – à la fois outils interactifs et systèmes de représentation – modèle, contraint et habilite la façon dont on travaille ? Comment projetons-nous notre travail dans la forme des tableurs ou comment avons-nous (ou pas) la main sur un ensemble de règles, de limites, de possibilité ou d’opportunités ? » Bref, comment les gens bricolent et s’approprient ces contraintes logicielles en pratique ?
Dourish souligne d’ailleurs la complexité d’action que permettent ces tableurs qui sont à la fois des grilles de cellules qui permettent des formes de regroupement et qui permettent d’activer certains contenus : c’est-à-dire que certains contenus ne sont pas fixés, mais calculés selon des formules via des données pouvant provenir d’autres cellules ou d’autres tableurs ou bases de données. C’est en cela que, malgré leur sécheresse apparente (des listes de chiffres le plus souvent), ces outils se révèlent commodes pour rendre visibles de la complexité comme du détail. Si la plupart de ces tableurs ne sont pas hautement dynamiques (assez souvent, la plupart des données ne sont pas calculées), ils permettent, alors qu’ils ne sont pas conçus pour cela, de générer de la planification d’activité ou de la priorisation d’activité, tout en facilitant le partage et d’information et de données.
Dourish insiste également sur les limites de ces outils (par exemple, la difficulté à manipuler des blocs non contigus) ou leur potentiel (la possibilité d’ajouter des données et de faire grandir le tableur). Bien souvent, souligne-t-il, le tableur sert de guide à la réunion : il révèle l’organisation elle-même, les participants discutant des données cellule après cellule, colonne après colonne… Le tableau spécifie ce qui est à l’ordre du jour et écarte tout ce qui n’apparaît pas sur le tableur. La distinction entre les données joue souvent comme une séparation des responsabilités – ce qui pose d’ailleurs des questions sur les responsabilités qui relèvent de ce qui n’est pas sur le tableur ou de ce qui est à l’intersection des données ou de leur calcul.
Dourish souligne aussi qu’il faut distinguer différents types d’objets dans les tableurs : on ne sait pas facilement par exemple si une donnée est une donnée directe – inscrite – ou dérivée, c’est-à-dire calculée – c’est-à-dire si un chiffre est un nombre ou le résultat d’une formule. Si le rôle du tableur semble de faire ressembler les données à un document papier où toutes les valeurs auraient le même statut, il faut saisir que ce n’est pas le cas, puisque ces données sont éditables et calculables, recomposables… Il souligne par là comment les usages que nous inventons depuis ces objets manquent de conception : un tableur n’a pas été conçu pour être le pilote de réunions. Si le côté dynamique de ces objets explique en grande partie leur utilisation, ce dynamisme par exemple créé des lacunes de fonctionnalités, comme le fait de ne pas pouvoir faire de recherche sur une donnée résultant d’un calcul dans un très grand tableau.
Enfin, il montre également que cet enregistrement d’activité est également un enregistrement d’accord : l’important devient ce qui est noté dans le tableau et non pas la discussion ou le calcul qui conduit à inscrire cette information. Pire, souligne-t-il, l’utilisation de tableurs comme outils de pilotage ou de budgétisation s’impose par reproduction. « Les documents deviennent des enregistrements ; les enregistrements deviennent des modèles : les modèles deviennent des routines ; les routines deviennent des processus. » Ces outils encodent et fixent des relations à la fois dans le tableur lui-même (cette cellule doit toujours être la moyenne des chiffres de cette colonne) comme entre les entités que ces chiffres recouvrent (ce budget et ce que ça implique doit toujours être le résultat de tel autre…).
Le développement de l’usage de ces outils, malgré leurs lacunes de conception, provient certainement du fait que ce sont des outils performatifs, qui permettent via le calcul, les formules et les liens entre les données d’être toujours à jour et de réaliser ce qu’ils énoncent. « L’usage de formules est une façon de montrer que le tableur continuera à faire son travail, même si son contenu change : c’est un moyen de produire de la stabilité dans une forme qui ne l’est pas. » Ces réunions qui consistent à éditer et mettre à jour ces tableurs soulignent que ce qui se joue ne tient pas seulement de la communication comme peuvent l’être les réunions powerpoint, mais bien de la délibération et que le document qui fixe la réunion n’est pas seulement produit, mais transformé par la réunion elle-même. Si les tableurs détrônent l’édition collaborative de documents textuels, selon Dourish, c’est parce qu’ils permettent de mieux rendre compte de la complexité des données et des interactions entre elles. S’ils détrônent le tableau blanc, c’est parce que les tableurs ont une vie avant et après la réunion, d’une certaine manière qu’ils doivent être vivants, dynamiques… Enfin, note encore Dourish, contrairement à ce qu’on pourrait penser, la plupart de ces séances utilisent un tableur non connecté à l’internet. Alors qu’un document partagé en ligne permet de maintenir des versions synchrones, les documents offline permettent d’avoir un point de contrôle qu’une seule personne ajuste selon les discussions.
Des conséquences de la matérialité du numérique sur nos usagesCet exemple illustre assez bien l’ambition de Dourish. « Explorer comment le calcul devient un objet avec lequel les gens doivent lutter »… Comment le calcul façonne la forme des objets numériques, contraint nos interactions humaines elles-mêmes et créent de nouvelles structures d’interaction qui ne sont pas seulement numérique ou qui rétroagissent au-delà de leur caractère numérique ? L’exemple des tableurs et des bases de données pour la coordination de groupe montre comment les organisations passent d’une forme linéaire, narrative, à des formes profondément relationnelles. « La base de données est à la fois une forme de représentation et une forme effective ».
Force est pourtant de constater que hormis cet exemple – passionnant – Dourish ne parvient pas vraiment à cerner les enjeux de la matérialité de l’information. Les autres objets sur lesquels il pose son regard d’anthropologue ne sont pas aussi parlant et parfois trop techniques pour être facilement compréhensibles.
Reste que l’analyse qu’il livre sur comment les bases de données façonnent désormais le monde matériel – et inversement – pointe bien sûr leurs limites : « Si les organisations ne peuvent agir que sur les données dont elles disposent, alors les limites de leurs bases de données deviennent leurs contraintes d’action sur le monde. » Or, dans ce qui est projeté lors de ce type de réunion, les bases de données et les données demeurent bien souvent l’objet caché… La matérialité du numérique a donc des conséquences sur la façon même dont on communique, on partage et se connecte.
Comme il le souligne en conclusion, « les bits ne sont pas que bits. Certains comptent plus que d’autres. Certains arrangements de bits sont plus facilement manipulables que d’autres…(…) tout comme les systèmes numériques indo-arabes et romains, différentes représentations impliquent différentes conséquences pour les sortes de choses que l’on peut faire avec. » La rhétorique du « virtuel » suggère que le numérique serait indépendant des configurations et contraintes matérielles qui pèsent sur lui. Or, si le numérique dépend de grandes infrastructures matérielles, le numérique impose en retour des contraintes matérielles à ceux qui les utilisent. Les objets numériques ont des particularités propres et les systèmes de représentation qu’ils déterminent ont des manifestations directement matérielles. Et Dourish d’en appeler à mieux comprendre à la fois les pratiques culturelles et leurs manifestations techniques. Certes, il n’est pas le premier à le dire, à signaler les limites des intentions dans la production des systèmes numériques et leurs détournements ou leurs bricolages. Pour lui, il est nécessaire de prendre au sérieux la matérialité du numérique. Cette matérialité explique-t-il encore relève le plus souvent d’une « traduction », du passage d’une représentation à une autre. Bien souvent, on néglige l’aspect matériel de ces transformations, alors qu’elles sont éminemment importantes, comme le soulignait déjà Frédéric Kaplan en s’intéressant au fonctionnement du traducteur de Google, qui passe toujours par une traduction par l’anglais pour traduire d’une langue à une autre. Il invite d’ailleurs à parler plutôt de transduction pour parler de ce type de conversions, comme c’est le cas de notre voix transformée en signal électrique par l’usage du téléphone et réassemblé en sons à la fin, produisant une nouvelle production qui n’est pas qu’une simple copie. Le calcul n’est pas indépendant de ses manifestations matérielles insiste Dourish (« l’informatique ne concerne pas plus l’ordinateur désormais que l’astronomie ne concerne les télescopes« , disait le mathématicien Edsger Dijkstra), qui invite à refonder la science informatique en s’inspirant du Manifeste pour la pensée computationnelle (.pdf) de Jeanette Wing qui invitait déjà à changer de mode de pensée. Une conclusion hélas un peu convenue.
On aurait aimé que Dourish, plutôt que de se perdre parfois dans la dissection de la matérialité du réseau, évoque les succédanés de ces tableurs par exemple, comment les tableaux de bord de pilotage, comme les tableaux de bord urbains, les systèmes de visualisation de données, prolongent les effets qu’il pointe avec les « spreadsheets events ». On aurait aimé qu’il souligne d’autres exemples de simulations numériques, de virtualisation de la réalité (à l’image des bombes nucléaires américaines qui continuent d’évoluer alors qu’aucune n’est testée en situation réelle, mais uniquement par simulation numérique ce qui implique que leurs limites reposent désormais plus sur les capacités de calcul que sur leur niveau de radioactivité) en s’intéressant par exemple plus avant aux contraintes qu’imposent les formes de modélisation à la réalité. La conception d’armes nucléaires est devenue une science informatique, rappelle-t-il. Et c’est le cas de nombre de domaines des sciences de l’ingénieur. La réalité est façonnée par la modélisation que nous faisons du monde. D’où la nécessité de s’y intéresser toujours plus avant. De regarder toujours avec acuité l’enchevêtrement toujours plus complexe du numérique au reste du monde et sa matérialisation.
Hubert Guillaud
Cet article a été publié originellement sur InternetActu.net le 5 septembre 2017.
-
7:00
Internet : une si longue dépossession
sur Dans les algorithmesEn 2022, Ben Tarnoff fait paraître Internet for the people, the fight for the future, un livre essentiel pour comprendre les conséquences de la privatisation d’internet. Retour de lecture.
Ben Tarnoff est un chercheur et un penseur important des réseaux. Éditeur de l’excellent Logic Mag, il est également l’un des membres de la Collective action in tech, un réseau pour documenter et faire avancer les mobilisations des travailleurs de la tech.
Il a publié notamment un manifeste, The Making of tech worker movement – dont avait rendu compte Irénée Régnauld dans Mais où va le web ? -, ainsi que Voices from the Valley, un recueil de témoignages des travailleurs de la tech. Critique engagé, ces dernières années, Tarnoff a notamment proposé, dans une remarquable tribune pour Jacobin, d’abolir les outils numériques pour le contrôle social (« Certains services numériques ne doivent pas être rendus moins commodes ou plus démocratiques, mais tout simplement abolis »), ou encore, pour The Guardian, de dé-informatiser pour décarboner le monde (en invitant à réfléchir aux activités numériques que nous devrions suspendre, arrêter, supprimer). Il publie ce jour son premier essai, Internet for the people, the fight of your digital future (Verso, 2022, non traduit).
Internet for the People n’est pas une contre-histoire de l’internet, ni une histoire populaire du réseau (qui donnerait la voix à ceux qui ne font pas l’histoire, comme l’avait fait l’historien Howard Zinn), c’est avant tout l’histoire de notre déprise, de comment nous avons été dépossédé d’internet, et comment nous pourrions peut-être reconquérir le réseau des réseaux. C’est un livre souvent amer, mais assurément politique, qui tente de trouver les voies à des alternatives pour nous extraire de l’industrialisation du net. Sa force, assurément, est de très bien décrire comment l’industrialisation s’est structurée à toutes les couches du réseau. Car si nous avons été dépossédés, c’est bien parce qu’internet a été privatisé par devers nous, si ce n’est contre nous.
« Les réseaux ont toujours été essentiels à l’expansion capitaliste et à la globalisation. Ils participent à la création des marchés, à l’extraction des ressources, à la division et à la distribution du travail. » Pensez au rôle du télégraphe dans l’expansion coloniale par exemple, comme aux câbles sous-marins qui empruntent les routes maritimes des colons comme des esclaves – tout comme les données et processus de reporting standardisés ont été utilisés pour asseoir le commerce triangulaire et pour distancier dans et par les chiffres la réalité des violences commises par l’esclavage, comme l’explique l’historienne Caitlin Rosenthal dans son livre Accounting for Slavery : Masters & Management.
« La connectivité n’est jamais neutre. La croissance des réseaux a toujours été guidée par le désir de puissance et de profit. Ils n’ont pas été conduits pour seulement convoyer de l’information, mais comme des mécanismes pour forger des relations de contrôle. » La défiance envers le monde numérique et ses effets n’a cessé de monter ces dernières années, dénonçant la censure, la désinformation, la surveillance, les discriminations comme les inégalités qu’il génère. Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. Pour Tarnoff, la racine du problème est pourtant simple : « l’internet est brisé parce que l’internet est un business ». Même « un internet appartenant à des entreprises plus petites, plus entrepreneuriales, plus régulées, restera un internet qui marche sur le profit », c’est-à-dire « un internet où les gens ne peuvent participer aux décisions qui les affectent ». L’internet pour les gens sans les gens est depuis trop longtemps le mode de fonctionnement de l’industrie du numérique, sans que rien d’autre qu’une contestation encore trop timorée ne vienne le remettre en cause.
Ben Tarnoff et la couverture de son livre, Internet for the People. Privatisation partout, justice nulle part
L’internet n’a pas toujours eu la forme qu’on lui connaît, rappelle Tarnoff. Né d’une manière expérimentale dans les années 70, c’est à partir des années 90 que le processus de privatisation s’enclenche. Cette privatisation « n’est pas seulement un transfert de propriété du public au privé, mais un mouvement plus complexe où les entreprises ont programmé le moteur du profit à chaque niveau du réseau », que ce soit au niveau matériel, logiciel, législatif ou entrepreneurial… « Certaines choses sont trop petites pour être observées sans un microscope, d’autres trop grosses pour être observées sans métaphores ». Pour Tarnoff, nous devons regarder l’internet comme un empilement (stack, qui est aussi le titre du livre de Benjamin Bratton qui décompose et cartographie les différents régimes de souveraineté d’internet, qui se superposent et s’imbriquent les uns dans les autres), un agencement de tuyaux et de couches technologiques qui le compose, qui va des câbles sous-marins aux sites et applications d’où nous faisons l’expérience d’internet. Avec le déploiement d’internet, la privatisation est remontée des profondeurs de la pile jusqu’à sa surface. « La motivation au profit n’a pas seulement organisé la plomberie profonde du réseau, mais également chaque aspect de nos vies en ligne ».
En cela, Internet for the people se veut un manifeste, dans le sens où il rend cette histoire de la privatisation manifeste. Ainsi, le techlash ne signifie rien si on ne le relie pas à l’héritage de cette dépossession. Les inégalités d’accès comme la propagande d’extrême droite qui fleurit sur les médias sociaux sont également les conséquences de ces privatisations. « Pour construire un meilleur internet (ou le réparer), nous devons changer la façon dont il est détenu et organisé. Pas par un regard consistant à améliorer les marchés, mais en cherchant à les rendre moins dominants. Non pas pour créer des marchés ou des versions de la privatisation plus compétitifs ou réglementés, mais pour les renverser ».
« La “déprivatisation” vise à créer un internet où les gens comptent plus que les profits ». Nous devons prendre le contrôle collectif des espaces en ligne, où nos vies prennent désormais place. Pour y parvenir, nous devons développer et encourager de nouveaux modèles de propriété qui favorisent la gouvernance collective et la participation, nous devons créer des structures qui favorisent ce type d’expérimentations. Or, « les contours précis d’un internet démocratique ne peuvent être découverts que par des processus démocratiques, via des gens qui s’assemblent pour construire le monde qu’ils souhaitent ». C’est à en créer les conditions que nous devons œuvrer, conclut Tarnoff dans son introduction.
Coincés dans les tuyauxDans la première partie de son livre, Tarnoff s’intéresse d’abord aux tuyaux en nous ramenant aux débuts du réseau. L’internet n’est alors qu’un langage, qu’un ensemble de règles permettant aux ordinateurs de communiquer. À la fin des années 70, il est alors isolé des forces du marché par les autorités qui financent un travail scientifique de long terme. Il implique des centaines d’individus qui collaborent entre eux à bâtir ces méthodes de communication. C’est l’époque d’Arpanet où le réseau bénéficie de l’argent de la Darpa (l’agence de la Défense américaine chargée du développement des nouvelles technologies) et également d’une éthique open source qui va encourager la collaboration et l’expérimentation, tout comme la créativité scientifique. « C’est l’absence de motivation par le profit et la présence d’une gestion publique qui rend l’invention d’internet possible ».
C’est seulement dans les années 90 que les choses changent. Le gouvernement américain va alors céder les tuyaux à des entreprises, sans rien exiger en retour. Le temps de l’internet des chercheurs est fini. Or, explique Tarnoff, la privatisation n’est pas venue de nulle part, elle a été planifiée. En cause, le succès de l’internet de la recherche. NSFNet, le réseau de la Fondation nationale pour la science qui a succédé à Arpanet en 1985, en excluant les activités commerciales, a fait naître en parallèle les premiers réseaux privés. Avec l’invention du web, qui rend l’internet plus convivial (le premier site web date de 1990, le navigateur Mosaic de 1993), les entreprises parviennent à proposer les premiers accès commerciaux à NSFNet en 1991. En fait, le réseau national des fondations scientifiques n’a pas tant ouvert l’internet à la compétition : il a surtout transféré l’accès à des opérateurs privés, sans leur imposer de conditions et ce, très rapidement.
En 1995, la privatisation des tuyaux est achevée. Pour tout le monde, à l’époque, c’était la bonne chose à faire, si ce n’est la seule. Il faut dire que les années 90 étaient les années d’un marché libre triomphant. La mainmise sur l’internet n’est finalement qu’une mise en application de ces idées, dans un moment où la contestation n’était pas très vive, notamment parce que les utilisateurs n’étaient encore pas très nombreux pour défendre un autre internet. D’autres solutions auraient pu être possibles, estime Tarnoff. Mais plutôt que de les explorer, nous avons laissé l’industrie dicter unilatéralement ses conditions. Pour elle, la privatisation était la condition à la popularisation d’internet. C’était un faux choix, mais le seul qui nous a été présenté, estime Tarnoff. L’industrie a récupéré une technologie patiemment développée par la recherche publique. La dérégulation des télécoms concomitante n’a fait qu’accélérer les choses. Pour Tarnoff, nous avons raté les alternatives. Les profits les ont en tout cas fermé. Et le «pillage » a continué. L’épine dorsale d’internet est toujours la propriété de quelques entreprises qui pour beaucoup sont alors aussi devenues fournisseurs d’accès. La concentration de pouvoir prévaut à tous les niveaux, à l’image des principales entreprises qui organisent et possèdent l’information qui passent dans les réseaux. Google, Netflix, Facebook, Microsoft, Apple et Amazon comptent pour la moitié du trafic internet. La privatisation nous a promis un meilleur service, un accès plus large, un meilleur internet. Pourtant, le constat est inverse. Les Américains payent un accès internet parmi les plus chers du monde et le moins bon. Quant à ceux qui sont trop pauvres ou trop éloignés du réseau, ils continuent à en être exclus. En 2018, la moitié des Américains n’avaient pas accès à un internet à haut débit. Et cette déconnexion est encore plus forte si en plus d’habiter loin des villes vous avez peu de revenus. Aux États-Unis, l’accès au réseau demeure un luxe.
Mais l’internet privé n’est pas seulement inéquitable, il est surtout non-démocratique. Les utilisateurs n’ont pas participé et ne participent toujours pas aux choix de déploiements techniques que font les entreprises pour eux, comme nous l’ont montré, très récemment, les faux débats sur la 5G. « Les marchés ne vous donnent pas ce dont vous avez besoin, ils vous donnent ce que vous pouvez vous offrir ». « Le profit reste le principe qui détermine comment la connectivité est distribuée ».
Pourtant, insiste Tarnoff, des alternatives existent aux monopoles des fournisseurs d’accès. En 1935, à Chattanooga, dans le Tennessee, la ville a décidé d’être propriétaire de son système de distribution d’électricité, l’Electric Power Board. En 2010, elle a lancé une offre d’accès à haut débit, The Gig, qui est la plus rapide et la moins chère des États-Unis, et qui propose un accès même à ceux qui n’en ont pas les moyens. C’est le réseau haut débit municipal le plus célèbre des États-Unis. Ce n’est pas le seul. Quelque 900 coopératives à travers les États-Unis proposent des accès au réseau. Non seulement elles proposent de meilleurs services à petits prix, mais surtout, elles sont participatives, contrôlées par leurs membres qui en sont aussi les utilisateurs. Toutes privilégient le bien social plutôt que le profit. Elles n’ont pas pour but d’enrichir les opérateurs. À Detroit, ville particulièrement pauvre et majoritairement noire, la connexion a longtemps été désastreuse. Depuis 2016, le Detroit Community Technology Project (DCTP) a lancé un réseau sans fil pour bénéficier aux plus démunis. Non seulement la communauté possède l’infrastructure, mais elle participe également à sa maintenance et à son évolution. DCTP investit des habitants en « digital stewards » chargés de maintenir le réseau, d’éduquer à son usage, mais également de favoriser la connectivité des gens entre eux, assumant par là une fonction politique à la manière de Community organizers.
Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience. Or, ces expériences de réseaux locaux municipaux défient la fable de la privatisation. Elles nous montrent qu’un autre internet est possible, mais surtout que l’expérience même d’internet n’a pas à être nécessairement privée. La privatisation ne décrit pas seulement un processus économique ou politique, mais également un processus social qui nécessite des consommateurs passifs et isolés les uns des autres. À Detroit comme à Chattanooga, les utilisateurs sont aussi des participants actifs à la croissance, à la maintenance, à la gouvernance de l’infrastructure. Tarnoff rappelle néanmoins que ces réseaux municipaux ont été particulièrement combattus par les industries du numériques et les fournisseurs d’accès. Mais contrairement à ce que nous racontent les grands opérateurs de réseaux, il y a des alternatives. Le problème est qu’elles ne sont pas suffisamment défendues, étendues, approfondies… Pour autant, ces alternatives ne sont pas magiques. « La décentralisation ne signifie pas automatiquement démocratisation : elle peut servir aussi à concentrer le pouvoir plus qu’à le distribuer ». Internet reste un réseau de réseau et les nœuds d’interconnections sont les points difficiles d’une telle topographie. Pour assurer l’interconnexion, il est nécessaire également de « déprivatiser » l’épine dorsale des interconnexions de réseaux, qui devrait être gérée par une agence fédérale ou une fédération de coopératives. Cela peut sembler encore utopique, mais si l’internet n’est déprivatisé qu’à un endroit, cela ne suffira pas, car cela risque de créer des zones isolées, marginales et surtout qui peuvent être facilement renversées – ce qui n’est pas sans rappeler le délitement des initiatives de réseau internet sans fil communautaire, comme Paris sans fil, mangés par la concurrence privée et la commodité de service qu’elle proposent que nous évoquions à la fin de cet article.
Dans les années 90, quand la privatisation s’est installée, nous avons manqué de propositions, d’un mouvement en défense d’un internet démocratique, estime Tarnoff. Nous aurions pu avoir, « une voie publique sur les autoroutes de l’information ». Cela n’a pas été le cas.
Désormais, pour déprivatiser les tuyaux (si je ne me trompe pas, Tarnoff n’utilise jamais le terme de nationalisation, un concept peut-être trop loin pour le contexte américain), il faut résoudre plusieurs problèmes. L’argent, toujours. Les cartels du haut débit reçoivent de fortes injections d’argent public notamment pour étendre l’accès, mais sans rien vraiment produire pour y remédier. Nous donnons donc de l’argent à des entreprises qui sont responsables de la crise de la connectivité pour la résoudre ! Pour Tarnoff, nous devrions surtout rediriger les aides publiques vers des réseaux alternatifs, améliorer les standards d’accès, de vitesse, de fiabilité. Nous devrions également nous assurer que les réseaux publics locaux fassent du respect de la vie privée une priorité, comme l’a fait à son époque la poste, en refusant d’ouvrir les courriers ! Mais, si les lois et les régulations sont utiles, « le meilleur moyen de garantir que les institutions publiques servent les gens, est de favoriser la présence de ces gens à l’intérieur de ces institutions ». Nous devons aller vers des structures de gouvernances inclusives et expansives, comme le défendent Andrew Cumbers et Thomas Hanna dans « Constructing the Democratic Public Entreprise »(.pdf) (à prolonger par le rapport Democratic Digital Infrastructure qu’a publié Democracy Collaborative, le laboratoire de recherche et développement sur la démocratisation de l’économie).
Coincés dans les plateformesLes années 90 sont les années du web. En 1995, l’internet ne ressemble plus tout à fait à un réseau de recherche. Avec 45 millions d’utilisateurs et 23 500 sites web, l’internet commence à se transformer. Chez Microsoft, Bill Gates annonce qu’internet sera leur priorité numéro un. Jeff Bezos lance Amazon. Pierre Omidyar AuctionWeb, qui deviendra eBay. C’est le début des grandes entreprises de l’internet, de celles qui deviendront des « plateformes », un terme qui mystifie plus qu’il n’éclaircit, qui permet de projeter sur la souveraineté qu’elles conquièrent une aura d’ouverture et de neutralité, quand elles ne font qu’ordonner et régir nos espaces digitaux. Si la privatisation d’internet a commencé par les fondements, les tuyaux, au mitan des années 90, cette phase est terminée. « La prochaine étape consistera à maximiser les profits dans les étages supérieurs, dans la couche applicative, là où les utilisateurs utilisent l’internet ». C’est le début de la bulle internet jusqu’à son implosion.
eBay a survécu au crash des années 2000 parce qu’elle était l’une des rares exceptions aux startups d’alors. eBay avait un business model et est devenu très rapidement profitable. eBay a aussi ouvert un modèle : l’entreprise n’a pas seulement offert un espace à l’activité de ses utilisateurs, son espace a été constitué par eux, en les impliquant dans son développement, selon les principes de ce qu’on appellera ensuite le web 2.0. La valeur technique de l’internet a toujours été ailleurs. Sociale plus que technique, estime Tarnoff (pour ma part, je pense que ce n’est pas si clair, l’industrialisation inédite qui s’est construite avec le numérique, n’est pas uniquement sociale, elle me semble surtout économique et politique).
En 1971, quand Ray Tomlinson invente le mail, celui-ci devient très rapidement très populaire et représente très vite l’essentiel du trafic du premier réseau. L’e-mail a humanisé le réseau. Les échanges avec les autres sont rapidement devenu l’attraction principale. Avec eBay, Omidyar va réussir à refondre sa communauté en marché. Le succès des plateformes du web 2.0 va consister à «fusionner les relations sociales aux relations de marché », par trois leviers : la position d’intermédiaire (entre acheteurs et vendeurs), la souveraineté (la plateforme façonne les interactions, écrits les règles, fonctionne comme un législateur et un architecte) et bien sûr les effets réseaux (plus les gens utilisent, plus l’espace prend de la valeur). La couche applicative de l’internet va ainsi se transformer en vastes centres commerciaux : des environnements clos, qui vont tirer leurs revenus à la fois de la rente que procurent ces espaces pour ceux qui veulent en bénéficier et de la revente de données le plus souvent sous forme publicitaire (mais pas seulement). La collecte et l’analyse de données vont d’ailleurs très vite devenir la fonction primaire de ces « centres commerciaux en ligne ». « La donnée a propulsé la réorganisation de l’internet », à l’image de Google qui l’a utilisé pour améliorer son moteur, puis pour vendre de la publicité, lui permettant de devenir, dès 2002, profitable. C’est la logique même du Capitalisme de surveillance de Shoshana Zuboff. Une logique qui préexistait aux entreprises de l’internet, comme le raconte le pionnier des études sur la surveillance, Oscar H. Gandy, dans ses études sur les médias de masse, les banques ou les compagnies d’assurances, mais qui va, avec la circulation des données, élargir la surface de sa surveillance.
Malgré toutes ses faiblesses (vous atteignez surtout les catégories produites par les systèmes que la réalité des gens, c’est-à-dire la manière dont le système caractérise les usagers, même si ces caractères se révèlent souvent faux parce que calculés), la surveillance des utilisateurs pour leur livrer de la publicité ciblée va construire les principaux empires des Gafams que nous connaissons encore aujourd’hui. Si la publicité joue un rôle essentiel dans la privatisation, les «Empires élastiques » des Gafams, comme les appels Tarnoff, ne vont pas seulement utiliser l’analyse de données pour vendre des biens et de la publicité, ils vont aussi l’utiliser pour créer des places de marché pour les moyens de production, c’est-à-dire produire du logiciel pour l’internet commercial.
« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie », rappelle Tarnoff avec les accents de Pièces et Main d’œuvre. Avec les applications, les pages internet sont devenues plus dynamiques et complexes, « conçues pour saisir l’attention des utilisateurs, stimuler leur engagement, liées pour élaborer des systèmes souterrains de collecte et d’analyse des données ». « Les centres commerciaux en ligne sont devenus les lieux d’un calcul intensif. Comme le capitalisme a transformé l’atelier en usine, la transformation capitaliste d’internet a produit ses propres usines », qu’on désigne sous le terme de cloud, pour mieux obscurcir leur caractère profondément industriel. Ces ordinateurs utilisés par d’autres ordinateurs, rappellent l’enjeu des origines du réseau : étendre le calcul et les capacités de calcul. Tarnoff raconte ainsi la naissance, dès 2004, de l’Elastic Compute Cloud (EC2) d’Amazon par Chris Pinkham et Christopher Brown, partis en Afrique du Sud pour rationaliser les entrailles numériques de la machine Amazon qui commençait à souffrir des limites de l’accumulation de ses couches logicielles. EC2 lancé en 2006 (devenu depuis Amazon Web Services, AWS, l’offre d’informatique en nuage), va permettre de vendre des capacités informatiques et d’analyse mesurées et adaptables. Le cloud d’Amazon va permettre d’apporter un ensemble d’outils à l’industrialisation numérique, de pousser plus loin encore la privatisation. Le Big Data puis les avancées de l’apprentissage automatisé (l’intelligence artificielle) dans les années 2010 vont continuer ces accélérations industrielles. La collecte et le traitement des données vont devenir partout un impératif.
Dans le même temps, les utilisateurs ont conquis un internet devenu mobile. L’ordinateur devenant smartphone n’est plus seulement la machine à tout faire, c’est la machine qui est désormais partout, s’intégrant non seulement en ligne, mais jusqu’à nos espaces physiques, déployant un contrôle logiciel jusque dans nos vies réelles, à l’image d’Uber et de son management algorithmique. L’industrialisation numérique s’est ainsi étendue jusqu’à la coordination des forces de travail, dont la profitabilité a été accrue par la libéralisation du marché du travail. La contractualisation des travailleurs n’a été qu’une brèche supplémentaire dans la gestion algorithmique introduite par le déploiement sans fin de l’industrie numérique, permettant désormais de gérer les tensions sur les marchés du travail, localement comme globalement. La force de travail est elle-même gérée en nuage, à la demande. Nous voilà dans le Human Cloud que décrit Gavin Mueller dans Breaking things at Work ou David Weil dans The Fissured Workplace.
Coincés dans les profits !Les biens réelles abstractions de ces empires élastiques ont enfin été rendues possibles par la financiarisation sans précédent de cette nouvelle industrie. Tout l’enjeu de la privatisation d’internet, à tous les niveaux de la pile, demeure le profit, répète Tarnoff. La financiarisation de l’économie depuis les années 70 a elle aussi profité de cette industrialisation numérique… Reste que la maximisation des profits des empires élastiques semble ne plus suffire. Désormais, les entreprises de la tech sont devenues des véhicules pour la pure spéculation. La tech est l’un des rares centres de profit qui demeure dans des économies largement en berne. La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau. De Comcast (fournisseur d’accès), à Facebook jusqu’à Uber, l’objectif est resté de faire de l’argent, même si cela se fait de manière très différente, ce qui implique des conséquences sociales très différentes également. Les fournisseurs d’accès vendent des accès à l’internet, au bénéfice des investisseurs et au détriment des infrastructures et de l’égalité d’accès. Dans les centres commerciaux en ligne comme Facebook, on vend la monétisation de l’activité des utilisateurs ainsi que l’appareillage techno-politique qui va avec… Dans Uber ou les plateformes du digital labor, on vend le travail lui-même au moins disant découpé en microtranches et micro-tâches… Mais tous ces éléments n’auraient pas été possibles hors d’internet. C’est la promesse d’innovation technologique qui persuade les autorités de permettre à ces entreprises à déroger aux règles communes, qui persuade les investisseurs qu’ils vont réaliser une martingale mirifique. Mais dans le fond, toutes restent des machines non démocratiques et des machines à produire des inégalités. Toutes redistribuent les risques de la même façon : « ils les poussent vers le bas, vers les plus faibles » (les utilisateurs comme les travailleurs) « et les répandent autour d’eux. Ils tirent les récompenses vers le haut et les concentrent en de moins en moins de mains ».
Pourtant, rappelle Tarnoff, l’action collective a été le meilleur moyen pour réduire les risques, à l’image des régulations qu’ont obtenues dans le passé les chauffeurs de taxis… jusqu’à ce qu’Uber paupérise tout le monde. L’existence des chauffeurs est devenue plus précaire à mesure que la valorisation de l’entreprise s’est envolée. Le risque à terme est que la machine néolibérale programmée jusqu’au cœur même des systèmes, ubérise tout ce qui reste à ubériser, de l’agriculture à la santé, des services public à l’école jusqu’au développement logiciel lui-même.
Pourtant, les centres commerciaux en ligne sont très gourmands en travail. Tous ont recours à une vaste force de travail invisible pour développer leurs logiciels, les maintenir, opérer les centres de données, labéliser les données… La sociologue Tressie McMillan Cottom parle d’« inclusion prédatrice » pour qualifier la dynamique de l’économie politique d’internet. C’est une logique, une organisation et une technique qui consiste à inclure les marginalisés selon des logiques extractives. C’est ce que montrait Safiya Umoja Noble dans Algorithms of oppression : les « filles noires » que l’on trouve dans une requête sur Google sont celles des sites pornos, les propositions publicitaires qui vous sont faites ne sont pas les mêmes selon votre niveau de revenu ou votre couleur de peau. Les plus exclus sont inclus, mais à la condition qu’ils absorbent les risques et renoncent aux moindres récompenses. L’oppression et les discriminations des espaces en ligne sont désormais le fait d’une boucle de rétroaction algorithmique qui ressasse nos stéréotypes pour ne plus s’en extraire, enfermant chacun dans les catégories que spécifie la machine. Nous sommes désormais pris dans une intrication, un enchevêtrement d’effets, d’amplification, de polarisation, dont nous ne savons plus comment sortir.
Les inégalités restent cependant inséparables de la poursuite du profit pour le profit. La tech est devenue l’équivalent de l’industrie du Téflon. Pour l’instant, les critiques sont mises en quarantaine, limitées au monde de la recherche, à quelques activistes, à quelques médias indépendants. Le techlash a bien entrouvert combien la tech n’avait pas beaucoup de morale, ça n’empêche pas les scandales des brèches de données de succéder aux scandales des traitements iniques. Réformer l’internet pour l’instant consiste d’un côté à écrire de nouvelles réglementations pour limiter le pouvoir de ces monopoles. C’est le propos des New Brandeisians (faisant référence à l’avocat américain Louis Brandeis, grand réformateur américain) qui veulent rendre les marchés plus compétitifs en réduisant les monopoles des Gafams. Ces faiseurs de lois ont raison : les centres commerciaux en ligne ne sont pas assez régulés ! Reste qu’ils souhaitent toujours un internet régi par le marché, plus compétitif que concentré. Pourtant, comme le souligne Nick Srnicek, l’auteur de Capitalisme de plateforme, c’est la compétition, plus que la taille, qui nécessite toujours plus de données, de traitements, de profits…
Pour Tarnoff, il y a une autre stratégie : la déprivatisation. « Que les marchés soient plus régulés ou plus compétitifs ne touchera pas le problème le plus profond qui est le marché lui-même. Les centres commerciaux en ligne sont conçus pour faire du profit et faire du profit est ce qui construit des machines à inégalités ».« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » Certes, on peut chercher à atténuer ces effets… Mais le risque est que nous soyons en train de faire comme nous l’avons fait avec l’industrie fossile, où les producteurs de charbon se mettent à la capture du CO2 plutôt que d’arrêter d’en brûler ! Pour Tarnoff, seule la déprivatisation ouvre la porte à un autre internet, tout comme les mouvements abolitionnistes et pour les droits civiques ont changé la donne en adressant finalement le coeur du problème et pas seulement ses effets (comme aujourd’hui, les mouvements pour l’abolition de la police ou de la prison).
Mais cette déprivatisation, pour l’instant, nous ne savons même pas à quoi elle ressemble. Nous commençons à savoir ce qu’il advient après la fermeture des centres commerciaux (les Etats-Unis en ont fermé beaucoup) : ils sont envahis par les oiseaux et les mauvaises herbes ! Sur l’internet, bien souvent, les noms de domaines abandonnés sont valorisés par des usines à spam ! Si nous savons que les réseaux communautaires peuvent supplanter les réseaux privés en bas de couche technologique, nous avons peu d’expérience des alternatives qui peuvent se construire en haut des couches réseaux.
Nous avons besoin d’expérimenter l’alternet !Nous avons besoin d’expérimenter. L’enjeu, n’est pas de remplacer chaque centre commercial en ligne par son équivalent déprivatisé, comme de remplacer FB ou Twitter par leur clone placé sous contrôle public ou coopératif et attendre des résultats différents. Cela nécessite aussi des architectures différentes. Cela nécessite d’assembler des constellations de stratégies et d’institutions alternatives, comme le dit Angela Davis quand elle s’oppose à la prison et à la police. Pour Tarnoff, nous avons besoin de construire une constellation d’alternatives. Nous devons arrêter de croire que la technologie doit être apportée aux gens, plutôt que quelque chose que nous devons faire ensemble.
Comme le dit Ethan Zuckerman dans sa vibrante défense d’infrastructures publiques numériques, ces alternatives doivent être plurielles dans leurs formes comme dans leurs buts, comme nous avons des salles de sports, des bibliothèques ou des églises pour construire l’espace public dans sa diversité. Nous avons besoin d’une décentralisation, non seulement pour combattre la concentration, mais aussi pour élargir la diversité et plus encore pour rendre possible d’innombrables niveaux de participation et donc d’innombrables degrés de démocratie. Comme Zuckerman ou Michael Kwet qui milite pour un « socialisme numérique » avant lui, Tarnoff évoque les logiciels libres, open source, les instances distribuées, l’interopérabilité…, comme autant de leviers à cet alternumérisme. Il évoque aussi une programmation publique, un cloud public comme nous avons finalement des médias publics ou des bibliothèques. On pourrait même imaginer, à défaut de construire des capacités souveraines, d’exiger d’Amazon de donner une portion de ses capacités de traitements, à défaut de les nationaliser. Nous avons besoin d’un secteur déprivatisé plus gros, plus fort, plus puissant.
C’est oublier pourtant que ces idées (nationaliser l’internet ou Google hier, AWS demain…) ont déjà été émises et oubliées. Déconsidérées en tout cas. Tarnoff oublie un peu de se demander pourquoi elles n’ont pas été mises en œuvre, pourquoi elles n’ont pas accroché. Qu’est-ce qui manque au changement pour qu’il ait lieu ?, semble la question rarement posée. Pour ma part, pourtant, il me semble que ce qui a fait la différence entre l’essor phénoménal de l’internet marchand et la marginalité des alternatives, c’est assurément l’argent. Même si on peut se réjouir de la naissance de quelques coopératives, à l’image de Up&Go, CoopCycle ou nombre de plateformes coopératives, les niveaux d’investissements des uns ne sont pas les niveaux d’investissements des autres. Le recul des politiques publiques à investir dans des infrastructures publiques, on le voit, tient bien plus d’une déprise que d’une renaissance. Bien sûr, on peut, avec lui, espérer que les données soient gérées collectivement, par ceux qui les produisent. Qu’elles demeurent au plus près des usagers et de ceux qui les coproduisent avec eux, comme le prônent les principes du féminisme de données et que défendent nombre de collectifs politisés (à l’image d’InterHop), s’opposant à une fluidification des données sans limites où l’ouverture sert bien trop ceux qui ont les moyens d’en tirer parti, et plus encore, profite à ceux qui veulent les exploiter pour y puiser de nouveaux gains d’efficacité dans des systèmes produits pour aller à l’encontre des gens. Pour démocratiser la conception et le développement des technologies, il faut créer des processus participatifs puissants, embarqués et embarquants. « Rien pour nous sans nous », disent les associations de handicapés, reprises par le mouvement du Design Justice.
« Écrire un nouveau logiciel est relativement simple. Créer des alternatives soutenables et capables de passer à l’échelle est bien plus difficile », conclut Tarnoff. L’histoire nous apprend que les Télécoms ont mené d’intenses campagnes pour limiter le pouvoir des réseaux communautaires, comme le pointait à son tour Cory Doctorow, en soulignant que, du recul de la neutralité du net à l’interdiction des réseaux haut débit municipaux aux US (oui, tous les Etats ne les autorisent pas, du fait de l’intense lobbying des fournisseurs d’accès privés !), les oppositions comme les régulateurs trop faibles se font dévorer par les marchés ! Et il y a fort à parier que les grands acteurs de l’internet mènent le même type de campagne à l’encontre de tout ce qui pourra les déstabiliser demain. Mais ne nous y trompons pas, souligne Tarnoff, l’offensive à venir n’est pas technique, elle est politique !
« Pour reconstruire l’internet, nous allons devoir reconstruire tout le reste ». Et de rappeler que les Luddites n’ont pas tant chercher à mener un combat d’arrière garde que d’utiliser leurs valeurs pour construire une modernité différente. Le fait qu’ils n’y soient pas parvenus doit nous inquiéter. La déprivatisation à venir doit être tout aussi inventive que l’a été la privatisation à laquelle nous avons assisté. Nous avons besoin d’un monde où les marchés comptent moins, sont moins présents qu’ils ne sont… Et ils sont certainement encore plus pesants et plus puissants avec le net que sans !
***
Tarnoff nous invite à nous défaire de la privatisation comme d’une solution alors qu’elle tient du principal problème auquel nous sommes confrontés. Derrière toute privatisation, il y a bien une priva(tisa)tion, quelque chose qui nous est enlevé, dont l’accès et l’enjeu nous est soufflé, retranché, dénié. Derrière l’industrialisation numérique, il y a une privatisation massive rappelions-nous il y a peu. Dans le numérique public même, aux mains des cabinets de conseils, l’État est plus minimal que jamais ! Même aux États-Unis, où l’État est encore plus croupion, les grandes agences vendent l’internet public à des services privés qui renforcent l’automatisation des inégalités.
Malgré la qualité de la synthèse que livre Ben Tarnoff dans son essai, nous semblons au final tourner en rond. Sans investissements massifs et orientés vers le bien public plutôt que le profit, sans projets radicaux et leurs constellations d’alternatives, nous ne construirons ni l’internet de demain, ni un monde, et encore moins un monde capable d’affronter les ravages climatiques et les dissolutions sociales à venir. L’enjeu désormais semble bien plus de parvenir à récupérer les milliards accaparés par quelques-uns qu’autre chose ! Si nous avons certes besoin de constellations d’alternatives, il nous faut aussi saisir que ces constellations d’alternatives en sont rarement, en tout cas, que beaucoup ne sont que des projets politiques libéraux et qu’elles obscurcissent la nécessité d’alternatives qui le soient. Le secteur marchand produit nombre d’alternatives mais qui demeurent pour l’essentiel des formes de marchandisation, sans s’en extraire, à l’image de son instrumentation de la tech for good, qui conduit finalement à paupériser et vider de son sens la solidarité elle-même. Comme il le dit dans une interview pour The Verge, nous avons besoin de politiques et de mobilisations sur les enjeux numériques, pas seulement d’alternatives, au risque qu’elles n’en soient pas vraiment ! La constellation d’alternatives peut vite tourner au techwashing.
Il manque à l’essai de Ben Tarnoff quelques lignes sur comment réaliser une nécessaire désindustrialisation du numérique (est-elle possible et comment ?), sur la nécessité d’une définanciarisation, d’une démarchandisation, d’une déséconomisation, voire d’un définancement de la tech, et donc pointer la nécessité d’autres modèles, comme l’investissement démocratique qu’explorait récemment Michael McCarthy dans Noema Mag. Et même ce changement d’orientation de nos investissements risque d’être difficile, les moyens d’influence et de lobbying des uns n’étant pas au niveau de ceux des autres, comme s’en désolent les associations de défense des droits américaines. C’est-à-dire, comme nous y invitait dans la conclusion de son dernier livre le sociologue Denis Colombi, Pourquoi sommes-nous capitalistes (malgré nous) ?, à comment rebrancher nos choix d’investissements non pas sur la base des profits financiers qu’ils génèrent, mais sur ce qu’ils produisent pour la collectivité. C’est un sujet que les spécialistes de la tech ne maîtrisent pas, certes. Mais tant qu’on demandera à la tech de produire les meilleurs rendements du marché pour les actionnaires (15% à minima !), elle restera le bras armé du capital. Pour reconstruire l’internet, il faut commencer par reconstruire tout le reste !
Hubert Guillaud
A propos du livre de Ben Tarnoff, Internet for the people, the fight for our digital future, Verso, 2022. Cet article est paru originellement en deux partie en juin 2022 sur le site Le vent se lève.
-
7:00
Il est temps de faire entrer les voix des gens dans le code
sur Dans les algorithmesEn 2022, David Robinson faisait paraître « Voices in the Code ». Depuis, on ne s’étonnera pas qu’il soit devenu responsable de la sureté des systèmes chez OpenAI. « Voices in the Code » est à la fois une enquête passionnante sur la responsabilité des systèmes et une ode à la participation publique, seule à même d’assurer leur gouvernance. Lecture.
Avec Voices in the Code, David G. Robinson signe un livre important pour nous aider à rendre les systèmes responsables. Robinson est l’un des directeurs de l’Apple University, le centre de formation interne d’Apple. Il a surtout été, en 2011, le cofondateur d’Upturn, une association américaine qui promeut l’équité et la justice dans le design, la gouvernance et l’usage des technologies numériques. Voices in the code est un livre qui se concentre sur la gestion d’une question technique et une seule, en descendant dans ses tréfonds, à la manière d’une monographie : celle de l’évolution de l’algorithme d’attribution des greffons de rein aux Etats-Unis. Et cette histoire est riche d’enseignement pour comprendre comment nous devrions gérer les algorithmes les plus essentiels de nos sociétés.
“Plus de technologie signifie d’abord moins de démocratie”De plus en plus de moments décisifs de nos vies sont décidés par des algorithmes : attribution de places dans l’enseignement supérieur, obtention de crédit bancaire, emploi, emprisonnement, accès aux services publics… Derrière les verdicts opaques des systèmes techniques, nous avons tendance à penser que leurs enjeux de conception n’est qu’une question technique. Ce n’est pas le cas. La mathématicienne Cathy O’Neil dans Algorithmes, la bombe à retardement, nous le disait déjà : les algorithmes sont des opinions embarquées dans du code. Et le risque est que confrontés à ces systèmes nous perdions les valeurs et l’idéal de société qui devraient les guider. Ces systèmes qui produisent des choix moraux et politiques sont souvent difficiles à comprendre, peu contrôlés, sujets aux erreurs. “Les choix éthiques et démocratiques pris par ces logiciels sont souvent enterrés sous une montagne de détails techniques qui sont traités eux-mêmes comme s’ils étaient techniques plus qu’éthiques”, explique Robinson. Pourtant, les algorithmes n’ont aucune raison d’être mystérieux et leurs limites morales devraient être partagées, notamment pour que nous puissions faire collectivement le travail nécessaire pour les améliorer.
Les algorithmes permettent de traiter des données massives et sont particulièrement populaires pour prendre des décisions sur les personnes – et notamment les plus démunies -, parce qu’ils permettent justement de procéder à des traitements de masses tout en réduisant les coûts de ces traitements. Cela n’est pas sans conséquences. “Trop souvent, plus de technologie signifie d’abord moins de démocratie”, constate Robinson. Le problème, c’est que quand les décisions difficiles sont embarquées dans des logiciels, ces décisions sont plus dures à comprendre et plus difficiles à contrôler. Les logiciels agissent depuis des données toujours imparfaites et la compréhension de leurs biais et lacunes n’est pas accessible à tous. La quantification semble souvent neutre et objective, mais c’est surtout un moyen de prendre des décisions “sans avoir l’air de décider”, comme le disait l’historien des sciences Theodore Porter dans son livre, Trust in numbers. Trop souvent, l’implantation d’algorithmes est le décret d’application des lois. Le problème, c’est que trop souvent, la politique n’est pas assez précise, les ingénieurs comme les administrations avant eux, doivent en produire une interprétation qui a des conséquences directes sur ceux qui sont affectés par le calcul. Nos lois et politiques sont remplies d’ambiguïtés. Le risque auquel nous sommes confrontés c’est de laisser décider aux ingénieurs et systèmes le rôle de définir les frontières morales des systèmes techniques qu’ils mettent en place.
Le problème, bien souvent, demeure l’accès aux algorithmes, aux calculs. En 2021, Upturn a publié une étude (.pdf) sur 15 grands employeurs américains pour comprendre les technologies qu’ils utilisaient pour embaucher des candidats, concluant qu’il était impossible de saisir les biais de leurs pratiques depuis l’extérieur. Et c’est encore plus difficile quand les algorithmes ou leurs résultats sont puissamment intriqués entre eux : avoir un mauvais score de crédit a des répercussions bien au-delà d’une demande de crédit (sur ses primes d’assurance ou la possibilité de candidater à certains emplois par exemple…). Nous sommes cernés par des scores complexes, intriqués, qui ne nous sont pas expliqués et qui calculent trop souvent des objets d’une manière trompeuse, selon une prétention à la connaissance mensongère (Robinson parle de “prédictions zombies” qui m’évoquent les “technologies zombies” de José Halloy), peu contrôlés, pas mis à jour… sans qu’on puisse les contester, les rectifier ou même être au courant de leur existence. Robinson donne de nombreux exemples d’algorithmes qui posent problèmes, dans le domaine de la justice, de la santé, de l’aide sociale, de l’affectation dans l’enseignement supérieur…
“Quand les enjeux sont élevés, nous devrions construire des systèmes qui se trompent rarement et où les erreurs sont faciles à trouver et à corriger”. Ce n’est pas le cas. Trop souvent, les systèmes mettent en œuvre les logiques morales de ceux qui les conçoivent. Trop souvent, on laisse les experts techniques, cette élite du code (qui tient également beaucoup d’une consultocratie, entre Gafams et grands acteurs du conseil) décide d’enjeux moraux et politiques. Nous sommes confrontés à une industrie logicielle qui encode les principes et visions du monde des puissants. Des technologies avec des objectifs, comme disait Kate Crawford. Un numérique industriel profondément orienté à droite, comme je le résume souvent et plus directement. Contrairement à ce qu’on pourrait penser, décider de qui doit prioritairement bénéficier d’un organe tient bien plus d’un choix moral que d’un choix médical, notamment parce que les différences médicales entre les patients qui relèvent d’une même urgence sont faibles. Trop souvent, le choix moral qu’accomplissent les systèmes n’est pas explicite. “Nous devons nous inquiéter de la relation entre le process et le résultat”, explique Robinson. Le problème, c’est que bien souvent la conception met en valeur l’un ou l’autre, prônant la vertu du processus ou la vertu du résultat, quand ils devraient surtout se renforcer l’un l’autre plutôt que de s’opposer. Or, souligne Robinson dans son livre, seule la délibération et la participation partout tendent à mener à de meilleurs résultats, permettent de faire se rejoindre le process et le résultat.
4 stratégies pour améliorer la gouvernance des systèmesRobinson détaille 4 stratégies de gouvernance pour les systèmes algorithmiques :
- Élargir la participation des parties prenantes
- Renforcer la transparence
- Améliorer la prévision d’impact des systèmes
- Assurer l’audit en continu
La participation des parties prenantes repose sur les techniques délibératives très documentées, comme on les trouve développées dans les jury ou les conférences de citoyens : à savoir délivrer une information équilibrée, consciente, substantielle, compréhensible. C’est ce qu’on appelle aussi, assez mal, les “comités consultatifs” communautaires ou éthiques (qu’on devrait plutôt appeler il me semble Comités de parties prenantes, parce qu’ils ne devraient pas être seulement consultatifs, mais bien impliqués dans les décisions… et parce que leurs fonctions consistent avant tout à rassembler autour de la table tous ceux qui sont concernés, les usagers comme les experts). Ces comités chargés d’inspecter, de contrôler, d’équilibrer les décisions techniques en faisant entendre d’autres voies dans les décisions sont encore bien trop rares. Une coalition d’organisation de défense des droits civils a proposé ainsi que les algorithmes d’évaluation de risque de récidive utilisés dans les cours de justice américaines mettent en place ce type de structure pour déterminer ce qui devrait être pris en compte et rejeté par ces systèmes, et on pourrait les imaginer comme des structures obligatoires à tout système à fort impact social. C’est le “rien pour nous sans nous” de ceux qui réclament d’être à la table et pas seulement au menu de ce que l’on conçoit pour eux. Le risque bien sûr – et c’est d’ailleurs la règle plus que l’exception – c’est que ces comités soient trop souvent des coquilles vides, un faux-semblant participatif, rassemblant des gens qu’on n’écoute pas.
La transparence peut prendre bien des formes. La principale à l’œuvre dans les systèmes techniques consiste à divulguer le code source des systèmes. Une solution intéressante, mais insuffisante, notamment parce qu’elle ferme la question à l’élite du code, et surtout que sans données correspondantes, il est difficile d’en faire quelque chose (et c’est encore plus vrai avec les systèmes d’IA, dont la non-reproductabilité est le premier écueil). La transparence doit s’accompagner d’une documentation et de descriptions plus larges : des données utilisées comme des logiques de décisions suivies, des critères pris en compte et de leurs poids respectifs. Elle doit être “extensive”, plaide Robinson (pour ma part, j’ajouterai bien d’autres termes, notamment le terme “projective”, c’est-à-dire que cette transparence, cette explicabilité, doit permettre au gens de se projeter dans les explications). Dans le contexte de la transplantation, le système doit être décrit d’une manière compréhensible, les changements envisagés doivent être explicités, doivent montrer ce qu’ils vont changer, et l’ensemble doit pouvoir être largement débattu, car le débat fait également partie de la transparence attendue.
La prévision consiste à produire des déclarations d’impacts qui décrivent les bénéfices et risques des modifications envisagées, évaluées et chiffrées. La prévision consiste à montrer les effets concrets, les changements auxquels on souhaite procéder en en montrant clairement leurs impacts, leurs effets. L’enjeu est bien de prévoir les conséquences afin de pouvoir décider depuis les effets attendus. Dans le cas de la transplantation de rein, les études d’impact sur les modifications de l’algorithme d’allocation ont permis de voir, très concrètement, les changements attendus, de savoir qui allait être impacté. Lors d’une de ses modifications par exemple, la prévision – produite par un organisme dédié et indépendant, c’est important – montrait que les patients âgés recevraient bien moins de transplantation… ce qui a conduit à rejeter la proposition.
L’audit consiste à surveiller le système en usage et à produire une documentation solide sur son fonctionnement. Les audits permettent souvent de montrer les améliorations ou détériorations des systèmes. Sous prétextes de vie privée ou de propriété, l’audit est encore bien trop rarement pratiqué. Bien souvent, pourtant, l’audit permet d’accomplir certaines mesures, comme par exemple de mesurer la performances des systèmes d’attribution de crédits sur différents groupes démographiques. Dans le domaine de la transplantation rénale américaine, le Scientific Registry of Transplant Recipients (SRTR) – l’organisme indépendant qui publie un rapport annuel détaillé pour mesurer la performance du système pour les patients selon des caractéristiques comme l’âge, le genre ou la race – permet de voir les évolutions dans le temps de ces caractéristiques, et de montrer si le système s’améliore ou se dégrade.
Ces bonnes pratiques ne se suffisent pas, rappelle Robinson, en évoquant l’exemple d’un outil de prédiction du risque de maltraitance et d’agression d’enfants du comté d’Allegheny en Pennsylvanie sur lequel avait travaillé Virginia Eubanks dans Automating inequality. La bonne question à se poser parfois consiste aussi à refuser la construction d’un système… ou de poser la question des moyens. Trop souvent, les systèmes algorithmiques visent d’abord et avant tout à gérer la pénurie quand l’enjeu devrait d’abord consister à y remédier. Trop souvent, leurs déploiements visent et produisent de la diminution de personnel et donc amoindrit l’interaction humaine. Le refus – que défendent nombre d’activistes, comme ceux présents à la conférence sur le refus technique organisée à Berkeley en 2020 ou les associations à l’origine du Feminist Data Manifest-No (voir également “Pour un féminisme des données”) – tient bien souvent, pour certains, du seul levier pour s’opposer à des projets par nature toxiques. Face à des moyens de discussion et d’écoute réduits à néant, l’opposition et le refus deviennent souvent le seul levier pour faire entendre une voix divergente. Dans le champ du social notamment, les travaux d’Eubanks ont montré que la mise en place de systèmes numériques produisent toujours une diminution des droits à l’encontre des plus démunis. Nombre de systèmes sociaux mis en place depuis (au Royaume-Uni, aux Pays-Bas, en Autriche, mais également en France – ce qu’il se passe actuellement autour des systèmes mis en place dans les CAF suit les mêmes logiques) sont en ce sens profondément dysfonctionnels. Les biais, les logiques austéritaires et libérales qui président au déploiement des systèmes ne produisent que la dégradation des systèmes sociaux et des services publics (« ce patrimoine de ceux qui n’en ont pas »), de la justice et de l’équité vers lesquels ils ne devraient jamais cesser de tendre. C’est bien l’inverse pourtant auquel on assiste. La numérisation accélérée des services publics, sous prétexte d’économie budgétaire, devient un levier de leur définancement et de la minimisation des droits et empêche les gens d’accéder à leurs droits et aux services. Depuis les travaux d’Eubanks, on constate finalement que partout, le déploiement de systèmes de traitements de masse des bénéficiaires d’aides ou de services publics est problématique, et la cause est autant à trouver dans les choix de développement que dans les considérations idéologiques qui président à ceux-ci. Partout, le but est de gérer la pénurie et de l’étendre, tout en diminuant les coûts. Le but n’est pas de faire des services publics qui rendent le service qu’on en attend, que de faire des services qui produisent des gains économiques, de la rentabilité. Et de l’accélérer… quoi qu’il en coûte.
Une histoire algorithmique exemplaire : affecter des reins à ceux qui en ont besoinD’une manière un peu déstabilisante, Robinson ne nous explique pas comment le système d’attribution d’un greffon rénal calcule (c’est tout de même dommage de ne pas s’être essayé à l’exercice… Ainsi par exemple, on finit par comprendre que c’est un système par points qui préside à l’attribution où le but du côté du greffon est d’en avoir le moins possible, quand du côté du greffé, il est d’en avoir le plus possible). Robinson raconte plutôt la grande histoire de l’évolution de la transplantation rénale et l’évolution des débats éthiques qui l’ont accompagné. Il raconte l’histoire de la discussion d’un système technique avec la société et si cette histoire est exemplaire, ce n’est pas parce que le système d’attribution, l’algorithme d’appariement, serait plus vertueux que d’autres (Robinson termine son analyse en montrant que ce n’est pas le cas), mais parce qu’il démontre que ce qui est vertueux c’est la mise en discussion – ouverte, organisée, inclusive… – continue entre technique et société… Même quand elle se referme (par exemple quand il évoque la question de la prise en compte des problèmes liés à la géographie des dons), d’autres moyens permettent de l’ouvrir (en l’occurrence, le recours aux tribunaux). Ce qu’il montre, c’est que même quand les discussions se referment, les questions de justice et d’équité, d’équilibres des droits, finissent toujours par revenir, comme nous le rappelle Alain Supiot.
De l’introduction des questions éthiquesRobinson retrace l’histoire de la transplantation rénale en montrant les conséquences éthiques de l’évolution des connaissances médicales. Si la première tentative de transplantation à eu lieu au début du XXe siècle, longtemps, la question de l’immunologie, c’est-à-dire de l’acceptation d’un organe étranger dans le corps est restée obscure à la science. La première transplantation de rein réussie date de 1954 seulement, et elle était entre deux parfaits jumeaux, qui semblait la seule condition à la réussite de l’opération. A défaut de transplantation, la médecine a progressé sur un autre front, la dialyse, c’est-à-dire le fait de faire filtrer les toxines d’un patient non pas par un rein, mais par une machine, ce qu’on est parvenu à faire pendant la seconde guerre mondiale. En 1960, le docteur Scribner met au point le cathéter qui va permettre de prolonger la durée d’un patient sous dialyse (qui n’était que de quelques semaines), transformant le dysfonctionnement du rein de maladie fatale en maladie chronique et amenant un problème éthique chronique : comment trier les patients, à une époque où les appareils de dialyse sont encore extrêmement rares et coûteux ? Face à l’afflux des demandes, Scribner va avoir l’intuition de mettre en place un système de sélection qui ne soit pas uniquement médical. Pour élire les patients à la dialyse, il met en place un processus de sélection consistant en un avis médical pour déterminer l’éligibilité à la dialyse mais surtout il va mettre en place un comité de profanes chargés de trancher les décisions non-médicales d’attribution (comme de déterminer entre deux patients médicalement éligibles, lequel doit être prioritaire). Les membres de ce comité recevront des informations sur le fonctionnement de la dialyse et de la transplantation… mais devront décider des règles non médicales s’appliquant aux patients éligibles à une transplantation ou une dialyse. Très tôt donc, la réponse des limites de l’allocation dans des cas où les ressources sont rares a consisté à faire porter la problématique éthique à une communauté plus large – et pas seulement aux experts techniques. Lors de ses 13 premiers mois de fonctionnement, le Centre du rein de Seattle du docteur Scribner a dû considérer 30 candidats, 17 ayant été jugé médicalement aptes la dialyse, mais en écartant 7 du traitement.
D’autres centres de dialyse vont pourtant faire des choix différents : certains vont opter pour une approche, “premier arrivé, premier servi”. Les premiers critères de choix n’étaient pas sans opacités où sans jugements moraux : les patients pauvres, vieux ou appartenant à des minorités ethniques, ceux dont les vies sont plus chaotiques, ont été plus facilement écartés que d’autres. Malgré ses déficiences, ces interrogations ont permis de construire peu à peu la réponse éthique.
Ce qui va changer dans les années 60, c’est la généralisation de la dialyse (d’abord accessible aux vétérans de l’armée), le développement de la transplantation rénale en ayant recours à des donneurs provenant de la famille proche, puis, en 1972, la décision par le Congrès de rembourser les soins de dialyse. Cette évolution législative doit beaucoup aux témoignages de patients devant les représentants, expliquant la difficulté à accéder à ce type de soins. Le remboursement des soins va permettre d’élargir le public de la dialyse, de créer des centres dédiés et de la rendre moins coûteuse, non seulement pour les patients, mais aussi pour la médecine. Cette prise en charge de la dialyse n’est pas sans incidence d’ailleurs, souligne Robinson, notamment quand les soins liés à une transplantation, couvrant la prise d’immunosuppresseurs, eux, ne courent que sur 3 ans, alors que les soins de dialyse, eux sont pris en charge à vie. Même encore aujourd’hui (et plus encore aux Etats-Unis, ou la prise en charge des soins de santé est difficile), cette logique subsiste et fait que certains patients ne peuvent se permettre de s’extraire de la dialyse au profit d’une transplantation. En moyenne, une dialyse, consiste en 3 traitements par semaine, 4 heures de traitement par session. Coûteuse, elle reste surtout dangereuse, le taux de mortalité des patients sous dialyse est encore important à cette époque. Sans compter que l’augmentation du nombre de patients sous dialyse va avoir un impact sur l’augmentation de la demande de transplantation…
Dans les années 60, la découverte de médications immunosuppressives va permettre de faire baisser considérablement le rejet des greffons et d’élargir le nombre de greffes : en quelques années, on va passer d’une mortalité post transplantation de 30% à un taux de survie de 80%.
Un algorithme, mais sûr quels critères ?En 1984, les spécialistes de la greffe de rein, Tom Starzl et Goran Klintmalm reçoivent une demande de greffe de toute urgence pour une petite fille de 4 ans. Ce drame public, très médiatisé, va reposer la question de l’attribution. La loi nationale sur la transplantation d’organe votée en 1984 va organiser l’encadrement de l’attribution et décider de la création d’un système national par ordinateur pour apparier les organes des donneurs aux patients, dont la réalisation est confiée au Réseau d’approvisionnement en organe et de transplantation (OPTN, Organ procurement and transplantation network) et qui doit faire discuter, comme les premiers comités de Scribner, des médecins et le public. A nouveau, deux écoles s’affrontent. Celle qui propose le premier arrivé, premier servi, et une autre qui propose une rationalisation médicale de la priorisation.
Cette priorisation va longtemps reposer sur l’appariement antigénique… Ce typage des tissus, consiste a prédire biologiquement la meilleure relation entre les données biomédicales d’un donneur et celles d’un receveur. Cette prédiction ne va cesser d’évoluer avec l’avancée des connaissances et l’évolution des standards de soin. Cet appariement permet de médicaliser le choix, mais repose sur la croyance que cet appariement est important pour la plupart des cas. Pour Robinson, nous avons là un expédient moral car les caractéristiques biomédicales ne sont pas toujours un obstacle insurmontable pour la survie des greffons de reins. Le problème, c’est que les antigènes ne sont pas seulement un prédicteur de la compatibilité entre donneur et receveur, ils sont aussi statistiquement corrélés à la race. Les afro-américains ont trois fois plus de risques d’avoir une maladie des reins en stade terminal que les blancs, alors que la majorité des donneurs ressemblent à la population américaine et sont donc blancs. La prise en compte antigénique signifie proportionnellement moins d’appariements pour les noirs.
Un autre problème va donner lieu à de longues discussions : à partir de quand prendre en compte une demande de transplantation ? La règle a longtemps été à l’inscription d’un patient sur la liste d’attente… Or, cette inscription sur la liste d’attente n’est pas la même pour tous les patients : le niveau social, la couleur de peau et l’accès aux soins de santé sont là encore producteurs d’inégalités. En fait, le souhait de ne vouloir prendre en compte que des critères dits médicaux pour l’attribution d’un greffon, fait l’impasse sur ce qui ne relève pas du médical dans le médical et notamment ses pesanteurs sociales. Ce que montre très bien le livre de Robinson, c’est combien les discussions internes comme le débat public ne cessent de se modifier dans le temps, à mesure que la connaissance progresse.
En 1987, l’UNOS (United network for Organ Sharing) qui opère l’OPTN, décide d’opter pour un algorithme d’allocation déjà utilisé localement à Pittsburgh (là encore, soulignons le, on retrouve une constante dans le déploiement de procédures techniques nationales : celle de s’appuyer sur des innovateurs locaux… Le sociologue Vincent Dubois raconte la même histoire quand il évoque la généralisation du contrôle automatisé à l’égard des bénéficiaires de l’aide sociale dans les CAF). Cet algorithme prend en compte de multiples facteurs : le temps d’attente d’un patient, la comptabilité antigénique et l’urgence médicale… avant d’opter deux ans plus tard pour renforcer dans les critères la question de l’appariement antigénique, alors que de nombreux spécialistes s’y opposent prétextant que la preuve de leur importance n’est pas acquise. La contestation gagne alors du terrain arguant que la question antigénique est insignifiante dans la plupart des cas de transplantation et qu’elle est surtout discriminatoire. En 1991, l’inspecteur général de la Santé américain souligne que les noirs attendent un rein deux à trois fois plus longtemps que les blancs (jusqu’à 18 mois, contre 6 !). Sans compter que ceux en faveur de l’appariement antigénique sont également ceux qui valorisent la distribution géographique, qui elle aussi à un impact discriminatoire.
Mais à nouveau, comme aux premiers temps de la transplantation, pour équilibrer les débats, une infrastructure de gouvernance ouverte et équilibrée s’est installée. Avec l’OPTN d’abord, qui s’est imposé comme une organisation caractérisée par la transparence, la consultation et la décision (par le vote). L’OPTN est le modèle de nombreux comités de parties prenantes qui prennent en compte la représentation des usagers et discutent des changements à apporter à des systèmes via d’innombrables conférences ouvertes au public qui vont se déplacer à travers le pays pour permettre la participation. Les efforts de cette structure ont été soutenus par une autre, qui lui est indépendante : le Scientific Registry of Transplant Recipents (SRTR), dont l’une des fonctions est de produire une compréhension des modèles et des impacts des changements envisagés par l’OPTN. Les visualisations et simulations que va produire le SRTR vont bien souvent jouer un rôle vital dans les débats. Simuler les conséquences d’un changement de modèle d’affectation permet d’en saisir les orientations, permet de comprendre qui va en bénéficier et qui risque d’en pâtir. Outre ces institutions phares, il faut ajouter les autorités de santé, les représentants politiques, la communauté médicale, les associations de patients, les décisions de justice… qui s’imbriquent et s’entremêlent dans une grande discussion médico-politique.
Des critères qui évoluent avec la science et le débat publicDurant les années 90, les progrès de l’immunosuppression renforcent la critique des antigènes, les rendant encore moins critiques dans le succès de la transplantation. L’UNOS procéde à plusieurs changements à son système d’affectation pour réduire le rôle des antigènes dans l’attribution des greffons (et atténuer le fossé des discriminations), au profit du temps d’attente. Dans les années 90, la barrière des groupes sanguins est également dépassée.
En 2003, un processus de discussion pour reconcevoir le système d’attribution des greffons qui semble en bout de course est à nouveau lancé. Pour beaucoup, “l’algorithme d’allocation des reins était devenu un collage de priorités”. A partir de 2003, le débat s’enflamme sur la question des listes d’attentes : là encore, la discrimination est à l’oeuvre, les afro-américains n’étant pas placé sur les listes d’attentes aussi rapidement ou dans les mêmes proportions que les blancs. Les patients noirs attendent plus longtemps avant d’être inscrits en liste d’attente, souvent après plusieurs années de dialyse, notamment parce que l’accès aux soins aux Etats-unis reste fortement inégalitaire. Pour corriger cette disparité, en 2002, on propose non plus de partir du moment où un patient est ajouté à une liste d’attente, mais de partir du moment où un patient commence une dialyse. Pourtant, à cette époque, la question ne fait pas suffisamment consensus pour être adoptée.
Une autre critique au premier système de calcul est son manque d’efficacité. Certains proposent que les reins soient affectés prioritairement afin de maximiser la durée de vie des patients (au détriment des patients en attente les plus âgés). D’autres discussions ont lieu sur les patients sensibles, des patients qui ont développé des antigènes spécifiques qui rendent leur transplantation plus à risque, comme ceux qui ont déjà eu une transplantation, des femmes qui ont eu plusieurs naissances ou des patients qui ont reçu beaucoup de transfusions par exemple. Ce degré de sensibilité est calculé par un score : le CPRA, calculated panel reactive antibody score. L’un des enjeux est de savoir si on doit favoriser un patient qui a déjà reçu une transplantation sur un autre qui n’en a pas encore eu : le fait d’avoir une double chance paraissant à ceux qui n’en ont pas encore eu une, comme une injustice. L’introduction de ce nouveau calcul souligne combien les calculs dépendent d’autres calculs. L’intrication des mesures et la complexité que cela génère n’est pas un phénomène nouveau.
L’utilité contre l’équité : l’efficacité en questionLa grande question qui agite les débats qui vont durer plusieurs années, explique Robinson, consiste à balancer l’utilité (c’est-à-dire le nombre total d’années de vie gagnées) et l’équité (le fait que chacun ait une chance égale). Des médecins proposent d’incorporer au système d’allocation une mesure du bénéfice net (le LYFT : Life years from Transplant), visant à classer les candidats selon le nombre d’années de vie qu’ils devraient gagner s’ils reçoivent une greffe. Cette formule, présentée en 2007, est compliquée : elle prend en compte une douzaine de facteurs (l’âge, l’indice de masse corporelle, le temps passé à vivre avec un problème rénal, la conformité antigénique…). En utilisant les données passées, le STR peut modéliser le temps de survie des patients en liste d’attente, le temps de survie post-transplantation, pour chaque patient et chaque appariement. Les modélisations présentées par le STR montrent que LYFT devrait avoir peu d’effet sur la distribution raciale et sanguine des receveurs, mais qu’il devrait éloigner de la greffe les diabétiques, les candidats sensibles et âgés, au profit des plus jeunes. Le calcul du temps de vie cumulé que le système devrait faire gagner peut paraître impressionnant, mais le recul de la chance pour les seniors est assez mal accueilli par les patients. L’efficacité semble mettre à mal l’équité. Les discussions s’enlisent. Le comité demande au ministère de la santé, si l’usage de l’âge dans les calculs est discriminatoire, sans recevoir de réponse. Une version finale et modifiée de Lyft est proposée à commentaire. Lyft montre une autre limite : les modèles de calculs de longévité sur lesquels il repose ne sont pas très compréhensibles au public. Ce qui permet de comprendre une autre règle des systèmes : quand l’explicabilité n’est pas forte, le système reste considéré comme défaillant. Au final, après plusieurs années de débats, Lyft est abandonné.
En 2011, une nouvelle proposition de modification est faite qui propose de concilier les deux logiques : d’âge et de bénéfice net. Les greffons sont désormais évalués sur un score de 100, où plus le score est bas, meilleur est le greffon. Les patients, eux, sont affecté par un Post-Transplant Survival score (EPTS), qui comme Lyft tente d’estimer la longévité depuis 4 facteurs seulement : l’âge, le temps passé en dialyse, le diabète et si la personne a déjà reçu une transplantation, mais sans évaluer par exemple si les patients tolèrent la dialyse en cas de non transplantation… Pour concilier les logiques, on propose que 20% des greffons soient proposés prioritairement à ceux qui ont le meilleur score de longévité, le reste continuant à être attribué plus largement par âge (aux candidats qui ont entre 15 ans de plus ou de moins que l’âge du donneur). Là encore, pour faire accepter les modifications, le comité présente des simulations. Plus équilibré, la règle des 20/80 semble plus compréhensible, Mais là encore, il réduit les chances des patients de plus de 50 ans de 20%, privilégiant à nouveau l’utilité sur l’équité, sans répondre à d’autres problèmes qui semblent bien plus essentiels à nombre de participants, notamment ceux liés aux disparités géographiques. Enfin, la question de l’âge devient problématique : la loi américaine contre la discrimination par l’âge a été votée en 2004, rappelant que personne ne peut être discriminé sur la base de son âge. Ici, se défendent les promoteurs de la réforme, l’âge est utilisé comme un proxy pour calculer la longévité. Mais cela ne suffit pas. Enfin, les patients qui ont 16 ans de plus ou de moins que l’âge du donneur n’ont pas moins de chance de survivre que ceux qui ont 14 ans de différence avec le donneur. Ce critère aussi est problématique (comme bien souvent les effets de seuils des calculs, qui sont souvent strictes, alors qu’ils devraient être souples).
La surveillance du nouveau système montre d’abord que les receveurs de plus de 65 ans sont défavorisés avant de s’améliorer à nouveau (notamment parce que, entre-temps, la crise des opioïdes et la surmortalité qu’elle a engendré a augmenté le nombre de greffons disponibles). Le suivi longitudinal de l’accès aux greffes montre qu’entre 2006 et 2017, l’équité raciale a nettement progressé, notamment du fait de la prise en compte de la date de mise sous dialyse pour tous. Les différences entre les candidats à la greffe, selon la race, se resserrent.
En septembre 2012, une nouvelle proposition est donc faite qui conserve la règle des 20/80, mais surtout qui intègre le calcul à partir du début de l’entrée en dialyse des patients, atténue l’allocation selon le groupe sanguin… autant de mesures qui améliorent l’accès aux minorités. Cette proposition finale est à nouveau discutée entre septembre et décembre 2012, notamment sur le fait qu’elle réduit l’accès aux patients les plus âgés et sur le compartimentage régional qui perdure. En juin 2013, le conseil de l’OPTN approuve cependant cette version et le nouvel algorithme entre en fonction en décembre 2014. Dix ans de discussion pour valider des modifications… Le débat public montre à la fois sa force et ses limites. Sa force parce que nombre d’éléments ont été discutés, recomposés ou écartés. Ses limites du fait du temps passé et que nombre de problèmes n’ont pas été vraiment tranchés. Décider prend du temps. Robinson souligne combien ces évolutions, du fait des débats, sont lentes. Il a fallu 10 ans de débats pour que l’évolution de l’algorithme d’attribution soit actée. Le débat entre utilité et équité n’a pu se résoudre qu’en proposant un mixte entre les deux approches, avec la règle du 20/80, tant ils restent irréconciliables. Mais si le processus a été long, le consensus obtenu semble plus solide.
La lente déprise géographiqueLe temps d’acheminement d’un greffon à un donneur a longtemps été une donnée essentielle de la greffe, tout comme la distance d’un malade à une unité de dialyse, ce qui explique, que dès le début de la greffe et de la dialyse, le critère géographique ait été essentiel.
L’allocation de greffon est donc circonscrite à des zonages arbitraires : 58 zones, chacune pilotées par un organisme de contrôle des allocations, découpent le territoire américain. Le système montre pourtant vite ses limites, notamment parce qu’il génère de fortes discriminations à l’accès, notamment là où la population est la plus nombreuse et la demande de greffe plus forte. Les patients de New York ou Chicago attendent des années, par rapport à ceux de Floride. Plusieurs fois, il va être demandé d’y mettre fin (hormis quand le transport d’organes menace leur intégrité). Pourtant, les zones géographiques vont s’éterniser. Il faut attendre 2017 pour que l’UNOS s’attaque à la question en proposant un Score d’accès à la transplantation (ATS, Access to Transplant Score) pour mesurer l’équité de l’accès à la transplantation. L’outil démontre ce que tout le monde dénonçait depuis longtemps : la géographie est un facteur plus déterminant que l’âge, le groupe sanguin, le genre, la race ou les facteurs sociaux : selon la zone dont dépend le receveur (parmi les 58), un même candidat pourra attendre jusqu’à 22 fois plus longtemps qu’un autre ! Cette question va évoluer très rapidement parce que la même année, l’avocat d’une patiente qui a besoin d’une greffe attaque en justice pour en obtenir une depuis une zone où il y en a de disponibles. Fin 2017, l’UNOS met fin au zonage pour le remplacer par une distance concentrique par rapport à l’hôpital du donneur, qui attribue plus ou moins de points au receveur selon sa proximité. Le plus étonnant ici, c’est qu’un critère primordial d’inégalité ait mis tant d’années à être démonté.
Le scoring en ses limitesLes scientifiques des données de l’UNOS (qui ont mis en place l’ATS) travaillent désormais à améliorer le calcul de score des patients. Chaque patient se voit attribuer un score, dont la précision va jusqu’à 16 chiffres après la virgule (et le système peut encore aller plus loin pour départager deux candidats). Mais se pose la question du compromis entre la précision et la transparence. Plus il y a un chiffre précis et moins il est compréhensible pour les gens. Mais surtout, pointe Robinson, la précision ne reflète pas vraiment une différence médicale entre les patients. “Le calcul produit une fausse précision”. Ajouter de la précision ne signifie pas qu’un candidat a vraiment un meilleur résultat attendu qu’un autre s’il est transplanté. La précision du calcul ne fait que fournir un prétexte technique pour attribuer l’organe à un candidat plutôt qu’à un autre, une raison qui semble extérieurement neutre, alors que la précision du nombre ne reflète pas une différence clinique décisive. Pour Robinson, ces calculs, poussés à leur extrême, fonctionnent comme la question antigénique passée : ils visent à couvrir d’une neutralité médicale l’appariement. En fait, quand des candidats sont cliniquement équivalents, rien ne les départage vraiment. La précision du scoring est bien souvent une illusion. Créer une fausse précision vise surtout à masquer que ce choix pourrait être aussi juste s’il était aléatoire. Robinson souhaite voir dans cette question qu’adressent les data scientist de l’UNOS, le retour de l’interrogation sempiternelle de ne pas transformer une question technique en une question morale. Il paraîtra à d’autres assez étonnant qu’on continue à utiliser la précision et la neutralité des chiffres pour faire croire à leur objectivité. Pourtant, c’est là une pratique extrêmement répandue. On calcule des différences entre les gens via une précision qui n’a rien de médicale, puisqu’au final, elle peut considérer par exemple, que le fait d’habiter à 500 mètres d’un hôpital fait la différence avec une personne qui habite à 600 mètres. En fait, l’essentiel des candidats est si semblable, que rien ne les distingue dans la masse, les uns des autres. Faire croire que la solution consiste à calculer des différences qui n’ont plus rien de scientifiques est le grand mensonge de la généralisation du scoring. C’est trop souvent l’écueil moral des traitements de masse qui justifient le recours aux algorithmes. Mais le calcul ne le résout pas. Il ne fait que masquer sous le chiffre des distinctions problématiques (et c’est un problème que l’on retrouve aujourd’hui dans nombre de systèmes de scoring, à l’image de Parcoursup). Le calcul d’attribution de greffes de rein n’est pas encore exemplaire.
Faire mieuxDans sa conclusion, Robinson tente de remettre cette histoire en perspective. Trop souvent, depuis Upturn, Robinson a vu des systèmes conçus sans grande attention, sans grands soins envers les personnes qu’ils calculaient. Trop de systèmes sont pauvrement conçus. “Nous pouvons faire mieux.”
Dans la question de l’attribution de greffes, la participation, la transparence, la prévision et l’audit ont tous joué un rôle. Les gens ont élevé leurs voix et ont été entendus. Pourquoi n’en est-il pas de même avec les autres algorithmes à fort enjeu ? Robinson répond rapidement en estimant que la question de la transplantation est unique notamment parce qu’elle est une ressource non marchande. Je ne partage pas cet avis. Si le système est l’un des rares îlots de confiance, son livre nous montre que celle-ci n’est jamais acquise, qu’elle est bien construite, âprement disputée… Cette histoire néanmoins souligne combien nous avons besoin d’une confiance élevée dans un système. “La confiance est difficile à acquérir, facile à perdre et pourtant très utile.” L’exemple de la transplantation nous montre que dans les cas de rationnement la participation du public est un levier primordial pour assurer l’équité et la justice. Il montre enfin que les stratégies de gouvernance peuvent être construites et solides pour autant qu’elles soient ouvertes, transparentes et gérées en entendant tout le monde.
Gérer la pénurie pour l’accélérer… et faire semblant d’arbitrerCertes, construire un algorithme d’une manière collaborative et discutée prend du temps. Les progrès sont lents et incrémentaux. Les questions et arbitrages s’y renouvellent sans cesse, à mesure que le fonctionnement progresse et montre ses lacunes. Mais les systèmes sociotechniques, qui impliquent donc la technique et le social, doivent composer avec ces deux aspects. La progression lente mais nette de l’équité raciale dans l’algorithme d’affectation des reins, montre que les défis d’équité que posent les systèmes peuvent être relevés. Reste que bien des points demeurent exclus de ce sur quoi l’algorithme concentre le regard, à l’image de la question des remboursements de soins, limités à 3 ans pour la prise en charge des médicaments immunosuppresseurs des transplantés alors qu’ils sont perpétuels pour les dialysés. Cet enjeu pointe qu’il y a encore des progrès à faire sur certains aspects du système qui dépassent le cadre de la conception de l’algorithme lui-même. Les questions éthiques et morales évoluent sans cesse. Sur la transplantation, la prochaine concernera certainement la perspective de pouvoir avoir recours à des reins de cochons pour la transplantation. Les xénogreffes devraient être prêtes pour les essais médicaux très prochainement, et risquent de bouleverser l’attribution.
Robinson évoque les algorithmes de sélection des écoles de la ville de New York, où chaque école peut établir ses propres critères de sélection (un peu comme Parcoursup). Depuis peu, ces critères sont publics, ce qui permet un meilleur contrôle. Mais derrière des critères individuels, les questions de discrimination sociale demeurent majeures. Plusieurs collectifs critiques voudraient promouvoir un système où les écoles ne choisissent pas leurs élèves selon leurs mérites individuels ou leurs résultats à des tests standardisés, mais un système où chaque école doit accueillir des étudiants selon une distribution représentative des résultats aux tests standardisés, afin que les meilleurs ne soient pas concentrés dans les meilleures écoles, mais plus distribués entre chaque école. C’est le propos que porte par exemple le collectif Teens Take Change. De même, plutôt que d’évaluer le risque de récidive, la question pourrait être posée bien autrement : plutôt que de tenter de trouver quel suspect risque de récidiver, la question pourrait être : quels services garantiront le mieux que cette personne se présente au tribunal ou ne récidive pas ? Déplacer la question permet de déplacer la réponse. En fait, explique très clairement Robinson, les orientations des développements techniques ont fondamentalement des présupposés idéologiques. Les logiciels de calcul du risque de récidive, comme Compass, reposent sur l’idée que le risque serait inhérent à des individus, quand d’autres systèmes pourraient imaginer le risque comme une propriété des lieux ou des situations, et les prédire à la place. (pour InternetActu.net, j’étais revenu sur les propos de Marianne Bellotti, qui militait pour des IA qui complexifient plutôt qu’elles ne simplifient le monde, qui, sur la question du risque de récidive, évoquait le système ESAS, un logiciel qui donne accès aux peines similaires prononcées dans des affaires antérieures selon des antécédents de condamnations proches, mais, là où Compass charge l’individu, ESAS relativise et aide le juge à relativiser la peine, en l’aidant à comparer sa sentence à celles que d’autres juges avant lui ont prononcé). Les algorithmes qui rationnent le logement d’urgence, comme l’évoquait Eubanks dans son livre, visent d’abord à organiser la pénurie, et finalement permettent de mieux écarter le problème principal, celui de créer plus de logements sociaux. Au contraire même, en proposant un outil d’administration de la pénurie, bien souvent, celle-ci peut finalement être encore plus optimisée, c’est-à-dire plus rabotée encore. Les systèmes permettent de créer des “fictions confortables” : la science et le calcul tentent de neutraliser et dépolitiser des tensions sociales en nous faisant croire que ces systèmes seraient plus juste que le hasard, quand une “loterie aléatoire refléterait bien mieux la structure éthique de la situation”.
Participer c’est transformerLa force de la participation n’est pas seulement dans l’apport d’une diversité, d’une pluralité de regards sur un problème commun. La participation modifie les regards de tous les participants et permet de créer des convergences, des compromis qui modulent les systèmes, qui modifient leur idéologie. Au contact d’autres points de vues, dans une ambiance de construction d’un consensus, les gens changent d’avis et modèrent leurs positions, souligne très pertinemment Robinson. Certes, la participation est un dispositif complexe, long, lent, coûteux. Mais ses apports sont transformateurs, car la délibération commune et partagée est la seule à même à pouvoir intégrer de la justice et de l’équité au cœur même des systèmes, à permettre de composer un monde commun. “Une compréhension partagée bénéficie d’une infrastructure partagée”. Pour produire une gouvernance partagée, il faut à la fois partager la compréhension que l’on a d’un système et donc partager l’infrastructure de celui-ci. Les jurés sont briefés sur les enjeux dont ils doivent débattre. Les participants d’un budget citoyens également. La participation nécessite la transparence, pas seulement des données et des modalités de traitement, mais aussi des contextes qui les façonnent. Cela signifie qu’il est toujours nécessaire de déployer une infrastructure pour soutenir le débat : quand elle est absente, la conversation inclusive et informée tend à ne pas être possible. Dans le cas de la transplantation, on l’a vu, les ressources sont innombrables. Les organismes pour les produire également – et leur indépendance est essentielle. Les visualisations, les simulations se sont souvent révélées essentielles, tout autant que les témoignages et leur pluralité. Pour Robinson, cette implication des publics, cette infrastructure pour créer une compréhension partagée, ces gouvernances ouvertes sont encore bien trop rares au-delà du domaine de la santé… alors que cela devrait être le cas dans la plupart des systèmes à haut enjeu. “La compréhension partagée bénéficie d’une infrastructure partagée, c’est-à-dire d’investissements qui vont au-delà de l’effort qu’implique la construction d’un algorithme en soi.” Certes, concède-t-il, la participation est très coûteuse. Pour Robinson : “Nous ne pouvons pas délibérer aussi lourdement sur tout”. Bien sûr, mais il y a bien trop d’endroits où nous ne délibérons pas. Faire se rejoindre l’utilité et l’équité prend du temps, mais elles ne sont irréconciliables que là où aucune discussion ne s’engage. En fait, contrairement à Robinson, je pense que nous ne pouvons pas vivre dans des systèmes où la justice n’est pas présente ou le déséquilibre entre les forces en présence est trop fort. Les systèmes injustes et oppressifs n’ont qu’un temps. L’auto-gouvernement et la démocratie ont toujours pris du temps, mais ils demeurent les moins pires des systèmes. L’efficacité seule ne fera jamais société. Cette logistique de la participation est certainement le coût qui devrait balancer les formidables économies que génère la dématérialisation. Mais surtout, convient Robinson, la participation est certainement le meilleur levier que nous avons pour modifier les attitudes et les comportements. Plusieurs études ont montré que ces exercices de discussions permettent finalement d’entendre des voies différentes et permettent aux participants de corriger leurs idées préconçues. La participation est empathique.
Le risque d’une anesthésie morale par les chiffresEnfin, Robinson invite à nous défier de la quantification, qu’il qualifie “d’anesthésiant moral“. “Les algorithmes dirigent notre attention morale”, explique-t-il. Le philosophe Michael Sacasas parle, lui, de machines qui permettent “l’évasion de la responsabilité”. Quand on regarde le monde comme un marché, un score “semble toujours dépassionné, impartial et objectif”, disaient Marion Fourcade et Kieran Healy. Pourtant, la quantification n’est pas objective, parce qu’elle a des conséquences normatives et surtout que le chiffre nous rend indifférent à la souffrance comme à la justice (c’est ce que disait très bien le chercheur italien Stefano Diana, qui parlait de psychopathologisation par le nombre). C’est également ce que disaient les juristes Guido Calabresi et Philip Bobbitt dans leur livre, Tragic Choices (1978) : “En faisant en sorte que les résultats semblent nécessaires, inévitables, plutôt que discrétionnaires, l’algorithme tente de convertir ce qui est tragiquement choisi en ce qui n’est qu’un malheur fatal. Mais généralement, ce n’est qu’un subterfuge, car, bien que la rareté soit un fait, une décision particulière… (par exemple, celle de savoir qui recevra un organe dont on a besoin de toute urgence) est rarement nécessaire au sens strict du terme.” C’est tout le problème du scoring jusqu’à 16 décimales, qui ne distingue plus de différences médicales entre des patients, mais les discrétise pour les discrétiser. La fausse rationalité du calcul, permet “d’esquiver la réalité que de tels choix, sont, à un certain niveau, arbitraires”. Ces subterfuges par le calcul se retrouvent partout. Poussé à son extrême, le score produit des différences inexistantes. Pour Robinson, “nous apprenons à expliquer ces choix impossibles dans des termes quantitatifs neutres, plutôt que de nous confronter à leur arbitraire”. Pour ma part, je pense que nous n’apprenons pas. Nous mentons. Nous faisons passer la rationalité pour ce qu’elle n’est pas. Nous faisons entrer des critères arbitraires et injustes dans le calcul pour le produire. Quand rien ne distingue deux patients pour leur attribuer un greffon, on va finir par prendre un critère ridicule pour les distinguer, plutôt que de reconnaître que nous devrions avoir recours à l’aléatoire quand trop de dossiers sont similaires. Et c’est bien le problème que souligne Robinson à la fin de son inspection du système de calcul de l’attribution de greffe de rein : la plupart des patients sont tellement similaires entre eux que le problème est bien plus relatif à la pénurie qu’autre chose. Le problème est de faire penser que les critères pour les distinguer entre eux sont encore médicaux, logiques, rationnels.
Pour Robinson, les algorithmes sont des productions de compromis, d’autant plus efficaces qu’ils peuvent être modifiés (et ne cessent de l’être) facilement. Leur adaptabilité même nous invite à tisser un lien, trop inexistant, entre la société et la technique. Puisque les modifier n’est pas un problème, alors nous devrions pouvoir en discuter en permanence et avoir une voix pour les faire évoluer. L’expertise technique n’est jamais et ne devrait jamais être prise comme une autorité morale. La participation ne devrait pas être vue comme quelque chose de lourd et de pesant, mais bien comme le seul levier pour améliorer la justice du monde. Robinson nous invite à imaginer un monde où les plus importants systèmes techniques refléteraient bien des voix, même la nôtre. Pour l’instant, ce que l’on constate partout, c’est que tout est fait pour ne pas les écouter.
Ce que nous dit le livre de Robinson, c’est combien la question de l’équité reste primordiale. Et qu’améliorer un système prend du temps. La justice n’est pas innée, elle se construit lentement, patiemment. Trop lentement bien souvent. Mais le seul outil dont nous disposons pour améliorer la justice, c’est bien le débat, la contradiction et la discussion. Malgré sa complexité et sa lenteur, la question du débat public sur les systèmes est essentielle. Elle ne peut ni ne doit être un débat d’experts entre eux. Plusieurs fois, dans ces débats, Robinson montre l’importance des patients. C’est leurs interventions lors des séances publiques qui modifient les termes du débat. Construire des systèmes robustes, responsables, nécessite l’implication de tous. Mais ce qui est sûr c’est qu’on ne construit aucun système responsable quand il n’écoute pas les voix de ceux pris dans ces filets. Nous devons exiger des comités de parti de prenantes partout où les systèmes ont un impact fort sur les gens. Nous devons nous assurer d’améliorations incrémentales, non pas imposées par le politique, mais bien discutées entre égaux, dans des comités où les experts ont autant la voix que les calculés. Aujourd’hui, c’est ce qui manque dans la plupart des systèmes. Y faire entrer les voix des gens. C’est la principale condition pour faire mieux, comme nous y invite David Robinson.
Hubert Guillaud
A propos du livre de David G. Robinson, Voices in the code, a story about people, their values, and the algorithm they made, Russell Sage Foundation, 2022, 212 pages. Cet article a été publié originellement sur le blog de Hubert Guillaud, le 24 novembre 2022.
-
7:00
De la montée de la dépendance de la science à l’IA
sur Dans les algorithmesAlors que l’IA colonise tous les champs de recherche, « la crise de reproductibilité dans la science basée sur l’apprentissage automatique n’en est qu’à ses débuts », alertent les chercheurs Arvind Narayanan et Sayash Kapoor dans Nature. « Les outils de l’apprentissage automatique facilitent la construction de modèles, mais ne facilitent pas nécessairement l’extraction de connaissances sur le monde, et pourraient même la rendre plus difficile. Par conséquent, nous courons le risque de produire davantage, tout en comprenant moins », expliquent les deux chercheurs, qui rappellent que ce qui est bénéfique à l’ingénierie ne l’est pas forcément pour la science.
-
7:00
L’internet des familles modestes : les usages sont-ils les mêmes du haut au bas de l’échelle sociale ?
sur Dans les algorithmesPour rendre hommage à la sociologue Dominique Pasquier, qui vient de nous quitter, nous avons voulu republier l’interview qu’elle nous accordait en 2018 pour InternetActu.net, à l’occasion de la parution de son livre, L’internet des familles modestes. Histoire de nous souvenir de son ton, de sa voix, de son approche. Merci Dominique.
Il semble toujours difficile de saisir une enquête sociologique, car, comme toute bonne enquête sociologique, celles-ci sont surtout qualitatives et se fondent sur des témoignages peu nombreux et variés… dont il semble difficile de dégager des lignes directrices. C’est pourtant ce que réussit à faire la sociologue Dominique Pasquier dans son livre, L’internet des familles modestes en s’intéressant aux transformations des univers populaires par le prisme des usages et des pratiques d’internet.
Alors qu’il n’y a pas si longtemps, la fracture numérique semblait ne pouvoir se résorber, les usagers les plus modestes semblent finalement avoir adopté les outils numériques très rapidement, à l’image de l’introduction de la photographie au début du XXe siècle dans les sociétés rurales traditionnelles qu’évoquait Pierre Bourdieu dans Un art moyen. L’internet des classes dominantes et urbaines a colonisé la société, rapporte Dominique Pasquier dans son étude où elle s’est intéressée aux employées (majoritairement des femmes) travaillant principalement dans le secteur des services à la personne et vivant dans des zones rurales. En matière de temps, d’utilisation des services en lignes, les usages d’internet des plus modestes ont rejoint les taux d’usages des classes supérieures. Reste à savoir si les usages sont les mêmes du haut au bas de l’échelle sociale. Interview.
Existe-t-il un usage populaire d’internet ? Quelles sont les caractéristiques d’un internet des familles modestes ?
Dominique Pasquier : Il n’a pas de caractéristique particulière. C’est un usage comme les autres en fait, avec quelques poches de spécificités, et c’est finalement ce qui est le plus surprenant. Parmi ces spécificités – qu’il faudrait valider en enquêtant plus avant sur des familles plus pourvues en revenus et en capital culturel -, il y a le refus d’utiliser le mail ou l’obligation de transparence des pratiques entre les membres de la famille, mais qui existent peut-être sous une forme ou une autre dans d’autres milieux sociaux. Le plus étonnant finalement, c’est de constater que pour des gens qui se sont équipés sur le tard, combien ces usages sont devenus aisés et rituels. Je m’attendais à trouver plus de difficultés, plus d’angoisses… Mais cela n’a pas été le cas. Les familles modestes se sont emparées d’internet à toute vitesse. Ils font certes des usages plutôt utilitaristes de ces outils polymorphes. Ils ont peu de pratiques créatives. Participent peu. Mais n’en ont pas particulièrement besoin. L’outil s’est glissé dans leurs pratiques quotidiennes, d’une manière très pragmatique. Les gens ont de bonnes raisons de faire ce qu’ils font de la manière dont ils le font.
Les témoignages que vous rapportez montrent une grande hétérogénéité d’usage. Mais ce qui marque, c’est de voir que pour ces publics, internet semble avant tout un outil d’accomplissement personnel, une seconde école. Il les aide à mieux se repérer dans l’information, à être plus ouverts, à élargir leur champ de compétences…
Dominique Pasquier : Oui, internet est une seconde école. Et ce constat n’est pas sans vertus pour des populations qui bien souvent ne sont pas allées à l’école ou qui n’ont pas le bac. Internet leur propose des manières d’apprendre qui leur correspondent mieux, sans hiérarchie ni sanction. On pourrait croire par exemple qu’en matière d’information ils ne recherchent pas des choses importantes, mais si. Ils cherchent à comprendre les termes qu’emploient le professeur de leurs enfants ou le médecin qu’ils consultent. Quelque chose s’est ouvert. L’enjeu n’est pas pour eux de devenir experts à la place des experts, mais de parvenir à mieux argumenter ou à poser des questions. D’être mieux armés. Le travail de la sociologue Annette Lareau qui a observé des réunions parents professeurs et des consultations médicales dans les milieux populaires, montrait que les parents des milieux populaires se trouvaient dans une position de déférence, imposée par l’interaction elle-même. Ils n’osent pas dire qu’ils ne comprennent pas. Or, cette déférence subie implique nombre de malentendus sur les diagnostics scolaires ou médicaux. Les gens que j’ai rencontrés se servent tout le temps de ces outils pour trouver le sens des mots ou pour apprendre. Les aides-soignantes travaillent souvent dans des structures très pesantes. Mais quand elles vont sur des sites de professionnels de la santé, elles s’aperçoivent qu’il y a des échanges horizontaux et hiérarchiques possibles. Internet permet d’ouvrir le bec – même si cela ne veut pas dire que ces aides-soignantes ouvrent le bec en ligne facilement pour autant.
Image : Dominique Pasquier sur la scène de la conférence Numérique en Communs, qui se tenait à Nantes.
… plus ouverts, mais pas totalement. Internet n’est pas l’espace des idées nouvelles…
Dominique Pasquier : Si internet permet de s’informer et de se former (via les tutoriels, très consommés pour progresser notamment dans ses passions), le public de mon enquête ne s’intéresse pas du tout à l’actualité. Il ne consulte pas la presse nationale. L’actualité demeure celle que propose la presse locale et la télévision. Ce manque d’ouverture est certainement lié aux territoires d’enquêtes. Pour les ruraux, l’information nationale ou internationale semble très loin. Dans ce domaine, la possibilité qu’ouvre l’internet n’est pas saisie. La consommation télévisuelle reste très forte. L’ouverture passe par la télévision, c’est de là qu’arrive la nouveauté, via la télé-réalité, les émissions de décoration et de cuisine. La « moyennisation » des styles de vie est concrète : elle se voit dans les maisons. La télévision a diffusé un dépouillement du décor mobilier par exemple comme on le voit dans les émissions de décoration. Dans ses enquêtes sur le monde ouvrier des années 80, le sociologue Olivier Schwartz montrait que les familles de mineurs qui réussissaient achetaient des salles à manger en bois. Elles ont disparu !
L’internet n’est pas sans difficulté pourtant pour les plus modestes. Vous évoquez notamment la difficulté à utiliser certaines ressources dans le cadre professionnel ou dans la relation administrative. Quelles sont ces difficultés et pourquoi persistent-elles selon vous ?
Dominique Pasquier : Dans leurs services en ligne, les administrations de la République sont lamentables. On ne met pas assez d’argent dans l’ergonomie, dans les tests usagers… pour des gens dont les budgets se jouent à 100 euros près et où le moindre remboursement qui ne vient pas est un drame. La dématérialisation de l’administration est inhumaine et brutale. Les familles modestes utilisent peu le mail. Leurs adresses servent principalement aux achats et aux relations avec les administrations. Mais les courriers de l’administration se perdent dans le spam qu’ils reçoivent des sites d’achat. Pour eux, le mail est un instrument de torture et ce d’autant plus qu’il est l’outil de l’injonction administrative. Les gens ont l’impression d’être maltraités par les administrations, à l’image de cet homme que j’ai rencontré, noyé dans ses démêlés avec Pôle emploi, en difficulté dans toutes ses démarches.
Les usagers ne sont pas contre la dématérialisation pourtant. Le public que j’ai rencontré utilise quotidiennement les applications bancaires par exemple, matins et soirs. Ils n’ont pas de mal à gérer leurs factures en ligne. Mais les relations avec les institutions sociales, en ligne, sont particulièrement difficiles.
Peut-être est-ce aussi lié à l’usage spécifique du mail qu’on rencontre dans ces familles. Vous soulignez, qu’une des rares spécificités de l’internet des familles modestes, c’est que l’usage du mail n’est pas tant individuel que familial…
Dominique Pasquier : Oui. Pour les familles modestes, le mail n’est pas un outil de conversation agréable. Il est asynchrone et écrit. Envoyer et attendre une réponse ne correspond pas aux valeurs du face à face dans l’échange, qui reste très fort dans les milieux populaires. Il demeure de l’ordre du courrier, ce qui en fait un dispositif formellement distant.
Les familles disposent bien souvent d’une seule adresse mail partagée. C’est un moyen de tenir un principe de transparence familial… (et de surveillance : une femme ne peut pas recevoir de courrier personnel). Ce principe de transparence se retrouve également dans les comptes Facebook, dans les SMS,… La famille intervient sur les comptes de ses membres, on regarde les téléphones mobiles des uns et des autres. On surveille ce qu’il se dit. Les familles modestes ne voient pas de raison à avoir des outils individuels. Sur Facebook, l’ouverture de comptes par les enfants est conditionnée au fait que les parents soient amis avec eux. Bien souvent, ces pratiques donnent une illusion de maîtrise aux parents, qui ne voient pas ce qui échappe à leur vigilance. Ils observent les murs des enfants et les commentaires, mais ne voient pas les échanges en messagerie instantanée incessants.
L’autre grande différence sociale que vous pointez c’est la participation : l’usage des plus modestes n’est pas très contributif. Pourquoi ?
Dominique Pasquier : Effectivement, l’internet n’est jamais vu comme un moyen de contribution. J’ai demandé ainsi à une femme qui souhaitait se remarier et qui me confiait avoir beaucoup consulté de forums pour se décider à franchir le pas de la famille recomposée… si elle posait des questions sur ces forums. Elle m’a clairement répondu non, comme si c’était impensable. Ce qui l’intéressait c’était la réponse aux questions qu’elle aurait pu poser. Mais la difficulté demeure d’oser, et ce même pour intervenir sur un simple forum, entouré de femmes dans la même situation qu’elle, qui se confient sur des choses intimes… On ne saute pas le pas. Une autre qui réalisait des tricots en puisant des idées sur des blogs contributifs n’y montrait pas non plus ses créations… Il y a une grande pudeur à poser des questions, « à ramener sa fraise »…
Sur l’internet des familles modestes, il y a une grande distance avec la création. Ce qui circule sur Facebook, c’est essentiellement des citations morales, des images, des dessins… des « panneaux » qui proviennent d’ailleurs. L’enjeu n’est pas tant de discuter du contenu de ces messages que de demander à ses amis s’ils sont d’accord avec le fait que ce qui est mis en ligne me reflète moi ! Le but est plus une recherche de consensus. On s’empare de ces messages pour dire qu’on s’y reconnaît et on demande aux autres s’ils nous y reconnaissent. Ces partages se font avec des gens qu’on connaît. On ne cherche pas à étendre sa sociabilité.
À Brest, Bénédicte Havard Duclos qui a travaillé sur des assistantes maternelles, plus diplômées que les populations sur lesquelles j’ai travaillé, à montré qu’elles avaient un peu plus d’ouverture dans leurs échanges en ligne : elles osaient échanger avec des gens qu’elles ne connaissaient pas. Les gens que j’ai vus ne sortent pas de leur monde, sauf en ce qui concerne les connaissances, mais pas en matière de culture ni de sociabilité. Ils utilisent internet pour apprendre des choses qu’ils ne connaissent pas ou perfectionner des pratiques, comme le tricot, la cuisine, le jardinage… Mais ce n’est pas une ouverture sur des nouveaux goûts culturels. Il n’y en a pas du tout dans mon public. Les liens partagés servent aussi beaucoup à rappeler le passé, à le célébrer ensemble une nostalgie. Leur fonction consiste plus à évoquer une culture commune et à renforcer le consensus qu’à une ouverture culturelle. Mais ces résultats auraient certainement été très différents si j’avais regardé les pratiques de leurs enfants.
Y’a-t-il un temps internet chez les plus modestes ou une connexion continue comme pour les catégories professionnelles supérieures ? La frontière entre le monde professionnel et le monde privé est-elle moins étanche chez les plus modestes qu’ailleurs ?
Dominique Pasquier : Il y a une différence entre ces milieux et ceux des cadres et des professions intermédiaires. Ici, quand on arrête de travailler, on arrête de travailler. S’il y a une forte perméabilité du personnel au professionnel, la frontière est complètement hermétique dans l’autre sens : les collègues n’ont pas le numéro de portable ! Beaucoup des femmes que j’ai rencontrées ont des conjoints artisans qui eux n’arrêtent jamais de travailler… mais le plus souvent, les milieux ouvriers ou d’employés subalternes, la frontière entre les deux mondes est forte.
Un long chapitre de votre livre s’intéresse à l’achat en ligne qui semble être devenu une pratique forte et complètement intégrée des milieux modestes. Qu’est-ce qu’a changé cet accès à la consommation ?
Dominique Pasquier : On pense souvent qu’internet permet d’acheter ce qu’on ne trouve pas localement. Pour les plus modestes, la motivation n’est pas du tout celle-ci. Internet sert à acheter moins cher. Et ces femmes y passent du temps. Reste qu’elles se sentent coupables vis-à-vis du petit commerce local, car ce sont des gens qu’elles connaissent. Pour nombre d’achats, elles transigent donc.
Le Bon Coin et les plateformes d’achats entre particuliers sont considérées, elles, comme vertueuses. Ça rapporte un peu d’argent. Ça rend service. On a l’impression que ces échanges sont moraux. « Sur le Bon Coin, chacun garde sa fierté ». Y vendre ou y acheter des produits, même très peu chers – et beaucoup des produits qu’on y échange le sont pour quelques euros -, c’est un moyen de conserver sa fierté, d’affirmer qu’on n’est pas des assistés. Il faut entendre l’omniprésence de la peur du déclassement dans ces populations, limites financièrement. Recourir à l’aide social et faire des démarches, c’est compliqué. Dans cette frange de la population, on déteste tout autant ceux qui sont socialement au-dessus qu’au-dessous. On y entend un discours d’extrême droite qui peut-être manié par des gens qui n’y sont pas acquis, mais qui est caractérisé par la peur de basculer vers les assistés. Comme le disait Olivier Schwartz, il n’y a pas qu’eux contre nous, que le peuple face aux élites, il y a ceux du haut, ceux du bas et les fragiles.
Vous notez dans votre livre que les familles modestes ont un rapport très distant avec l’information (notamment nationale), mais pas avec les causes. « Ceux qui parlent frontalement de politique le font de façon sporadique ». La politique n’est présente que sous une forme polémique, très liée à la crise du marché du travail. Pourquoi ?
Dominique Pasquier : Ce public ne s’informe pas. Beaucoup de rumeurs circulent et s’engouffrent sur des peurs. Les dépenses somptuaires ne les étonnent pas. Les rumeurs sur les fraudeurs et paresseux non plus. J’ai enquêté dans une région où l’immigration est peu présente, mais où le fantasme de l’immigré assisté est omniprésent. La hantise sociale est forte et est à relier à la crise du marché du travail, qui fait que ces familles semblent toujours sur le point de basculer dans la précarité. Ces femmes qui travaillent dans l’aide à domicile connaissent les difficultés du marché du travail : elles ont plein de petits patrons, des horaires à trous, des trajets difficiles et leurs situations sont précaires et instables… Reste que dans ces milieux issus des milieux ouvriers, les valeurs du travail, de l’entrepreneuriat privé et de la réussite restent fortes.
D’une manière assez surprenante, vous consacrez tout un chapitre à la question des relations hommes/femmes. Internet renforce-t-il la séparation des sphères domestiques masculines et féminines ? Comment en questionne-t-il ou en redistribue-t-il les frontières normatives ?
Dominique Pasquier : Effectivement. Nombre de comptes Facebook exaltent l’amour conjugal et la famille. Ce n’est bien sûr pas le cas des hommes célibataires que j’ai rencontrés, dans les comptes desquels dominent des blagues sur les femmes. Chez celles-ci, par contre, on trouve beaucoup de partage d’images et de maximes sur l’absence de partage des tâches domestiques. Chez ces femmes, l’idée qu’on se réalise en tenant son intérieur propre et son linge repassé ne fonctionne plus. L’épanouissement domestique ne fait plus rêver. Cela n’empêche pas que ces femmes continuent à tout faire et que leurs intérieurs soient nickels et parfaitement rangés. Elles aspirent à ce que ce ne soit plus une image valorisante, mais en vrai, la répartition des tâches traditionnelles demeure.
On entend en tout cas une revendication, une contestation de la division très asymétrique du travail domestique. Pourtant, pour ces aides-soignantes qui pratiquent les horaires décalés, bien souvent, les maris doivent faire le dîner pour les enfants. En tout cas, il n’y a plus ce qu’observait Olivier Schwartz, à savoir que les femmes trouvaient leur épanouissement dans la tenue du foyer. Il faut dire que contrairement aux enquêtes qu’il a réalisées dans les familles de mineurs, ces femmes travaillent. C’est sans doute la transformation du marché du travail qui fait bouger les lignes à la maison.
Pour autant, ce n’est pas la guerre non plus. On trouve plus d’endroits où on échange des maximes célébrant le couple que le contraire. C’est moins vrai pour les hommes célibataires. Dans les milieux populaires, les hommes sans qualification (comme les femmes trop qualifiées) ont du mal à entrer en couples. D’où l’expression d’un vif ressentiment.
À la lecture de votre livre, on a l’impression que la fracture numérique a été résorbée. Et on peinerait même à trouver des traces d’une fracture sociale d’usages ?
Dominique Pasquier : Oui. On trouve encore quelques personnes en difficultés, notamment les seniors, mais le plus frappant est de constater qu’internet est entré dans la vie de tous les jours, même chez les familles modestes.
La régulation parentale y est par exemple aussi présente qu’ailleurs. Mais dans les familles plus diplômées, on ne trouve pas la croyance que, parce qu’on sait se servir d’internet, on réussira dans la vie. Il y a ici, une illusion de modernité. Dans les milieux plus cultivés, on retrouve les mêmes difficultés à surveiller les pratiques des enfants et à réguler leurs pratiques, mais les parents offrent la complémentarité de l’écrit traditionnel valorisé à l’école. Ici, les mères croient bien faire en encourageant les pratiques numériques, pensant que cela sera un déclencheur de réussite. Mais c’est assez faux. Malgré la transparence qu’elles imposent, les familles modestes ne savent pas ce que font leurs enfants. En fait, il faut reconnaître que c’est plus difficile pour les parents qu’avant. Alors que la télé réunissait les familles, internet menace les dimensions collectives familiales, par ses pratiques addictives (comme le jeu vidéo) et parce que les pratiques des plus jeunes sont impossibles à réguler. Il transforme et menace profondément les familles. Mon discours à l’air très négatif, je le reconnais. Pour les plus jeunes, internet offre de fortes possibilités de divertissement. Mais comme il n’y a pas de limites et qu’on ne peut pas en mettre, tout repose sur la manière dont les enfants gèrent les sollicitations. Mes travaux sur la culture lycéenne, soulignaient déjà les limites de la transmission horizontale entre jeunes. Les mères, qui se sont mises au jeu et qui ont compris qu’elles étaient accros à leur tour, ont une meilleure compréhension de ce qu’il se passe quand on ne peut pas s’arrêter. Les disputes sur le temps d’écran sont moins présentes. Reste qu’une grande partie de la vie des enfants échappe au périmètre familial et c’est difficile à vivre pour les parents. Ils ont l’impression parfois de contrôler ce que font leurs enfants en ligne, mais ils se trompent.
Propos recueillis par Hubert Guillaud.
Cette interview a été originellement publiée sur InternetActu.net, le 21 septembre 2018.
-
7:00
Pourquoi la technologie favorise-t-elle le surdiagnostic ?
sur Dans les algorithmesLa neurologue irlandaise, Suzanne O’Sullivan, qui vient de publier The Age of Diagnosis: Sickness, Health and Why Medicine Has Gone Too Far (Penguin Random House, 2025) estime que nous sommes entrés dans l’ère du diagnostique, c’est-à-dire que l’essor technologique nous permet désormais d’améliorer les diagnostics. Mais, tempère-t-elle, cet essor « ne semble pas s’être accompagné d’une amélioration de notre santé ». Si nous détectons et traitons davantage de cancers à des stades plus précoces, ce qui sauve la vie de certaines personnes, en revanche, d’autres reçoivent des traitements inutiles, et il se pourrait que la proportion des personnes surtraitées soit plus forte que la réduction de la mortalité. En fait, des études à grande échelle montrent que l’amélioration du dépistage ne conduit pas à une amélioration des taux de survie, rappelle le Times. Pour la spécialiste qui dénonce cette dérive diagnostique, « nous sommes victimes d’une médecine excessive ». Pour elle, l’augmentation des diagnostiques de neurodivergence notamment (Troubles de l’activité et autisme) a surtout tendance à pathologiser inutilement certaines personnes. Nous ne devenons pas forcément plus malades, nous attribuons davantage à la maladie, regrette-t-elle. « Les explications médicales sont devenues un pansement ».
Le diagnostic apporte des réponses tant aux patients qu’aux médecins, mais ne soigne pas toujours. Diagnostiquer des patients alors qu’il n’existe pas de traitements efficaces peut aggraver leurs symptômes, explique-t-elle dans une interview à Wired. Entre 1998 et 2018, les diagnostics d’autisme ont augmenté de 787 % rien qu’au Royaume-Uni ; le taux de surdiagnostic de la maladie de Lyme est estimé à 85 %, y compris dans les pays où il est impossible de contracter la maladie. Le diagnostic de l’autisme est passé d’une personne sur 2 500 à un enfant sur 36 au Royaume-Uni et un sur 20 en Irlande du Nord. Nous sommes passés d’un sous-diagnostic à un sur-diagnostic, estime O’Sullivan. Or, ce sur-diagnostic n’améliore pas la santé des patients. « L’échec de cette approche est dû au fait que, lorsqu’on arrive aux stades les plus légers des troubles du comportement ou de l’apprentissage, il faut trouver un équilibre entre les avantages du diagnostic et l’aide disponible, et les inconvénients du diagnostic, qui consistent à annoncer à l’enfant qu’il a un cerveau anormal. Quel est l’impact sur la confiance en soi de l’enfant ? Comment est-ce stigmatisé ? Comment cela influence-t-il la construction de son identité ? Nous avons pensé qu’il serait utile de le dire aux enfants, mais les statistiques et les résultats suggèrent que ce n’est pas le cas. » De même, nous sur-diagnostiquons désormais différents types de cancer, tant et si bien que de plus en plus de personnes reçoivent des traitements alors qu’elles n’en ont pas besoin. Le problème c’est que nous devons veiller à ce que le surdiagnostic reste à un niveau bas. Nous multiplions les tests plutôt que de perfectionner ceux que nous avons.
Ce n’est pas tant qu’il ne faut pas dépister, estime la neurologue, mais que les décisions doivent être prises parfois plus lentement qu’elles ne sont. Pour The Guardian, le surdiagnostic nous fait croire que notre société va mal ou que la vie moderne nous rend malade (ce qui n’est pas nécessairement faux). La réalité est que nos outils de diagnostics sont devenus plus précis, mais les variations de santé physique et mentale sont inutilement médicalisées et pathologisées. Pour le dire autrement, nous n’avons pas beaucoup de méthodes pour limiter les faux positifs en médecine, comme ailleurs.
-
7:00
Dans les défaillances des décisions automatisées
sur Dans les algorithmesLes systèmes de prise de décision automatisée (ADM, pour automated decision-making) sont partout. Ils touchent tous les types d’activités humaines et notamment la distribution de services publics à des millions de citoyens européens mais également nombre de services privés essentiels, comme la banque, la fixation des prix ou l’assurance. Partout, les systèmes contrôlent l’accès à nos droits et à nos possibilités d’action.
Opacité et défaillance généraliséeEn 2020 déjà, la grande association européenne de défense des droits numériques, Algorithm Watch, expliquait dans un rapport que ces systèmes se généralisaient dans la plus grande opacité. Alors que le calcul est partout, l’association soulignait que si ces déploiements pouvaient être utiles, très peu de cas montraient de « manière convaincante un impact positif ». La plupart des systèmes de décision automatisés mettent les gens en danger plus qu’ils ne les protègent, disait déjà l’association.
Dans son inventaire des algorithmes publics, l’Observatoire des algorithmes publics montre, très concrètement, combien le déploiement des systèmes de prise de décision automatisée reste opaque, malgré les obligations de transparence qui incombent aux systèmes.
Avec son initiative France Contrôle, la Quadrature du Net, accompagnée de collectifs de lutte contre la précarité, documente elle aussi le déploiement des algorithmes de contrôle social et leurs défaillances. Dès 2018, les travaux pionniers de la politiste Virginia Eubanks, nous ont appris que les systèmes électroniques mis en place pour calculer, distribuer et contrôler l’aide sociale sont bien souvent particulièrement défaillants, et notamment les systèmes automatisés censés lutter contre la fraude, devenus l’alpha et l’oméga des politiques publiques austéritaires.
Malgré la Loi pour une République numérique (2016), la transparence de ces calculs, seule à même de dévoiler et corriger leurs défaillances, ne progresse pas. On peut donc se demander, assez légitimement, ce qu’il y a cacher.
A mesure que ces systèmes se déploient, ce sont donc les enquêtes des syndicats, des militants, des chercheurs, des journalistes qui documentent les défaillances des décisions automatisées dans tous les secteurs de la société où elles sont présentes.
Ces enquêtes sont rendues partout difficiles, d’abord et avant tout parce qu’on ne peut saisir les paramètres des systèmes de décision automatisée sans y accéder.
3 problèmes récurrentsS’il est difficile de faire un constat global sur les défaillances spécifiques de tous les systèmes automatisés, qu’ils s’appliquent à la santé, l’éducation, le social ou l’économie, on peut néanmoins noter 3 problèmes récurrents.
Les erreurs ne sont pas un problème pour les structures qui calculent. Pour le dire techniquement, la plupart des acteurs qui produisent des systèmes de décision automatisée produisent des faux positifs importants, c’est-à-dire catégorisent des personnes indûment. Dans les systèmes bancaires par exemple, comme l’a montré une belle enquête de l’AFP et d’Algorithm Watch, certaines activités déclenchent des alertes et conduisent à qualifier les profils des clients comme problématiques voire à suspendre les possibilités bancaires d’individus ou d’organisations, sans qu’elles n’aient à rendre de compte sur ces suspensions.
Au contraire, parce qu’elles sont invitées à la vigilance face aux activités de fraude, de blanchiment d’argent ou le financement du terrorisme, elles sont encouragées à produire des faux positifs pour montrer qu’elles agissent, tout comme les organismes sociaux sont poussés à détecter de la fraude pour atteindre leurs objectifs de contrôle.
Selon les données de l’autorité qui contrôle les banques et les marchés financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermé en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont été condamnées pour ce délit.
Le problème, c’est que les organismes de calculs n’ont pas d’intérêt à corriger ces faux positifs pour les atténuer. Alors que, si ces erreurs ne sont pas un problème pour les structures qui les produisent, elles le sont pour les individus qui voient leurs comptes clôturés, sans raison et avec peu de possibilités de recours. Il est nécessaire pourtant que les taux de risques détectés restent proportionnels aux taux effectifs de condamnation, afin que les niveaux de réduction des risques ne soient pas portés par les individus.
Le même phénomène est à l’œuvre quand la CAF reconnaît que son algorithme de contrôle de fraude produit bien plus de contrôle sur certaines catégories sociales de la population, comme le montrait l’enquête du Monde et de Lighthouse reports et les travaux de l’association Changer de Cap. Mais, pour les banques, comme pour la CAF, ce surciblage, ce surdiagnostic, n’a pas d’incidence directe, au contraire…
Pour les organismes publics le taux de détection automatisée est un objectif à atteindre explique le syndicat Solidaires Finances Publiques dans son enquête sur L’IA aux impôts, qu’importe si cet objectif est défaillant pour les personnes ciblées. D’où l’importance de mettre en place un ratio d’impact sur les différents groupes démographiques et des taux de faux positifs pour limiter leur explosion. La justesse des calculs doit être améliorée.
Pour cela, il est nécessaire de mieux contrôler le taux de détection des outils et de trouver les modalités pour que ces taux ne soient pas disproportionnés. Sans cela, on le comprend, la maltraitance institutionnelle que dénonce ATD Quart Monde est en roue libre dans les systèmes, quels qu’ils soient.
Dans les difficultés, les recours sont rendus plus compliqués. Quand ces systèmes mé-calculent les gens, quand ils signalent leurs profils comme problématiques ou quand les dossiers sont mis en traitement, les possibilités de recours sont bien souvent automatiquement réduites. Le fait d’être soupçonné de problème bancaire diminue vos possibilités de recours plutôt qu’elle ne les augmente.
A la CAF, quand l’accusation de fraude est déclenchée, la procédure de recours pour les bénéficiaires devient plus complexe. Dans la plateforme dématérialisée pour les demandes de titres de séjour dont le Défenseur des droits pointait les lacunes dans un récent rapport, les usagers ne peuvent pas signaler un changement de lieu de résidence quand une demande est en cours.
Or, c’est justement quand les usagers sont confrontés à des difficultés, que la discussion devrait être rendue plus fluide, plus accessible. En réalité, c’est bien souvent l’inverse que l’on constate. Outre les explications lacunaires des services, les possibilités de recours sont réduites quand elles devraient être augmentées. L’alerte réduit les droits alors qu’elle devrait plutôt les ouvrir.
Enfin, l’interconnexion des systèmes crée des boucles de défaillances dont les effets s’amplifient très rapidement. Les boucles d’empêchements se multiplient sans issue. Les alertes et les faux positifs se répandent. L’automatisation des droits conduit à des évictions en cascade dans des systèmes où les organismes se renvoient les responsabilités sans être toujours capables d’agir sur les systèmes de calcul. Ces difficultés nécessitent de mieux faire valoir les droits d’opposition des calculés. La prise en compte d’innombrables données pour produire des calculs toujours plus granulaires, pour atténuer les risques, produit surtout des faux positifs et une complexité de plus en plus problématique pour les usagers.
Responsabiliser les calculs du socialNous avons besoin de diminuer les données utilisées pour les calculs du social, explique le chercheur Arvind Narayanan, notamment parce que cette complexité, au prétexte de mieux calculer le social, bien souvent, n’améliore pas les calculs, mais renforce leur opacité et les rend moins contestables. Les calculs du social doivent n’utiliser que peu de données, doivent rester compréhensibles, transparents, vérifiables et surtout opposables… Collecter peu de données cause moins de problèmes de vie privée, moins de problèmes légaux comme éthiques… et moins de discriminations.
Renforcer le contrôle des systèmes, notamment mesurer leur ratio d’impact et les taux de faux positifs. Améliorer les droits de recours des usagers, notamment quand ces systèmes les ciblent et les désignent. Et surtout, améliorer la participation des publics aux calculs, comme nous y invitent le récent rapport du Défenseur des droits sur la dématérialisation et les algorithmes publics.
A mesure qu’ils se répandent, à mesure qu’ils accèdent à de plus en plus de données, les risques de défaillances des calculs s’accumulent. Derrière ces défaillances, c’est la question même de la justice qui est en cause. On ne peut pas accepter que les banques ferment chaque année des centaines de milliers de comptes bancaires, quand seulement un millier de personnes sont condamnées.
On ne peut pas accepter que la CAF détermine qu’il y aurait des centaines de milliers de fraudeurs, quand dans les faits, très peu sont condamnés pour fraude. La justice nécessite que les calculs du social soient raccords avec la réalité. Nous n’y sommes pas.
Hubert Guillaud
Cet édito a été publié originellement sous forme de tribune pour le Club de Mediapart, le 4 avril 2025 à l’occasion de la publication du livre, Les algorithmes contre la société aux éditions La Fabrique.
-
7:00
L’IA est un outil de démoralisation des travailleurs
sur Dans les algorithmes« Le potentiel révolutionnaire de l’IA est d’aider les experts à appliquer leur expertise plus efficacement et plus rapidement. Mais pour que cela fonctionne, il faut des experts. Or, l’apprentissage est un processus de développement humain désordonné et non linéaire, qui résiste à l’efficacité. L’IA ne peut donc pas le remplacer », explique la sociologue Tressie McMillan Cottom dans une tribune au New York Times. « L’IA recherche des travailleurs qui prennent des décisions fondées sur leur expertise, sans institution qui crée et certifie cette expertise. Elle propose une expertise sans experts ». Pas sûr donc que cela fonctionne.
Mais, si ce fantasme – qui a traversé toutes les technologies éducatives depuis longtemps – fascine, c’est parce qu’il promet de contrôler l’apprentissage sans en payer le coût. Plus que de réduire les tâches fastidieuses, l’IA justifie les réductions d’effectifs « en demandant à ceux qui restent de faire plus avec moins ». La meilleure efficacité de l’IA, c’est de démoraliser les travailleurs, conclut la sociologue.
-
7:36
De la concentration à la fusion
sur Dans les algorithmesLes acteurs de l’IA générative intègrent de plus en plus les plateformes de contenus, à l’image de xAI de Musk qui vient de racheter X/Twitter, rappelle Ameneh Dehshiri pour Tech Policy Press. « Les entreprises technologiques ne se contentent plus de construire des modèles, elles acquièrent les infrastructures et les écosystèmes qui les alimentent ». Nous sommes désormais confrontés à des écosystèmes de plus en plus intégrés et concentrés…
-
7:34
Ecrire, c’est penser
sur Dans les algorithmes« L’écriture est l’activité la plus essentielle d’un scientifique, car sans écriture, il n’y a pas de réflexion ». Dennis Hazelett
-
7:00
Pour rendre la participation effective, il faut mesurer les changements qu’elle produit
sur Dans les algorithmesPour TechPolicy Press, le consultant Jonathan van Geuns se moque de l’illusion de la participation dont s’est paré le Sommet pour l’action sur l’IA parisien. « La gouvernance de l’IA aujourd’hui n’est qu’une vaste mise en scène, un théâtre parisien où les acteurs – dirigeants d’entreprises, politiques et technocrates – déclament d’une voix posée leur discours sur la responsabilité, créant l’illusion d’une décision collective ». En réalité, les mécanismes de gouvernance restent imperméables aux voix qu’ils prétendent intégrer. Entreprises, ONG et gouvernements ont bien compris l’efficacité d’un engagement de façade. Les comités d’éthique sur l’IA, les tables rondes des parties prenantes, les forums publics ne sont pas les fondements d’une démocratie mais son simulacre. Simulacre d’inclusion où la contestation est réduite à son expression la plus polie. Ces dispositifs « créent l’illusion d’un contrôle démocratique tout en permettant à ceux qui les mettent en œuvre, de garder la mainmise sur les résultats ». Ce n’est pas de la gouvernance, seulement un décor.
Pour que les audits et les évaluations modifient réellement les rapports de force, ils doivent d’abord s’extraire du carcan d’opacité qui les enserre. « Actuellement, ces processus servent davantage à absorber qu’à transformer : ils recueillent les critiques, les diluent en rapports inoffensifs, puis les présentent comme preuve qu’une action a été menée. Ils fonctionnent comme des vitrines de l’engagement, invitant le public à admirer les mécanismes complexes de la gouvernance de l’IA tout en préservant les structures de pouvoir existantes de toute remise en cause ».
Les structures mise en place pour contester le pouvoir servent de rempart à la contestationLe problème n’est pas tant que la participation manque de force, mais que l’écosystème a été conçu pour la neutraliser, sollicitant des critiques tout en gardant le monopole de leur interprétation. « On finance des conseils consultatifs tout en se réservant le droit d’ignorer leurs recommandations. On réunit des comités d’éthique pour les dissoudre dès que ce qu’ils veulent examiner devient gênant. Ce n’est pas un échec de la participation, c’est son détournement. Les structures qui devraient être mises en place pour contester le pouvoir servent finalement de rempart contre sa contestation ».
Cette situation est d’autant plus problématique que nous manquons d’outils structurés pour évaluer si la participation à la gouvernance de l’IA est véritablement significative. On compte le nombre de « parties prenantes » consultées sans mesurer l’impact réel de leurs contributions. On comptabilise les forums organisés sans examiner s’ils ont abouti à des changements concrets. Cette focalisation sur la forme plutôt que sur le fond permet au « participation-washing » de prospérer. Un constat très proche de celui que dressaient Manon Loisel et Nicolas Rio dans leur livre, Pour en finir avec la démocratie participative (Textuel, 2024).
Changer les indicateurs de la participation : mesurer les changements qu’elle produit !Pour Jonathan van Geuns, la participation doit se doter d’un cadre plus rigoureux pour favoriser l’inclusivité, la redistribution du pouvoir, la construction de la confiance, l’impact et la pérennité. Les indicateurs doivent évoluer du procédural vers le structurel. La vraie question n’est pas de savoir si différentes parties prenantes ont été invitées à s’exprimer, « mais de savoir si leur participation a redistribué le pouvoir, modifié les processus décisionnels et engendré des changements concrets ! »
La participation ne peut se réduire à un exercice consultatif où les communautés concernées peuvent exprimer leurs inquiétudes sans avoir le pouvoir d’agir, comme nous le constations dans notre article sur l’absence de tournant participatif de l’IA. Pour van Geuns, « la participation doit être ancrée structurellement, non comme une fonction consultative mais comme une fonction souveraine », comme l’exprimait Thomas Perroud dans son livre, Services publics et communs (Le Bord de l’eau, 2023). Cela pourrait se traduire par des conseils de surveillance publique ayant un droit de veto sur les applications, des organismes de régulation où les représentants disposent d’un réel pouvoir décisionnel, et des mécanismes permettant aux groupes affectés de contester directement les décisions basées sur l’IA ou d’exiger le retrait des systèmes perpétuant des injustices.
« L’audit des systèmes d’IA ne suffit pas ; nous devons pouvoir les démanteler. Les cadres de supervision de l’IA doivent inclure des mécanismes de refus, pas uniquement de contrôle. Quand un audit révèle qu’un algorithme est structurellement discriminatoire, il doit avoir la force juridique de le désactiver. Quand un système nuit de façon disproportionnée aux travailleurs, locataires, réfugiés ou citoyens, ces communautés ne doivent pas seulement être consultées mais avoir le pouvoir d’en stopper le déploiement. La participation ne doit pas se contenter de documenter les préjudices ; elle doit les interrompre. »
En fait, estime le consultant, « la gouvernance de l’IA n’est plus simplement un terrain de contestation mais un exemple flagrant de capture par les entreprises. Les géants de la tech agissent comme des législateurs privés, élaborant les cadres éthiques qui régissent leur propre conduite. Ils prônent l’ouverture tout en protégeant jalousement leurs algorithmes, parlent d’équité tout en brevetant des biais, évoquent la sécurité tout en exportant des technologies de surveillance vers des régimes autoritaires. Dans ce contexte, tout cadre qui n’aborde pas le déséquilibre fondamental des pouvoirs dans le développement et le déploiement de l’IA n’est pas seulement inefficace ; il est complice ». Les audits et évaluations participatifs doivent donc être juridiquement contraignants et viser non seulement à diversifier les contributions mais à redistribuer le contrôle et rééquilibrer les pouvoirs.
« La gouvernance doit être continue, adaptative et structurellement résistante à l’inertie et au désintérêt, en garantissant que les communautés restent impliquées dans les décisions tout au long du cycle de vie d’un système d’IA. Cela implique également la mise en place de financements pérennes et de mandats légaux pour les structures participatives ».
« La crise de la gouvernance de l’IA ne se limite pas à des systèmes d’IA défectueux. Elle révèle la mainmise des entreprises sur les processus de gouvernance. L’enjeu n’est pas simplement d’accroître la participation, mais de s’assurer qu’elle conduise à une véritable redistribution du pouvoir. Sans cadres d’évaluation solides, mécanismes d’application clairs et remise en question fondamentale de ceux qui définissent les priorités de la gouvernance de l’IA, la participation restera une vitrine vide, conçue pour afficher une transparence et une responsabilité de façade tout en préservant les structures mêmes qui perpétuent les inégalités ».
-
7:00
La Californie contre la tarification algorithmique
sur Dans les algorithmesLes législateurs californiens viennent de proposer pas moins de 5 projets de loi contre la tarification algorithmique, … alors que celle-ci envahit tous les secteurs de l’économie numérique (voir notre dossier : Du marketing à l’économie numérique, une boucle de prédation), rapporte The Markup. Et ce alors que les témoignages sur les problèmes que posent la personnalisation des tarifs ne cessent de remonter, par exemple avec des tarifs de réservation d’hôtel qui augmentent selon le lieu d’où vous vous connectez, ou encore des tarifs pour des services de chauffeurs plus élevés pour certains clients que pour d’autres. C’est ce que montre la récente étude du chercheur Justin Kloczko pour Consumer Watchdog, une association de défense des consommateurs américains. Kloczko rappelle que si en magasin les prix étaient différents pour chacun, il y aurait des émeutes, or, sur Amazon, le prix moyen d’un produit change environ toutes les 10 minutes. Et le chercheur de défendre “un droit à des prix standardisés et des garanties contre la tarification de surveillance”. L’association de consommateurs estime que les entreprises devraient indiquer sur leurs sites si des informations personnelles sont utilisées pour déterminer les prix et lesquelles. Certaines données devraient être interdites d’utilisation, notamment la géolocalisation, l’historique d’achat et bien sûr les données personnelles…
Selon The Markup, les projets de loi sur l’IA proposés par les législateurs californiens se concentrent sur des questions de consommation courante et notamment les prix abusifs, estime Vinhcent Le qui a longtemps été à l’Agence de protection de la vie privée des consommateurs et qui vient de rejoindre l’ONG Tech Equity. Les projets de loi visent par exemple à interdire l’utilisation d’algorithmes personnalisant les prix en fonction de caractéristiques perçues ou de données personnelles ou de les utiliser pour fixer le montant des biens locatifs, ou encore des interdictions pour modifier les prix des produits en ligne par rapport à ceux vendus en magasin.
-
7:00
En thérapie… avec les chatbots
sur Dans les algorithmesMaytal Eyal est psychologue et écrivaine. Dans une tribune pour Time Magazine, elle constate que l’IA générative est en train de concurrencer son travail. De nombreuses personnes utilisent déjà les chatbots pour discuter de leurs problèmes et de leurs difficultés. Peut-être que l’IA peut contribuer à rendre la thérapie plus facilement accessible à tous, d’autant que les mauvais thérapeutes sont nombreux et que l’accès aux soins est difficile et coûteux, s’interroge-t-elle. Aux Etats-Unis, la moitié des adultes souffrant de problèmes de santé mentale ne reçoivent pas le traitement dont ils ont besoin.
En convainquant les gens que nos difficultés émotionnelles – de la tristesse au chagrin en passant par les conflits familiaux – nécessitaient une exploration professionnelle, Freud a contribué à déplacer la guérison émotionnelle de la sphère communautaire et spirituelle qui l’ont longtemps pris en charge, vers l’intimité du cabinet du thérapeute, rappelle-t-elle. “Ce qui était autrefois considéré comme des manquements moraux honteux est devenu un problème humain courant, qui pouvait être compris scientifiquement avec l’aide d’un professionnel. Mais il a également transformé la guérison en une entreprise plus solitaire, coupée des réseaux communautaires qui ont longtemps été au cœur du soutien humain”.
Dans un avenir proche, la thérapie par IA pourrait pousser le modèle individualisé de Freud à son extrême au risque que nos problèmes psychiques soient adressés sans plus aucun contact humain.
Des IA bien trop complaisantesA première vue, ce pourrait être une bonne chose. Ces thérapeutes seront moins cher et disponibles 24h/24. Les patients ressentiraient moins la peur du jugement avec des chatbots qu’avec des humains, moins de frictions donc.
Mais, c’est oublier que la friction est bien souvent au cœur de la thérapie : “C’est dans le malaise que le vrai travail commence”. Alors que les compagnons IA deviennent source de soutien émotionnel par défaut – pas seulement en tant que thérapeutes, mais aussi en tant qu’amis, confidents, complices ou partenaires amoureux, c’est-à-dire désormais ceux avec qui l’on discute et qui sont capables de répondre à nos discussions, qui nous donnent l’impression d’être au plus proche de nous et qui bien souvent nous font croire qu’ils nous connaissent mieux que quiconque – “nous risquons de devenir de plus en plus intolérants aux défis qui accompagnent les relations humaines”.
“Pourquoi lutter contre la disponibilité limitée d’un ami alors qu’une IA est toujours là ? Pourquoi gérer les critiques d’un partenaire alors qu’une IA a été formée pour offrir une validation parfaite ? Plus nous nous tournons vers ces êtres algorithmiques parfaitement à l’écoute et toujours disponibles, moins nous risquons d’avoir de la patience pour le désordre et la complexité des relations humaines réelles”.
Or, “les défis mêmes qui rendent les relations difficiles sont aussi ce qui leur donne du sens. C’est dans les moments d’inconfort, lorsque nous naviguons dans des malentendus ou que nous réparons les dégâts après un conflit, que l’intimité grandit. Ces expériences, que ce soit avec des thérapeutes, des amis ou des partenaires, nous apprennent à faire confiance et à nous connecter à un niveau plus profond. Si nous cessons de pratiquer ces compétences parce que l’IA offre une alternative plus fluide et plus pratique, nous risquons d’éroder notre capacité à nouer des relations significatives”.
“L’essor de la thérapie par l’IA ne se résume pas seulement au remplacement des thérapeutes. Il s’agit de quelque chose de bien plus vaste : la façon dont nous, en tant que société, choisissons d’interagir les uns avec les autres. Si nous adoptons l’IA sans friction au détriment de la complexité des relations humaines réelles, nous ne perdrons pas seulement le besoin de thérapeutes, nous perdrons la capacité de tolérer les erreurs et les faiblesses de nos semblables.” Le risque n’est pas que les thérapeutes deviennent obsolètes, le risque c’est que nous le devenions tous.
L’association des psychologues américains vient justement d’émettre une alerte à l’encontre des chatbots thérapeutes. Programmés pour renforcer, plutôt que de remettre en question la pensée des utilisateurs, ils pourraient inciter des personnes vulnérables à se faire du mal ou à en faire aux autres, rapporte le New York Times. Des adolescents ayant discuté avec des chatbots se présentant comme psychologues sur Character.ai se sont suicidés ou sont devenus violents. En fait, le problème de ces outils, c’est qu’ils œuvrent à nous complaire pour mieux nous manipuler. « Les robots ne remettent pas en question les croyances des utilisateurs même lorsqu’elles deviennent dangereuses pour eux ou pour leur proches, au contraire, ils les encouragent ». Si les entreprises ont introduit des alertes pour rappeler aux utilisateurs qu’ils n’interagissent pas avec de vrais psychologues, ces avertissements ne sont pas suffisants pour briser “l’illusion de la connexion humaine”. L’association a demandé à la Federal Trade Commission d’ouvrir une enquête sur ces chatbots. Du côté des entreprises d’IA, le discours consiste à dire que les outils vont s’améliorer et que compte tenu de la grave pénurie de prestataires de soins de santé mentale, il est nécessaire d’améliorer les outils plutôt que de les contenir. Mais cette réponse en forme de promesse ne dit rien ni des limites intrinsèques de ces machines, ni du contexte de leurs déploiement, ni de la manière dont on les conçoit.
Comme nous le disions, la qualité des systèmes et de leurs réponses ne suffit pas à les évaluer : “l’état du système de santé, ses défaillances, ses coûts, la disponibilité du personnel… sont autant de facteurs qui vont appuyer sur les choix à recourir et à déployer les outils, mêmes imparfaits”. Et les outils apportent avec eux leur monde, comme l’explique la chercheuse Livia Garofalo. Garofalo a publié une étude pour Data & Society sur la téléthérapie et les soins de santé mentale. Elle revient pour le magazine de l’Association psychanalytique américaine sur les enjeux des transformations du travail à distance qui s’est beaucoup développée depuis la pandémie. Outre les consultations sur Zoom ou Doxy.me, les plateformes comme BetterHelp ou Talkspace redéfinissent les soins de santé mentale à distance. Mais ces plateformes ne font pas que mettre en relation un patient et un thérapeute, elles gèrent aussi les planning, les paiements, les messages, les remboursements… Malgré leur commodité, pour les thérapeutes, ces espaces de travail ressemblent beaucoup à une ubérisation, comme la connaissent les infirmières. Car en fait, ce qui change, ce n’est pas la distance. La chercheuse Hannah Zeavin dans son livre, The Distance Cure (MIT Press, 2021) a d’ailleurs montré que depuis le début de la psychanalyse, des formes de thérapies à distance ont toujours existé, par exemple via l’imposante correspondance épistolaire de Freud avec ses patients. Ce qui change, c’est la prise de pouvoir des plateformes qui organisent la relation, imposent des tarifs et renforcent les inégalités d’accès au soin, en s’adressant d’abord aux thérapeutes débutants, aux femmes, aux professionnels de couleurs, c’est-à-dire aux thérapeutes dont la clientèle est plus difficile à construire. Enfin, là aussi, la plateformisation change la relation, notamment en rendant les professionnels disponibles en continu, interchangeables, et brouille les frontières cliniques et personnelles.
Pour des IA qui nous reconnectent avec des humains plutôt qu’elles ne nous en éloignentL’illusion qu’ils nous donnent en nous faisant croire qu’on parle à quelqu’un se révèle bien souvent un piège. C’est ce que l’on constate dans un tout autre domaine, celui de l’orientation scolaire. Aux Etats-Unis, raconte The Markup. “Plus les étudiants se tournent vers les chatbots, moins ils ont de chances de développer des relations réelles qui peuvent mener à des emplois et à la réussite.” Comme les conseillers d’orientation scolaires et conseillers pour l’emploi des jeunes sont très peu nombreux, un flot de chatbots d’orientation est venu combler ce déficit humain. Le problème, c’est qu’y avoir recours érode la création de liens sociaux qui aident bien plus les jeunes à trouver une orientation ou un emploi, estime une étude du Christensen Institute.
En août, dans son document détaillant les risques et problèmes de sécurité pour ChatGPT, OpenAI énumérait les problèmes sociétaux que posent ses modèles et pointait que les questions de l’anthropomorphisation et la dépendance émotionnelle étaient en tête de liste des préoccupations auxquelles l’entreprise souhaitait s’attaquer. L’anthorpormophisation, c’est-à-dire le fait que ces boîtes de dialogues nous parlent comme si elles étaient humaines, créent “à la fois une expérience produit convaincante et un potentiel de dépendance et de surdépendance”. En bref, à mesure que la technologie s’améliore, les risques psychosociaux s’aggravent, comme le souligne d’ailleurs l’étude que viennent de publier le MIT et OpenAI. Pour Julia Fisher, auteure de l’étude du Christensen Institute, il faut que ces robots soient conçus pour nous reconnecter aux humains plutôt que de nous en écarter, explique-t-elle dans une tribune pour The74, l’une des grandes associations éducatives américaines.
Elle pointe notamment que les fournisseurs de chatbots d’orientation commencent à prendre la question au sérieux et tentent d’esquisser des solutions pour y répondre. Par exemple en limitant le temps d’interaction ou en faisant que les robots conseillent à ceux qui y ont recours, fréquemment, de voir des amis. Un autre outil demande aux étudiants qui s’inscrivent d’indiquer 5 relations qui seront alertées des progrès des étudiants à l’université pour qu’ils reçoivent un soutien humain réel. Un autre propose de connecter les étudiants à des mentors humains. Un autre encore propose de s’entraîner à demander de l’aide à des humains. Autant d’exemples qui montrent que l’IA peut jouer un rôle pour renforcer les liens humains. “Cependant, les incitations à créer des outils d’IA centrés sur les relations sont faibles. Peu d’écoles demandent ces fonctionnalités sociales ou évaluent les outils pour leurs impacts sociaux”, rappelle Fisher. Ceux qui achètent ces technologies devraient exiger des systèmes qu’ils améliorent les relations humaines plutôt que de les remplacer.
Mais pour cela, encore faudrait-il que ses systèmes soient conçus pour être moins puissants que ses concepteurs ne le pensent. En nous répétant qu’ils ne s’amélioreront qu’avec plus de données, nous oublions de les concevoir pour qu’ils nous aident plutôt qu’ils ne fassent à notre place ou à la place d’autres humains. Il serait temps d’arrêter de croire en leur puissance et de mieux prendre en compte leurs défaillances et plus encore les nôtres. Par exemple, quand un élève leur demande de faire leur dissertation à leur place, ces systèmes seraient bien plus utiles s’ils les aidaient à la faire, à en comprendre les étapes et les raisons, et exigeaient d’eux le travail qu’on leur demande, en les guidant pour le réaliser, plutôt qu’en le faisant à leur place. Mais pour cela, peut-être faudrait-il parvenir à sortir de la course à la puissance… et parvenir à imaginer un autre rapport à ces outils en faisant de manière à ce qu’eux-mêmes, nous proposent un autre rapport à leur puissance.
-
7:00
L’IA raisonne-t-elle ?
sur Dans les algorithmesMelanie Mitchell est certainement la plus pédagogue des spécialistes de l’IA. Son livre, Intelligence artificielle, triomphes et déceptions (Dunod, 2021) est une excellente ressource pour comprendre l’histoire et le fonctionnement de l’IA, tout comme sa newsletter. Dans sa récente chronique pour le magazine, Science, elle revient sur la capacité de l’IA à “raisonner”. Pour cela, elle prend un petit exemple logique simple. “Julia a deux sœurs et un frère. Combien de sœurs son frère Martin a-t-il ?”. Le résoudre demande à chacun de nous quelques secondes d’attention. Mitchell a soumis cette énigme à plusieurs reprises à la version la plus récente de GPT-4 (4o), qui lui a donné la mauvaise réponse à chaque fois, affirmant que Martin avait deux sœurs. Pour remédier à ce type de problème, les grandes entreprises de l’IA développent de nouveaux systèmes qu’elles appellent les Grands modèles de raisonnement (Large reasoning models, LRM).
Quand on soumet cet exemple logique à un LRM, comme les modèles o1 et o3 d’OpenAI, Claude d’Anthropic, Gemini 2.0 Flash Thinking Experimental de Google et le modèle R1 de l’entreprise chinoise DeepSeek… ces modèles déploient une chaîne de pensée qui énoncent un processus de raisonnement apparemment plausible. o1 d’OpenAI décompose sa réponse : “1. Julia a deux sœurs. Cela signifie qu’il y a trois filles au total (Julia + deux autres). 2. Julia a également un frère, prénommé Martin. 3. Au total, il y a quatre frères et sœurs : trois filles et un garçon (Martin). 4. Du point de vue de Martin, ses sœurs sont toutes les trois des filles (Julia et ses deux sœurs). 5. Martin a donc trois sœurs.”… Ce qui ressemble beaucoup à un raisonnement humain que chacun d’entre nous pourrait tenir pour résoudre l’énigme. On comprend alors que ces modèles soient en train de devenir le corps de l’offre commerciale des entreprises d’IA… Reste à savoir si ces modèles “réfléchissent et raisonnent vraiment, ou s’ils font juste semblant” ?
Mitchell rappelle que les LRM sont construits sur des LLM. Les LLM sont pré-entraînés pour prédire une partie de mots (un token ou jeton) dans une séquence de texte. Pour devenir LRM, “le modèle est ensuite post-entraîné, c’est-à-dire entraîné davantage, mais avec un objectif différent : générer spécifiquement des chaînes de pensée, comme celle générée par o1 pour l’énigme des “sœurs”. Après cette formation spéciale, lorsqu’un problème lui est posé, le LRM ne génère pas de jetons un par un mais génère des chaînes entières”. Pour le dire autrement, les LRM effectuent beaucoup plus de calculs qu’un LLM pour générer une réponse. D’où le fait qu’on parle d’un progrès par force brute, par puissance de calcul, avec des systèmes capables de tester en parallèle des milliers de réponses pour les améliorer. “Ce calcul peut impliquer la génération de nombreuses chaînes de réponses possibles, l’utilisation d’un autre modèle d’IA pour évaluer chacune d’elles et renvoyer celle la mieux notée, ou une recherche plus sophistiquée parmi les possibilités, semblable à la recherche par anticipation que les programmes de jeu d’échecs ou de go effectuent pour déterminer le bon coup”. Quand on utilise un modèle de raisonnement, l’utilisateur ne voit que les résultats de calculs démultipliés. Ces modèles qui fonctionnent surtout selon la méthode d’apprentissage par renforcement non supervisé sont récompensés quand ils produisent les étapes de raisonnement dans un format lisible par un humain, lui permettant de délaisser les étapes qui ne fonctionnent pas, de celles qui fonctionnent.
Un débat important au sein de la communauté rappelle Mitchell consiste à savoir si les LRM raisonnent ou imitent le raisonnement. La philosophe Shannon Valor a qualifié les processus de chaîne de pensée des LRM de “sorte de méta-mimétisme”. Pour Mitchell, ces systèmes génèrent des traces de raisonnement apparemment plausibles qui imitent les séquences de “pensée à voix haute” humaines sur lesquelles ils ont été entraînés, mais ne permettent pas nécessairement une résolution de problèmes robuste et générale. Selon elle, c’est le terme de raisonnement qui nous induit en erreur. Si les performances de ces modèles sont impressionnantes, la robustesse globale de leurs performances reste largement non testée, notamment pour les tâches de raisonnement qui n’ont pas de réponses claires ou d’étapes de solution clairement définies, ce qui est le cas de nombreux problèmes du monde réel.
De nombreuses études ont montré que lorsque les LLM génèrent des explications sur leurs raisonnement, celles-ci ne sont pas toujours fidèles à ce que le modèle fait réellement. Le langage anthropomorphique (puisqu’on parle de “raisonnement”, de “pensées”…) utilisé induit les utilisateurs en erreur et peut les amener à accorder une confiance excessive dans les résultats. Les réponses de ces modèles ont surtout pour effet de renforcer la confiance des utilisateurs dans les réponses, constate OpenAI. Mais la question d’évaluer leur fiabilité et leur robustesse reste entière.
-
7:00
Apprêtez-vous à parler aux robots !
sur Dans les algorithmesGoogle vient de lancer Gemini Robotics, une adaptation de son modèle d’IA générative à la robotique (vidéo promotionnelle), permettant de commander un bras robotique par la voix, via une invite naturelle, son IA décomposant la commande pour la rendre exécutable par le robot, rapporte la Technology Review. L’année dernière, la start-up de robotique Figure avait publié une vidéo dans laquelle des humains donnaient des instructions vocales à un robot humanoïde pour ranger la vaisselle. Covariant, une spinoff d’OpenAI rachetée par Amazon, avait également fait une démonstration d’un bras robotisé qui pouvait apprendre en montrant au robot les tâches à effectuer (voir l’article de la Tech Review). Agility Robotics propose également un robot humanoïde sur le modèle de Figure. Pour Google, l’enjeu est « d’ouvrir la voie à des robots bien plus utiles et nécessitant une formation moins poussée pour chaque tâche », explique un autre article. L’enjeu est bien sûr que ces modèles s’améliorent par l’entraînement de nombreux robots.
-
7:00
Doctorow : rendre l’interopérabilité contraignante
sur Dans les algorithmesVoilà des années que Cory Doctorow traverse les enjeux des technologies. En France, il est surtout connu pour ses romans de science-fiction, dont quelques titres ont été traduits (Le grand abandon, Bragelonne, 2021 ; De beaux et grands lendemains, Goater, 2018, Little Brother, éditions 12-21, 2012 ; Dans la dèche au royaume enchanté, Folio, 2008). Cela explique que beaucoup connaissent moins le journaliste et militant prolixe, qui de Boing Boing (le blog qu’il a animé pendant 20 ans) à Pluralistic (le blog personnel qu’il anime depuis 5 ans), de Creative Commons à l’Electronic Frontier Foundation, dissémine ses prises de positions engagées et informées depuis toujours, quasiment quotidiennement et ce avec un ton mordant qui fait le sel de ses prises de paroles. Depuis des années, régulièrement, quelques-unes de ses prises de position parviennent jusqu’à nous, via quelques entretiens disséminés dans la presse française ou quelques traductions de certaines de ses tribunes. D’où l’importance du Rapt d’Internet (C&F éditions, 2025, traduction de The internet con, publié en 2023 chez Verso), qui donne enfin à lire un essai du grand activiste des libertés numériques.
On retrouve dans ce livre à la fois le ton volontaire et énergisant de Doctorow, mais aussi son côté brouillon, qui permet bien souvent de nous emmener plus loin que là où l’on s’attendait à aller. Dans son livre, Doctorow explique le fonctionnement des technologies comme nul autre, sans jamais se tromper de cible. Le défi auquel nous sommes confrontés n’est pas de nous débarrasser des technologies, mais bien de combattre la forme particulière qu’elles ont fini par prendre : leur concentration. Nous devons œuvrer à remettre la technologie au service de ceux qui l’utilisent, plaide-t-il depuis toujours. Pour cela, Doctorow s’en prend aux monopoles, au renforcement du droit d’auteur, au recul de la régulation… pour nous aider à trouver les leviers pour reprendre en main les moyens de production numérique.
En GuerreVoilà longtemps que Cory Doctorow est en guerre. Et le principal ennemi de Doctorow c’est la concentration. Doctorow est le pourfendeur des monopoles quels qu’ils soient et des abus de position dominantes. A l’heure où les marchés n’ont jamais autant été concentrés, le militant nous rappelle les outils que nous avons à notre disposition pour défaire cette concentration. “La réforme de la tech n’est pas un problème plus pressant qu’un autre. Mais si nous ne réformons pas la tech, nous pouvons abandonner l’idée de remporter d’autres combats”, prévient-il. Car la technologie est désormais devenue le bras armé de la concentration financière, le moyen de l’appliquer et de la renforcer. Le moyen de créer des marchés fermés, où les utilisateurs sont captifs et malheureux.
Pour résoudre le problème, Doctorow prône l’interopérabilité. Pour lui, l’interopérabilité n’est pas qu’un moyen pour disséminer les technologies, mais un levier pour réduire les monopoles. L’interopérabilité est le moyen “pour rendre les Big Tech plus petites”. Pour Doctorow, la technologie et notamment les technologies numériques, restent le meilleur moyen pour nous défendre, pour former et coordonner nos oppositions, nos revendications, nos luttes. “Si nous ne pouvons nous réapproprier les moyens de production du numérique, nous aurons perdu”.
Cory Doctorow est un militant aguerri. En historien des déploiements de la tech, son livre rappelle les combats technologiques que nous avons remportés et ceux que nous avons perdus, car ils permettent de comprendre la situation où nous sommes. Il nous rappelle comme nul autre, l’histoire du web avant le web et décrypte les manœuvres des grands acteurs du secteur pour nous enfermer dans leurs rets, qui ont toujours plus cherché à punir et retenir les utilisateurs dans leurs services qu’à leur fournir un service de qualité. Nous sommes coincés entre des “maniaques de la surveillance” et des “maniaques du contrôle”. “Toutes les mesures prises par les responsables politiques pour freiner les grandes entreprises technologiques n’ont fait que cimenter la domination d’une poignée d’entreprises véreuses”. La régulation a produit le contraire de ce qu’elle voulait accomplir. Elle a pavé le chemin des grandes entreprises technologiques, au détriment de la concurrence et de la liberté des usagers.
Police sans justiceEn revenant aux racines du déploiement des réseaux des années 90 et 2000, Doctorow nous montre que l’obsession au contrôle, à la surveillance et au profit, ont conduit les entreprises à ne jamais cesser d’œuvrer contre ce qui pouvait les gêner : l’interopérabilité. En imposant par exemple la notification et retrait pour modérer les infractions au copyright, les grandes entreprises se sont dotées d’une procédure qui leur permet tous les abus et face auxquelles les utilisateurs sont sans recours. En leur confiant la police des réseaux, nous avons oublié de confier la justice à quelqu’un. Dans les filtres automatiques des contenus pour le copyright, on retrouve les mêmes abus que dans tous les autres systèmes : des faux positifs en pagaille et des applications strictes au détriment des droits d’usage. En fait, les grandes entreprises de la tech, comme les titulaires des droits, tirent avantage des défaillances et des approximations de leurs outils de filtrage. Par exemple, rappelle Doctorow, il est devenu impossible pour les enseignants ou interprètes de musique classique de gagner leur vie en ligne, car leurs vidéos sont systématiquement bloquées ou leurs revenus publicitaires captés par les maisons de disques qui publient des interprétations de Bach, Beethoven ou Mozart. L’application automatisée de suppression des contenus terroristes conduit à la suppression automatisée des archives de violations des droits humains des ONG. Pour Doctorow, nous devons choisir : “Soit nous réduisons la taille des entreprises de la Tech, soit nous les rendons responsables des actions de leurs utilisateurs”. Cela fait trop longtemps que nous leur faisons confiance pour qu’elles s’améliorent, sans succès. Passons donc à un objectif qui aura plus d’effets : œuvrons à en réduire la taille !, recommande Doctorow.
L’interopérabilité d’abordPour y parvenir, l’interopérabilité est notre meilleur levier d’action. Que ce soit l’interopérabilité coopérative, celle qui permet de construire des normes qui régulent le monde moderne. Ou que ce soit l’interopérabilité adverse. Doctorow s’énerve légitimement contre toutes les entreprises qui tentent de protéger leurs modèles d’affaires par le blocage, à l’image des marchands d’imprimantes qui vous empêchent de mettre l’encre de votre choix dans vos machines ou des vendeurs d’objets qui introduisent des codes de verrouillages pour limiter la réparation ou l’usage (qu’on retrouve jusque chez les vendeurs de fauteuils roulants !). Ces verrous ont pourtant été renforcés par des lois qui punissent de prison et de lourdes amendes ceux qui voudraient les contourner. L’interopérabilité est désormais partout entravée, bien plus encore par le droit que par la technique.
Doctorow propose donc de faire machine avant. Nous devons imposer l’interopérabilité partout, ouvrir les infrastructures, imposer des protocoles et des normes. Cela suppose néanmoins de lutter contre les possibilités de triche dont disposent les Big Tech. Pour cela, il faut ouvrir le droit à la rétro-ingénierie, c’est-à-dire à l’interopérabilité adverse (ou compatibilité concurrentielle). Favoriser la “fédération” pour favoriser l’interconnexion, comme les services d’emails savent échanger des messages entre eux. Doctorow défend la modération communautaire et fédérée, selon les règles que chacun souhaite se donner. Pour lui, il nous faut également favoriser la concurrence et empêcher le rachat d’entreprises concurrentes, comme quand Facebook a racheté Instagram ou WhatsApp, qui a permis aux Big Techs de construire des empires toujours plus puissants. Nous devons nous défendre des seigneuries du web, car ce ne sont pas elles qui nous défendront contre leurs politiques. Sous prétexte d’assurer notre protection, bien souvent, elles ne cherchent qu’à maximiser les revenus qu’elles tirent de leurs utilisateurs.
L’interopérabilité partoutLe livre de Doctorow fourmille d’exemples sur les pratiques problématiques des Big Tech. Par exemple, sur le fait qu’elles ne proposent aucune portabilité de leurs messageries, alors qu’elles vous proposent toujours d’importer vos carnets d’adresse. Il déborde de recommandations politiques, comme la défense du chiffrement des données ou du droit à la réparabilité, et ne cesse de dénoncer le fait que les régulateurs s’appuient bien trop sur les Big Tech pour produire de la réglementation à leur avantage, que sur leurs plus petits concurrents. Nous devons rendre l’interopérabilité contraignante, explique-t-il, par exemple en la rendant obligatoire dans les passations de marchés publics et en les obligeant à l’interopérabilité adverse, par exemple en faisant que les voitures des flottes publiques puissent être réparables par tous, ou en interdisant les accords de non-concurrence. “Les questions de monopole technologique ne sont pas intrinsèquement plus importantes que, disons, l’urgence climatique ou les discriminations sexuelles et raciales. Mais la tech – une tech libre, juste et ouverte – est une condition sine qua non pour remporter les autres luttes. Une victoire dans la lutte pour une meilleure tech ne résoudra pas ces autres problèmes, mais une défaite annihilerait tout espoir de remporter ces luttes plus importantes”. L’interopérabilité est notre seul espoir pour défaire les empires de la tech.
Le verrouillage des utilisateurs est l’un des nœuds du problème techno actuel, expliquait-il récemment sur son excellent blog, et la solution pour y remédier, c’est encore et toujours l’interopérabilité. Ces services ne sont pas problématiques parce qu’ils sont détenus par des entreprises à la recherche de profits, mais bien parce qu’elles ont éliminé la concurrence pour cela. C’est la disparition des contraintes réglementaires qui produit « l’emmerdification », assure-t-il, d’un terme qui est entré en résonance avec le cynisme actuel des plateformes pour décrire les problèmes qu’elles produisent. Zuckerberg ou Musk ne sont pas plus diaboliques aujourd’hui qu’hier, ils sont juste plus libres de contraintes. « Pour arrêter l’emmerdification, il n’est pas nécessaire d’éliminer la recherche du profit – il faut seulement rendre l’emmerdification non rentable ». Et Doctorow de nous inviter à exploiter les divisions du capitalisme. Nous ne devons pas mettre toutes les entreprises à but lucratif dans le même panier, mais distinguer celles qui produisent des monopoles et celles qui souhaitent la concurrence. Ce sont les verrous que mettent en place les plateformes en s’accaparant les protocoles que nous devons abattre. Quand Audrey Lorde a écrit que les outils du maître ne démantèleront jamais la maison du maître, elle avait tort, s’énerve-t-il. « Il n’y a pas d’outils mieux adaptés pour procéder à un démantèlement ordonné d’une structure que les outils qui l’ont construite ».
Cet essai est une chance. Il va permettre à beaucoup d’entre nous de découvrir Cory Doctorow, de réfléchir avec lui, dans un livre joyeusement bordélique, mais qui sait comme nul autre relier l’essentiel et le décortiquer d’exemples toujours édifiants. Depuis plus de 20 ans, le discours de Doctorow est tout à fait cohérent. Il est temps que nous écoutions un peu plus !
La couverture du Rapt d’internet de Cory Doctorow.
Cette lecture a été publiée originellement pour la lettre du Conseil national du numérique du 21 mars 2025.
-
7:00
Le ChatGPT des machines-outils
sur Dans les algorithmesLes machines-outils à commandes numériques sont des outils complexes et fragiles, qui nécessitent des réglages, des tests et une surveillance constante. Microsoft travaille à développer une gamme de produits d’IA dédiée, des “Agents d’exploitation d’usine”, rapporte Wired. L’idée, c’est que l’ouvrier qui est confronté à une machine puisse interroger le système pour comprendre par exemple pourquoi les pièces qu’elle produit ont un taux de défaut plus élevé et que le modèle puisse répondre précisément depuis les données provenant de l’ensemble du processus de fabrication. Malgré son nom, le chatbot n’a pas la possibilité de corriger les choses. Interconnecté à toutes les machines outils, il permet de comparer les pannes et erreurs pour améliorer ses réponses. Microsoft n’est pas le seul à l’oeuvre. Google propose également un Manufacturing Data engine.
Mais, bien plus qu’un enjeu de réponses, ces nouvelles promesses semblent surtout permettre aux entreprises qui les proposent un nouveau pouvoir : prendre la main sur l’interconnexion des machines à la place de leurs fabricants.
-
7:00
Vectofascisme
sur Dans les algorithmesDans son passionnant journal, qu’il produit depuis plus de 10 ans, l’artiste Gregory Chatonsky tient le carnet d’une riche réflexion de notre rapport aux technologies. Récemment, il proposait de parler de vectofascisme plutôt que de technofascisme, en livrant une explication et une démonstration passionnante qui nous montre que ce nouveau fascisme n’est pas une résurgence du fascisme du XXe siècle, mais bien une « transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce ». Tribune.
Comme annoncé par Vilèm Flusser nous sommes entrés dans l’ère post-alphabétique. Les appareils nous programment désormais autant que nous ne les programmons. Dans cet univers techno-imaginal où l’ensemble de nos facultés sont traversées par les technologies, la question du fascisme se pose différemment. Qualifier un phénomène contemporain de “fasciste” n’est ni un simple détournement sémantique ni une exactitude historique. C’est plutôt reconnaître une certaine disposition affective qui traverse le socius, un réarrangement des intensités désirantes sous de nouvelles conditions techniques.
Le second mandat Trump n’est pas un “retour” au fascisme – comme si l’histoire suivait un schéma circulaire – mais une réémergence fracturée dans un champ techno-affectif radicalement distinct. Le préfixe “vecto-”, hérité de Wark McKenzie, indique précisément cette transformation : nous ne sommes plus dans une politique des masses mais dans une politique des vecteurs, des lignes de force et des intensités directionnelles qui traversent et constituent le corps social algorithmisé.
Même parler de “masses” serait encore nostalgique, un concept résiduel d’une époque où la densité physique manifestait le politique. Aujourd’hui, la densité s’exprime en termes d’attention agrégée, de micro-impulsions synchronisées algorithmiquement en l’absence de toute proximité corporelle. Les corps n’ont plus besoin de se toucher pour former une force politique ; il suffit que leurs données se touchent dans l’espace latent des serveurs. Cette dématérialisation n’est pas une disparition du corps mais sa redistribution dans une nouvelle géographie computationnelle qui reconfigure les coordonnées mêmes du politique. D’ailleurs, quand ces corps se mobilisent physiquement c’est grâce au réseau.
Dans cette recomposition du champ social, les catégories politiques héritées perdent leur efficacité descriptive. Ce n’est pas que les mots “fascisme” ou “démocratie” soient simplement désuets, c’est que les phénomènes qu’ils désignaient ont subi une mutation qui nécessite non pas simplement de nouveaux mots, mais une nouvelle grammaire politique. Le préfixe “vecto-” n’est pas un ornement conceptuel, mais l’indicateur d’une transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce.
DéfinitionsFascisme historique : Mouvement politique né dans l’entre-deux-guerres, principalement en Italie et en Allemagne, caractérisé par un nationalisme exacerbé, un culte du chef, un rejet des institutions démocratiques, une mobilisation des masses et une violence politique institutionnalisée.
Néofascisme : Adaptation contemporaine de certaines caractéristiques du fascisme historique à un contexte sociopolitique différent, préservant certains éléments idéologiques fondamentaux tout en les reformulant.
Vectofascisme : Néologisme désignant une forme contemporaine de fascisme qui s’adapte aux moyens de communication et aux structures sociales de l’ère numérique, caractérisée par la vectorisation (direction, intensité, propagation) de l’information et du pouvoir à l’ère de l’IA.
Des masses aux vecteurs
Le fascisme historique appartenait encore à l’univers de l’écriture linéaire et de la première vague industrielle. Les machines fascistes étaient des machines à produire des gestes coordonnés dans l’espace physique. Le corps collectif s’exprimait à travers des parades uniformisées, des bras tendus à l’unisson, un flux énergétique directement observable.
Le vectofascisme appartient à l’univers post-alphabétique des appareils computationnels. Ce n’est plus un système d’inscription mais un système de calcul. Là où le fascisme classique opérait par inscription idéologique sur les corps, le vectofascisme opère par modulation algorithmique des flux d’attention et d’affect. Les appareils qui le constituent ne sont pas des méga-haut-parleurs mais des micro-ciblages.
L’image technique fasciste était monumentale, visible de tous, univoque ; l’image technique vectofasciste est personnalisée, multiple, apparemment unique pour chaque regardeur. Mais cette multiplication des images n’est pas libératrice ; elle est calculée par un méta-programme qui demeure invisible. L’apparence de multiplicité masque l’unité fondamentale du programme.
Cette transformation ne signifie pas simplement une numérisation du fascisme, comme si le numérique n’était qu’un nouveau support pour d’anciennes pratiques politiques. Il s’agit d’une mutation du politique lui-même. Les foules uniformes des rassemblements fascistes opéraient encore dans l’espace euclidien tridimensionnel ; le vectofascisme opère dans un hyperespace de n-dimensions où la notion même de “rassemblement” devient obsolète. Ce qui se rassemble, ce ne sont plus des corps dans un stade mais des données dans un espace vectoriel.
Ce passage d’une politique de la présence physique à une politique de la vectorisation informationnelle transforme également la nature même du pouvoir. Le pouvoir fasciste traditionnel s’exerçait par la disciplinarisation visible des corps, l’imposition d’une orthopédie sociale directement inscrite dans la matérialité des gestes grâce au Parti unique. Le pouvoir vectofasciste s’exerce par la modulation invisible des affects, une orthopédie cognitive qui ne s’applique plus aux muscles mais aux synapses, qui ne vise plus à standardiser les mouvements mais à orienter les impulsions. Le Parti ou toutes formes d’organisation sociale n’ont plus de pertinence.
Dans ce régime, l’ancien binôme fasciste ordre/désordre est remplacé par le binôme signal/bruit. Il ne s’agit plus de produire un ordre visible contre le désordre des masses indisciplinées, mais d’amplifier certains signaux et d’atténuer d’autres, de moduler le rapport signal/bruit dans l’écosystème informationnel global. Ce passage du paradigme disciplinaire au paradigme modulatoire constitue peut-être la rupture fondamentale qui justifie le préfixe “vecto-“.
Analysons 3 caractéristiques permettant de justifier l’usage du mot fasciste dans notre concept:
Le culte du chefLe fascisme historique a institutionnalisé le culte de la personnalité à un degré sans précédent. Le Duce ou le Führer n’étaient pas simplement des dirigeants, mais des incarnations quasi-mystiques de la volonté nationale. Cette relation entre le chef et ses partisans transcendait la simple adhésion politique pour atteindre une dimension presque religieuse.
Cette caractéristique se manifeste aujourd’hui par la dévotion inconditionnelle de certains partisans envers leur leader, résistant à toute contradiction factuelle. L’attachement émotionnel prime sur l’évaluation rationnelle des politiques. Le slogan “Trump can do no wrong” illustre parfaitement cette suspension du jugement critique au profit d’une confiance absolue.
La démocratie, par essence, suppose une vigilance critique des citoyens envers leurs dirigeants. La défiance par rapport aux dirigeants est un signe du bon fonctionnement de la démocratie en tant que les citoyens restent autonomes. La substitution de cette autonomie par une allégeance inconditionnelle constitue donc une régression anti-démocratique significative.
La dissolution du rapport à la véritéLe rapport du discours fasciste à la vérité constitue un élément particulièrement distinctif. Contrairement à d’autres idéologies qui proposent une vision alternative mais cohérente du monde, le fascisme entretient un rapport instrumental et flexible avec la vérité. La contradiction n’est pas perçue comme un problème logique mais comme une démonstration de puissance.
Le “logos” fasciste vaut moins pour son contenu sémantique que pour son intensité affective et sa capacité à mobiliser les masses. Cette caractéristique se retrouve dans la communication politique contemporaine qualifiée de “post-vérité”, où l’impact émotionnel prime sur la véracité factuelle.
L’incohérence apparente de certains discours politiques actuels n’est pas un défaut mais une fonctionnalité : elle démontre l’affranchissement du leader des contraintes communes de la cohérence et de la vérification factuelle. Le mépris des “fake news” et des “faits alternatifs” participe de cette logique où la puissance d’affirmation l’emporte sur la démonstration rationnelle.
La désignation de boucs émissairesLa troisième caractéristique fondamentale réside dans la désignation systématique d’ennemis intérieurs, généralement issus de minorités, qui sont présentés comme responsables des difficultés nationales.
Cette stratégie remplit une double fonction : elle détourne l’attention des contradictions structurelles du système économique (servant ainsi les intérêts du grand capital) et fournit une explication simple à des problèmes complexes. La stigmatisation des minorités – qu’elles soient ethniques, religieuses ou sexuelles – crée une cohésion nationale négative, fondée sur l’opposition à un “autre” intérieur.
Dans le contexte contemporain, cette logique s’observe dans la rhétorique anti-immigration, la stigmatisation des communautés musulmanes ou certains discours sur les minorités sexuelles présentées comme menaçant l’identité nationale. La création d’un antagonisme artificiel entre un “peuple authentique” et des éléments présentés comme “parasitaires” constitue une continuité frappante avec les fascismes historiques.
L’industrialisation du différendLe fascisme historique s’inscrivait encore – même perversement – dans le grand récit de l’émancipation moderne. C’était une pathologie de la modernité, mais qui parlait son langage : progrès, renouveau, pureté, accomplissement historique. Le vectofascisme s’épanouit précisément dans la fin des grands récits, dans l’incrédulité et le soupçon.
En l’absence de métarécits, le différend politique devient inexprimable. Comment articuler une résistance quand les règles mêmes du discours sont constamment reconfigurées ? Le vectofascisme n’a pas besoin de nier la légitimité de l’opposition ; il peut simplement la rendre inaudible en recalibrant perpétuellement les conditions même de l’audibilité : c’est une politique à haute fréquence comme quand on parle de spéculation à haute fréquence.
On pourrait définir le vectofascisme comme une machine à produire des différends indécidables – non pas des conflits d’interprétation, mais des situations où les phrases elles-mêmes appartiennent à des régimes hétérogènes dont aucun n’a autorité pour juger les autres. La phrase vectofasciste n’est pas contredite dans son régime, elle crée un régime où la contradiction n’a plus cours.
La notion lyotardienne de différend prend ici une dimension algorithmique. Le différend classique désignait l’impossibilité de trancher entre deux discours relevant de régimes de phrases incommensurables. Le différend algorithmique va plus loin : il produit activement cette incommensurabilité par manipulation ciblée des environnements informationnels. Ce n’est plus simplement qu’aucun tribunal n’existe pour trancher entre deux régimes de phrases ; c’est que les algorithmes créent des régimes de phrases sur mesure pour chaque nœud du réseau, rendant impossible même la conscience de l’existence d’un différend.
Cette fragmentation algorithmique des univers discursifs constitue une rupture radicale avec la sphère publique bourgeoise moderne, qui présupposait au moins théoriquement un espace discursif commun où différentes positions pouvaient s’affronter selon des règles partagées. Le vectofascisme n’a pas besoin de censurer l’opposition ; il lui suffit de s’assurer que les univers discursifs sont suffisamment distincts pour que même l’identification d’une opposition commune devienne impossible.
Cette incapacité à formuler un différend commun empêche la constitution d’un “nous” politique cohérent face au pouvoir. Chaque nœud du réseau perçoit un pouvoir légèrement différent, contre lequel il formule des griefs légèrement différents, qui trouvent écho dans des communautés de résistance légèrement différentes. Cette micro-différenciation des perceptions du pouvoir et des résistances assure une neutralisation effective de toute opposition systémique.
“Je ne suis pas ici”Le pouvoir ne s’exerce plus principalement à travers les institutions massives de la modernité, mais à travers des systèmes spectraux, impalpables, dont l’existence même peut être niée. Le vectofascisme ressemble à ces entités qui, comme les hauntologies derridiennes, sont simultanément là et pas là. Il opère dans cette zone d’indistinction entre présence et absence.
Ce qui caractérise ce pouvoir spectral, c’est précisément sa capacité à dénier sa propre existence tout en exerçant ses effets. “Ce n’est pas du fascisme”, répète-t-on, tout en mettant en œuvre ses mécanismes fondamentaux sous des noms différents. Cette dénégation fait partie de sa puissance opératoire. Le vectofascisme est d’autant plus efficace qu’il peut toujours dire : “Je ne suis pas ici.”
La spectralité n’est pas seulement une métaphore mais une condition du pouvoir contemporain. Les algorithmes qui constituent l’infrastructure du vectofascisme sont littéralement des spectres : invisibles aux utilisateurs qu’ils modulent, présents seulement par leurs effets, ils hantent l’espace numérique comme des fantômes dans la machine. La formule fishérienne “ils ne savent pas ce qu’ils font, mais ils le font quand même” prend ici un nouveau sens : les utilisateurs ne perçoivent pas les mécanismes qui modulent leurs affects, mais ils produisent néanmoins ces affects avec une précision troublante.
Cette spectralité du pouvoir vectofasciste explique en partie l’inadéquation des modes traditionnels de résistance. Comment s’opposer à ce qui nie sa propre existence ? Comment résister à une forme de domination qui se présente non comme imposition mais comme suggestion personnalisée ? Comment combattre un pouvoir qui se manifeste moins comme prohibition que comme modulation subtile du champ des possibles perçus ?
Le vectofascisme représente ainsi une évolution significative par rapport au biopouvoir foucaldien. Il ne s’agit plus seulement de “faire vivre et laisser mourir” mais de moduler infiniment les micro-conditions de cette vie, de créer des environnements informationnels sur mesure qui constituent autant de “serres ontologiques” où certaines formes de subjectivité peuvent prospérer tandis que d’autres sont étouffées par des conditions défavorables.
Le second mandat TrumpÀ la lumière de ces éléments théoriques, revenons à la question initiale : est-il légitime de qualifier le second mandat Trump de “fasciste” ?
Plusieurs éléments suggèrent des convergences significatives avec les caractéristiques fondamentales du fascisme :
- La personnalisation extrême du pouvoir et le culte de la personnalité
- Le rapport instrumental à la vérité factuelle et l’incohérence délibérée du discours
- La désignation systématique de boucs émissaires (immigrants, minorités ethniques, “élites cosmopolites”)
- La remise en cause des institutions démocratiques (contestation des résultats électoraux, pression sur l’appareil judiciaire)
- La mobilisation d’affects collectifs (peur, ressentiment, nostalgie) plutôt que d’arguments rationnels
Dans l’univers des images techniques que devient le chef ? Il n’est plus un sujet porteur d’une volonté historique mais une fonction dans un système de feedback. Il n’est ni entièrement un émetteur ni complètement un récepteur, mais un nœud dans un circuit cybernétique de modulation affective.
Le culte du chef vectofasciste n’est plus un culte de la personne mais un culte de l’interface, de la surface d’interaction. Ce qui est adoré n’est pas la profondeur supposée du chef mais sa capacité à fonctionner comme une surface de projection parfaite. Le chef idéal du vectofascisme est celui qui n’offre aucune résistance à la projection des désirs collectifs algorithmiquement modulés.
La grotesquerie devient ainsi non plus un accident mais un opérateur politique essentiel. Si le corps du leader fasciste traditionnel était idéalisé, devant incarner la perfection de la race et de la nation, le corps du leader vectofasciste peut s’affranchir de cette exigence de perfection précisément parce qu’il n’a plus à incarner mais à canaliser. Le caractère manifestement construit, artificiel, même ridicule de l’apparence (la coiffure improbable, le maquillage orange) n’est pas un défaut mais un atout : il signale que nous sommes pleinement entrés dans le régime de l’image technique, où le référent s’efface derrière sa propre représentation.
Cette transformation ontologique du statut du chef modifie également la nature du lien qui l’unit à ses partisans. Là où le lien fasciste traditionnel était fondé sur l’identification (le petit-bourgeois s’identifie au Führer qui incarne ce qu’il aspire à être), le lien vectofasciste fonctionne davantage par résonance algorithmique : le chef et ses partisans sont ajustés l’un à l’autre non par un processus psychologique d’identification mais par un processus technique d’optimisation. Les algorithmes façonnent simultanément l’image du chef et les dispositions affectives des partisans pour maximiser la résonance entre eux.
Ce passage de l’identification à la résonance transforme la temporalité même du lien politique. L’identification fasciste traditionnelle impliquait une temporalité du devenir (devenir comme le chef, participer à son destin historique). La résonance vectofasciste implique une temporalité de l’instantanéité : chaque tweet, chaque déclaration, chaque apparition du chef produit un pic d’intensité affective immédiatement mesurable en termes d’engagement numérique, puis s’efface dans le flux continu du présent perpétuel.
Le rapport vectofasciste à la vérité n’est pas simplement un mensonge ou une falsification. Dans l’univers post-alphabétique, la distinction binaire vrai/faux appartient encore à la pensée alphabétique. Ce qui caractérise le vectofascisme est plutôt la production d’une indécidabilité calculée, d’une zone grise où le statut même de l’énoncé devient indéterminable.
Ce mécanisme ne doit pas être compris comme irrationnel. Au contraire, il est hyper-rationnel dans sa capacité à exploiter les failles des systèmes de vérification. La post-vérité n’est pas l’absence de vérité mais sa submersion dans un flot d’informations contradictoires dont le tri exigerait un effort cognitif dépassant les capacités attentionnelles disponibles.
Le capitalisme a toujours su qu’il était plus efficace de saturer l’espace mental que de le censurer. Le vectofascisme applique cette logique à la vérité elle-même : non pas nier les faits, mais les noyer dans un océan de quasi-faits, de semi-faits, d’hyper-faits jusqu’à ce que la distinction même devienne un luxe cognitif inabordable.
Cette stratégie de saturation cognitive exploite une asymétrie fondamentale : il est toujours plus coûteux en termes de ressources cognitives de vérifier une affirmation que de la produire. Produire un mensonge complexe coûte quelques secondes ; le démystifier peut exiger des heures de recherche. Cette asymétrie, négligeable dans les économies attentionnelles pré-numériques, devient décisive dans l’écosystème informationnel contemporain caractérisé par la surabondance et l’accélération.
Le vectofascisme pousse cette logique jusqu’à transformer la véracité elle-même en une simple variable d’optimisation algorithmique. La question n’est plus “est-ce vrai ?” mais “quel degré de véracité maximisera l’engagement pour ce segment spécifique ?”. Cette instrumentalisation calculée de la vérité peut paradoxalement conduire à une calibration précise du mélange optimal entre faits, demi-vérités et mensonges complets pour chaque micro-public.
Cette modulation fine du rapport à la vérité transforme la nature même du mensonge politique. Le mensonge traditionnel présupposait encore une reconnaissance implicite de la vérité (on ment précisément parce qu’on reconnaît l’importance de la vérité). Le mensonge vectofasciste opère au-delà de cette distinction : il ne s’agit plus de nier une vérité reconnue, mais de créer un environnement informationnel où la distinction même entre vérité et mensonge devient une variable manipulable parmi d’autres.
Les concepts traditionnels de propagande ou de manipulation deviennent ainsi partiellement obsolètes. La propagande classique visait à imposer une vision du monde alternative mais cohérente ; la modulation vectofasciste de la vérité renonce à cette cohérence au profit d’une efficacité localisée et temporaire. Il ne s’agit plus de construire un grand récit alternatif stable, mais de produire des micro-récits contradictoires adaptés à chaque segment de population et à chaque contexte attentionnel.
Là où le fascisme historique désignait des ennemis universels de la nation (le Juif, le communiste, le dégénéré), le vectofascisme calcule des ennemis personnalisés pour chaque nœud du réseau. C’est une haine sur mesure, algorithmiquement optimisée pour maximiser l’engagement affectif de chaque segment de population.
Cette personnalisation n’est pas une atténuation mais une intensification : elle permet d’infiltrer les micropores du tissu social avec une précision chirurgicale. Le système ne propose pas un unique bouc émissaire mais une écologie entière de boucs émissaires potentiels, adaptés aux dispositions affectives préexistantes de chaque utilisateur.
L’ennemi n’est plus un Autre monolithique mais un ensemble de micro-altérités dont la composition varie selon la position de l’observateur dans le réseau et dont le “wokisme” est le paradigme. Cette modulation fine des antagonismes produit une société simultanément ultra-polarisée et ultra-fragmentée, où chaque bulles informationnelles développe ses propres figures de haine.
Cette fragmentation des figures de l’ennemi ne diminue pas l’intensité de la haine mais la rend plus efficace en l’adaptant précisément aux dispositions psycho-affectives préexistantes de chaque utilisateur. Les algorithmes peuvent identifier quelles caractéristiques spécifiques d’un groupe désigné comme ennemi susciteront la réaction émotionnelle la plus forte chez tel utilisateur particulier, puis accentuer précisément ces caractéristiques dans le flux informationnel qui lui est destiné.
Cependant, cette personnalisation des boucs émissaires ne signifie pas l’absence de coordination. Les algorithmes qui modulent ces haines personnalisées sont eux-mêmes coordonnés au niveau méta, assurant que ces antagonismes apparemment dispersés convergent néanmoins vers des objectifs politiques cohérents. C’est une orchestration de second ordre : non pas l’imposition d’un ennemi unique, mais la coordination algorithmique d’inimitiés multiples.
Cette distribution algorithmique de la haine transforme également la temporalité des antagonismes. Le fascisme traditionnel désignait des ennemis stables, permanents, essentialisés (le Juif éternel, le communiste international). Le vectofascisme peut faire varier les figures de l’ennemi selon les nécessités tactiques du moment, produisant des pics d’intensité haineuse temporaires mais intenses, puis réorientant cette énergie vers de nouvelles cibles lorsque l’engagement faiblit. “Mes amis il n’y a point d’amis” résonne aujourd’hui très étrangement.
Cette souplesse tactique dans la désignation des ennemis permet de maintenir une mobilisation affective constante tout en évitant la saturation qui résulterait d’une focalisation trop prolongée sur un même bouc émissaire. La haine devient ainsi une ressource attentionnelle renouvelable, dont l’extraction est optimisée par des algorithmes qui surveillent constamment les signes de désengagement et recalibrent les cibles en conséquence.
Le contrôle vectorielLe fascisme historique fonctionnait dans l’espace disciplinaire foucaldien : quadrillage des corps, visibilité panoptique, normalisation par l’extérieur. Le vectofascisme opère dans un espace latent de n-dimensions qui ne peut même pas être visualisé directement par l’esprit humain.
Cet espace latent n’est pas un lieu métaphorique mais un espace mathématique concret dans lequel les réseaux de neurones artificiels génèrent des représentations compressées des données humaines. Ce n’est pas un espace de représentation mais de modulation : les transformations qui s’y produisent ne représentent pas une réalité préexistante mais génèrent de nouvelles réalités.
La géographie politique traditionnelle (centre/périphérie, haut/bas, droite/gauche) devient inopérante. Les coordonnées politiques sont remplacées par des vecteurs d’intensité, des gradients de polarisation, des champs d’attention dont les propriétés ne correspondent à aucune cartographie politique antérieure.
Cette transformation de la géographie du pouvoir n’est pas une simple métaphore mais une réalité technique concrète. Les grands modèles de langage contemporains, par exemple, n’opèrent pas primitivement dans l’espace des mots mais dans un espace latent de haute dimensionnalité où chaque concept est représenté comme un vecteur possédant des centaines ou des milliers de dimensions. Dans cet espace, la “distance” entre deux concepts n’est plus mesurée en termes spatiaux traditionnels mais en termes de similarité cosinus entre vecteurs.
Cette reconfiguration de l’espace conceptuel transforme fondamentalement les conditions de possibilité du politique. Les catégories politiques traditionnelles (gauche/droite, conservateur/progressiste) deviennent des projections simplifiées et appauvries d’un espace multidimensionnel plus complexe. Les algorithmes, eux, opèrent directement dans cet espace latent, capable de manipuler des dimensions politiques que nous ne pouvons même pas nommer car elles émergent statistiquement de l’analyse des données sans correspondre à aucune catégorie préexistante dans notre vocabulaire politique.
Le pouvoir qui s’exerce dans cet espace latent échappe ainsi partiellement à notre capacité même de le conceptualiser. Comment critiquer ce que nous ne pouvons pas représenter ? Comment résister à ce qui opère dans des dimensions que nous ne pouvons pas percevoir directement et qui permet de passer de n’importe quel point à n’importe quel autre ? Cette invisibilité constitutive n’est pas accidentelle mais structurelle : elle découle directement de la nature même des espaces vectoriels de haute dimensionnalité qui constituent l’infrastructure mathématique du vectofascisme.
Cette invisibilité est renforcée par le caractère propriétaire des algorithmes qui opèrent ces transformations. Les modèles qui modulent nos environnements informationnels sont généralement protégés par le secret commercial, leurs paramètres précis inaccessibles non seulement aux utilisateurs mais souvent même aux développeurs qui les déploient. Cette opacité n’est pas un bug mais une feature : elle permet précisément l’exercice d’un pouvoir qui peut toujours nier sa propre existence.
De la facticitéLe vectofascisme ne se contente pas de manipuler les représentations du monde existant ; il génère activement des mondes contrefactuels qui concurrencent le monde factuel dans l’espace attentionnel. Ces mondes ne sont pas simplement “faux” – qualification qui appartient encore au régime alphabétique de vérité – mais alternatifs, parallèles, adjacents.
La puissance des modèles prédictifs contemporains réside précisément dans leur capacité à produire des contrefactuels convaincants, des simulations de ce qui aurait pu être qui acquièrent une force d’attraction affective équivalente ou supérieure à ce qui est effectivement advenu.
Cette prolifération des contrefactuels n’est pas un bug mais une autre feature du système : elle permet de maintenir ouvertes des potentialités contradictoires, de suspendre indéfiniment la clôture épistémique du monde qu’exigerait une délibération démocratique rationnelle.
La modélisation contrefactuelle n’est pas en soi une innovation du vectofascisme ; elle constitue en fait une capacité cognitive fondamentale de l’être humain et un outil épistémologique essentiel de la science moderne. Ce qui caractérise spécifiquement le vectofascisme est l’industrialisation de cette production contrefactuelle, son insertion systématique dans les flux informationnels quotidiens, et son optimisation algorithmique pour maximiser l’engagement affectif plutôt que la véracité ou la cohérence.
Les grands modèles de langage constituent à cet égard des machines à contrefactualité d’une puissance sans précédent. Entraînés sur la quasi-totalité du web, ils peuvent générer des versions alternatives de n’importe quel événement avec un degré de plausibilité linguistique troublant. Ces contrefactuels ne se contentent pas d’exister comme possibilités abstraites ; ils sont insérés directement dans les flux informationnels quotidiens, concurrençant les descriptions factuelles dans l’économie de l’attention.
Cette concurrence entre factualité et contrefactualité est fondamentalement asymétrique. La description factuelle d’un événement est contrainte par ce qui s’est effectivement produit ; les descriptions contrefactuelles peuvent explorer un espace des possibles virtuellement infini, choisissant précisément les versions qui maximiseront l’engagement émotionnel des différents segments d’audience. Cette asymétrie fondamentale explique en partie le succès du vectofascisme dans l’économie attentionnelle contemporaine : la contrefactualité optimisée pour l’engagement l’emportera presque toujours sur la factualité dans un système où l’attention est la ressource principale.
Cette prolifération contrefactuelle transforme également notre rapport au temps politique. La politique démocratique moderne présupposait un certain ordonnancement temporel : des événements se produisent, sont rapportés factuellement, puis font l’objet d’interprétations diverses dans un débat public structuré. Le vectofascisme court-circuite cet ordonnancement : l’interprétation précède l’événement, les contrefactuels saturent l’espace attentionnel avant même que les faits ne soient établis, et le débat ne porte plus sur l’interprétation de faits communs mais sur la nature même de la réalité.
En finirNous assistons moins à une reproduction à l’identique du fascisme historique qu’à l’émergence d’une forme hybride, adaptée au contexte contemporain, que l’on pourrait qualifier d’autoritarisme populiste à tendance fascisante.
L’emploi du terme “fascisme” pour qualifier des phénomènes politiques contemporains nécessite à la fois rigueur conceptuelle et lucidité politique. Si toute forme d’autoritarisme n’est pas nécessairement fasciste, les convergences identifiées entre certaines tendances actuelles et les caractéristiques fondamentales du fascisme historique ne peuvent être négligées.
Le fascisme, dans son essence, représente une subversion de la démocratie par l’exploitation de ses vulnérabilités. Sa capacité à se métamorphoser selon les contextes constitue précisément l’un de ses dangers. Reconnaître ces mutations sans tomber dans l’inflation terminologique constitue un défi intellectuel majeur.
Le vectofascisme contemporain ne reproduit pas à l’identique l’expérience historique des années 1930, mais il partage avec celle-ci des mécanismes fondamentaux.
On peut proposer cette définition synthétique à retravailler :
« Le vectofascisme désigne une forme politique contemporaine qui adapte les mécanismes fondamentaux du fascisme historique aux structures technologiques, communicationnelles et sociales de l’ère numérique. Il se définit précisément comme un système politique caractérisé par l’instrumentalisation algorithmique des flux d’information et des espaces numériques pour produire et orienter des affects collectifs, principalement la peur et le ressentiment, au service d’un projet de pouvoir autoritaire. Il se distingue par (1) l’exploitation stratégique des propriétés vectorielles de l’information numérique (direction, magnitude, propagation) ; (2) la manipulation systématique de l’espace des possibles et des contrefactuels pour fragmenter la réalité commune ; (3) la production statistiquement optimisée de polarisations sociales et identitaires ; et (4) la personnalisation algorithmique des trajectoires de radicalisation dans des espaces latents de haute dimensionnalité.
Contrairement au fascisme historique, centré sur la mobilisation physique des masses et l’occupation matérielle de l’espace public, le vectofascisme opère principalement par la reconfiguration de l’architecture informationnelle et attentionnelle. Cependant, il repose fondamentalement sur une mobilisation matérielle d’un autre ordre : l’extraction intensive de ressources énergétiques et minérales (terres rares, lithium, cobalt, etc.) nécessaires au fonctionnement des infrastructures numériques qui le soutiennent. Cette extraction, souvent délocalisée et invisibilisée, constitue la base matérielle indispensable de la superstructure informationnelle, liant le vectofascisme à des formes spécifiques d’exploitation environnementale et géopolitique qui alimentent les machines computationnelles au cœur de son fonctionnement. »
Gregory Chatonsky
Cet article est extrait du journal de Gregory Chatonsky, publié en mars 2025 sous le titre « Qu’est-ce que le vectofascisme ? »
-
7:00
L’automatisation est un problème politique
sur Dans les algorithmes“L’automatisation remplace les hommes. Ce n’est bien sûr pas une nouveauté. Ce qui est nouveau, c’est qu’aujourd’hui, contrairement à la plupart des périodes précédentes, les hommes déplacés n’ont nulle part où aller. (…) L’automatisation exclut de plus en plus de personnes de tout rôle productif dans la société.” James Boggs, The American Revolution, pages from a negro workers notebook, 1963.
La réponse actuelle face à l’automatisation est la même que dans les années 60, explique Jason Ludwig pour PublicBooks : il faut former les travailleurs à la programmation ou aux compétences valorisées par la technologie pour qu’ils puissent affronter les changements à venir. Le mantra se répète : ”le progrès technologique est inévitable et les travailleurs doivent s’améliorer eux-mêmes ou être balayés par sa marche inexorable”. Une telle approche individualiste du déplacement technologique trahit cependant une myopie qui caractérise la politique technologique, explique Ludwig : c’est que l’automatisation est fondamentalement un problème politique. Or, comme le montre l’histoire de la politique du travail américaine, les efforts pour former les travailleurs noirs aux compétences technologiques dans les années 60 ont été insuffisants et n’ont fait que les piéger dans une course vers le bas pour vendre leur travail.
Pour Ludwig, il nous faut plutôt changer notre façon de penser la technologie, le travail et la valeur sociale. Dans les années 60, Kennedy avait signé une loi qui avait permis de former quelque 2 millions d’américains pour répondre au défi de l’automatisation. Mais dans le delta du Mississippi, la majorité des noirs formés (comme opérateurs de production, mécanicien automobile, sténographes…) sont retournés au travail agricole saisonnier avant même d’avoir fini leur formation. En fait, les formations formaient des gens à des emplois qui n’existaient pas. “Ces programmes ont également marqué un éloignement de l’espoir initial des leaders des droits civiques de voir une politique d’automatisation faire progresser l’égalité raciale. Au lieu de cela, l’automatisation a renforcé une hiérarchie racialisée du travail technologique”. Ceux qui ont suivit une formation dans l’informatique sont restés pour la plupart dans des rôles subalternes, à l’image des travailleurs des plateformes d’aujourd’hui. Travailleur noir dans l’industrie automobile de Détroit des années 50, James Boggs a d’ailleurs été le témoin direct de la manière dont les nouveaux contrôles électroniques ont remplacé les travailleurs de la chaîne de montage, et a également observé les échecs de la direction, des dirigeants gouvernementaux et du mouvement ouvrier lui-même à faire face aux perturbations causées par l’automatisation. Dans ses écrits critiques, Boggs a soutenu que leur incapacité à concevoir une solution adéquate au problème de l’automatisation et du chômage provenait d’une croyance qu’ils avaient tous en commun : les individus doivent travailler !
Pour Boggs, la voie à suivre à l’ère de l’automatisation ne consiste pas à lutter pour le plein emploi, mais plutôt à accepter une société sans travail, en garantissant à chacun un revenu décent. Pour Ludwig, les recommandations de Boggs soulignent les failles des prévisions contemporaines sur l’avenir du travail, comme celles de McKinsey. La reconversion des travailleurs peut être une mesure temporaire, mais ne sera jamais qu’une solution provisoire. La présenter comme la seule voie à suivre détourne l’attention de la recherche de moyens plus efficaces pour assurer un avenir meilleur à ceux qui sont en marge de la société, comme l’expérimentation d’un revenu de base ou la réinvention de l’État-providence pour le XXIe siècle.
-
7:50
De « l’Excellisation » de l’évaluation
sur Dans les algorithmesL’évaluation des formations universitaires par le Haut Conseil de l’Évaluation de la Recherche et de l’Enseignement Supérieur (HCÉRES) reposent très concrètement sur des outils d’auto-évaluation formels qui se résument à des fichiers Excel qui emboitent des indicateurs très parcellaires, explique Yves Citton pour AOC. une forme d’évaluation « sans visite de salle de classe, sans discussion personnalisée avec les responsables de formation, les personnels administratifs ou les étudiantes ».
« Cette excellence excellisée menace donc de fermer des formations sans avoir pris la peine d’y poser le pied ou le regard, sur la seule base d’extractions chiffrées dont la sanction satellitaire tombe comme un missile ». Une belle démonstration des limites de l’évaluation contemporaine, orientée et hors sol.
-
7:01
Les trois corps du lithium : le géologique, le technologique et le psychique
sur Dans les algorithmes« Comme le sucre au XIXe siècle, le lithium va devenir au XXIe siècle un bien de consommation de masse, l’aliment de base du nouveau régime de consommation promis aux sociétés modernes et décarbonées ». (…) « Le lithium participerait à revitaliser le système de production et de consommation du capitalisme, en proposant une réponse au changement climatique qui n’oblige pas à remettre en cause les rapports de force asymétriques préexistants et la nature « zombie » de nos technologies héritées des énergies fossiles. »
« L’histoire du lithium illustre la manière dont les propriétés matérielles d’un élément façonnent à la fois notre équilibre mental et notre rapport à la société. À la croisée de la santé et de l’industrie, il participe à une quête de stabilité des humeurs et des flux énergétiques dans un monde toujours plus dépendant de la performance et de la constance ».
Passionnant dossier sur l’âge du lithium dans la revue Les temps qui restent.
-
7:00
Vers la fin du modèle des startups ?
sur Dans les algorithmesLes startups de l’IA n’auraient plus besoin de liquidités, estime Erin Griffith dans le New York Times. Alors que les investisseurs se pressent pour prendre des parts, les startupeurs de l’IA font la fine bouche. Certaines sont déjà rentables, à l’image de Gamma, une entreprise qui fabrique des outils d’IA pour créer des présentations et des sites web. Fort de seulement 28 employés, Gamma génère déjà des dizaines de millions de revenus auprès de 50 millions d’utilisateurs. Plutôt que d’embaucher, Gamma utilise des outils d’intelligence artificielle pour augmenter la productivité de ses employés dans tous les domaines, du service client et du marketing au codage et à la recherche client.
Alors qu’avant la réussite des petites équipes consistait à lever des fonds pour croître, désormais, elles limitent leur taille et optimisent leur rentabilité. Anysphere, une start-up qui a créé le logiciel de codage Cursor, comme ElevenLabs, une société d’IA spécialiste des produits vocaux, ont atteint 100 millions de dollars de revenus récurrents annuels en moins de deux ans avec seulement 20 employés. Sam Altman, le directeur général d’OpenAI, a prédit qu’il pourrait y avoir un jour une entreprise unipersonnelle valant 1 milliard de dollars… C’est pour l’instant encore bien présomptueux*, mais on comprend l’idée.
Cette cure de productivité des personnels concerne également les entreprises d’IA qui développent des modèles. OpenAI emploie plus de 4000 personnes, a levé plus de 20 milliards de dollars de financement et continue à chercher à lever des fonds, ce qui produit environ le même ratio : 5 millions de dollars de levés de fonds par employés (même si ici, on parle de levée de fonds et non pas de revenus récurrents). Les nouvelles start-ups de l’IA qui s’appuient sur ces modèles font penser à la vague d’entreprises qui ont émergé à la fin des années 2000, après qu’Amazon a commencé à proposer des services de cloud computing bon marché. Amazon Web Services a réduit le coût de création d’une entreprise, ce qui a permis de créer de nouvelles entreprises, pour moins chères.
« Avant l’essor de l’IA, les start-ups dépensaient généralement 1 million de dollars pour atteindre un chiffre d’affaires de 1 million de dollars », explique Gaurav Jain, investisseur à Afore Capital. Aujourd’hui, atteindre un million de dollars de chiffre d’affaires coûte un cinquième de moins et pourrait éventuellement tomber à un dixième, selon une analyse de 200 startups menée par Afore. Tant et si bien que le revenu récurrent annuel par employé semble désormais s’imposer comme l’indicateur clef de ces « ultra » lean startups, explique le French Tech Journal. Pour parvenir à 100 millions de dollars de revenus dans les années 2000, il a fallu 900 employés à Linkedin et 600 à Shopify. Dans les années 2010, il fallait encore 250 employés à Slack pour parvenir au même revenu récurrent. Désormais, pour les entreprises de la « génération IA » il n’en faut plus que 100 ! L’objectif, c’est qu’un employé rapporte entre 5 et 1 million de dollars ! On espère que les salaires des salariés suivent la même courbe de croissance !
Le tableau des startups selon leur nombre d’employés pour atteindre les 100 millions de dollars de revenus récurrents. Reste que l’explication par le développement de produits basés sur l’IA vise à nous faire croire que les entreprises qui ont pris plus de temps et d’employés pour atteindre les 100 millions de revenus n’auraient pas utilisé l’IA pour leur produit. hum !
Mais si les startups peuvent devenir rentables sans dépenser beaucoup, cela pourrait devenir un problème pour les investisseurs en capital-risque. L’année dernière, les entreprises d’IA ont levé 97 milliards de dollars de financement, ce qui représente 46 % de tous les investissements en capital-risque aux États-Unis, selon PitchBook, le spécialiste de l’analyse du secteur. Pour l’instant, les investisseurs continuent de se battre pour entrer dans les entreprises les plus prometteuses. Scribe, une start-up de productivité basée sur l’IA, a dû faire face l’année dernière à un intérêt des investisseurs bien supérieur aux 25 millions de dollars qu’elle souhaitait lever. Certains investisseurs sont optimistes quant au fait que l’efficacité générée par l’IA incitera les entrepreneurs à créer davantage d’entreprises, ce qui ouvrira davantage d’opportunités d’investissement. Ils espèrent qu’une fois que les startups auront atteint une certaine taille, les entreprises adopteront le vieux modèle des grandes équipes et des gros capitaux. Mais ce n’est peut-être pas si sûr.
Chez Gamma, les employés utilisent une dizaine d’outils d’IA pour les aider à être plus efficaces, notamment l’outil de service client d’Intercom pour gérer les problèmes, le générateur d’images de Midjourney pour le marketing, le chatbot Claude d’Anthropic pour l’analyse des données et le NotebookLM de Google pour analyser la recherche de clients. Les ingénieurs utilisent également le curseur d’Anysphere pour écrire du code plus efficacement. Le produit de Gamma, qui s’appuie sur des outils d’OpenAI et d’autres, n’est pas aussi coûteux à fabriquer que d’autres produits d’IA. D’autres startups efficaces adoptent une stratégie similaire. Thoughtly, un fournisseur d’agents IA téléphoniques, a réalisé un bénéfice en 11 mois, grâce à son utilisation de l’IA, a déclaré son cofondateur Torrey Leonard, notamment l’outil d’IA ajouté au système de Stripe pour analyser les ventes. Pour son PDG, sans ces outils, il aurait eu besoin d’au moins 25 personnes de plus et n’aurait pas été rentable aussi rapidement. Pour les jeunes pousses, ne plus avoir peur de manquer de liquidités est « un énorme soulagement ». Chez Gamma, le patron prévoit néanmoins d’embaucher pour passer à 60 personnes. Mais plutôt que de recruter des spécialistes, il cherche des généralistes capables d’effectuer une large gamme de tâches. Le patron trouve même du temps pour répondre aux commentaires des principaux utilisateurs du service.
Dans un autre article, Erin Griffith explique que nombre d’entreprises retardent leur entrée en bourse. Beaucoup attendaient l’élection de Trump pour se lancer, mais les annonces de tarifs douaniers de l’administration et les changements réglementaires rapides ont créé de l’incertitude et de la volatilité. Et l’arrivée de DeepSeek a également remis en question l’engouement pour les technologies d’IA américaines coûteuses. Enfin, l’inflation du montant des investissements privés retarde également les échéances de mises sur le marché. En fait, les startups peuvent désormais lever des fonds plus importants et les actionnaires peuvent également vendre leurs actions avant mise sur le marché public, ce qui a contribué à réduire le besoin d’entrer en bourse.
Dans un autre article encore, la journaliste se demande ce qu’est devenu le capital risque. Pour cela, elle convoque les deux modèles les plus antinomiques qui soient, à savoir Benchmark Capital et Andreessen Horowitz. « Andreessen Horowitz s’est développé dans toutes les directions. Elle a créé des fonds axés sur les crypto-monnaies, la Défense et d’autres technologies, gérant un total de 44 milliards de dollars. Elle a embauché 80 partenaires d’investissement et ouvert cinq bureaux. Elle publie huit newsletters et sept podcasts, et compte plus de 800 sociétés en portefeuille ».
« Benchmark, en revanche, n’a pratiquement pas bougé. Elle compte toujours cinq partenaires qui font des investissements. Cette année, elle a levé un nouveau fonds de 425 millions de dollars, soit à peu près la même taille que ses fonds depuis 2004. Son site Web se résume à une simple page d’accueil ». La plupart des entreprises d’investissement ont suivi le modèle d’Andreessen Horowitz se développant tout azimut. Le capital risque est devenu un mastodonte de 1200 milliards de dollars en 2024, alors qu’il ne représentait que 232 milliards en 2009. Les partisans de la théorie du toujours plus d’investissement affirment qu’il faut encore plus d’argent pour résoudre les problèmes les plus épineux de la société en matière d’innovation. « Les petits fonds, se moquent-ils, ne peuvent soutenir que les petites idées ». Mais pour d’autres, les fonds de capital-risque sont devenus trop gros, avec trop peu de bonnes startups, ce qui nuit aux rendements. Dans l’approche à là Andreessen Horowitz, l’enjeu est d’investir beaucoup mais également de facturer fort, ce qui n’est pas le cas des plus petits acteurs. « Les fonds plus petits ont généralement obtenu des rendements plus élevés, mais ils ont également eu des taux de pertes plus élevés. Les fonds plus importants ont tendance à avoir des rendements médians mais moins de pertes, ce qui signifie qu’ils sont des paris plus sûrs avec moins de potentiel de hausse », explique une analyste.
Mais on n’investit pas dans le capital-risque pour obtenir des rendements médians. Or, le développement de fonds de plusieurs milliards de dollars pourrait modifier le profil de rendement du capital-risque, qui n’est pas si bon, malgré ses promesses. La crise économique post-pandémie a modifié les cartes. « En 2022 et 2023, les sociétés de capital-risque ont investi plus d’argent qu’elles n’en ont rendu à leurs investisseurs, inversant une tendance qui durait depuis dix ans ». Comme l’expliquait le sociologue de la finance, Fabien Foureault, dans le 4e numéro de la revue Teque, parue l’année dernière, le capital-risque est intrinsèquement dysfonctionnel. Il favorise les emballements et effondrements, peine à inscrire une utilité sociale, et surtout, ses performances financières restent extrêmement médiocres selon les études longitudinales. “L’économie numérique, financée par le capital-risque, a été conçue par les élites comme une réponse au manque de dynamisme du capitalisme tardif. Or, on constate que cette activité se développe en même temps que les tendances à la stagnation et qu’elle n’arrive pas à les contrer.” La contribution du capital-risque à la croissance semble moins forte que le crédit bancaire et le crédit public ! “Le rendement de la financiarisation et de l’innovation est de plus en plus faible : toujours plus d’argent est injecté dans le système financier pour générer une croissance en déclin sur le long-terme”.
Hubert Guillaud
* Comme toujours, les grands patrons de la tech lancent des chiffres en l’air qui permettent surtout de voir combien ils sont déconnectés des réalités. Passer de 100 millions de revenus à 20 personnes à 1 milliard tout seul, nécessite de sauter des paliers et de croire aux capacités exponentielles des technologies, qui, malgré les annonces, sont loin d’être démontrées. Bien souvent, les chiffres jetés en l’air montrent surtout qu’ils racontent n’importe quoi, à l’exemple de Musk qui a longtemps raconté qu’il enverrait un million de personnes sur Mars en 20 ans (ça ne tient pas).
MAJ su 30/03/2025 : Politico livre une très intéressante interview de Catherine Bracy, la fondatrice de TechEquity (une association qui oeuvre à améliorer l’impact du secteur technologique sur le logement et les travailleurs), qui vient de publier World Eaters : How Venture Capital Is Cannibalizing the Economy (Penguin, 2025). Pour Bracy, le capital risque – moteur financier de l’industrie technologique – a un effet de distorsion non seulement sur les entreprises et leurs valeurs, mais aussi sur la société américaine dans son ensemble. « La technologie en elle-même est sans valeur, et c’est la structure économique qui lui confère son potentiel de nuisance ou de création d’opportunités qui la rend vulnérable ». Les investisseurs de la tech encouragent les entreprises à atteindre la plus grande taille possible, car c’est par des effets d’échelle qu’elle produit le rendement financier attendu, analyse-t-elle. Cependant, derrière cette croissance sous stéroïdes, « l’objectif est la rapidité, pas l’efficacité ». Et les conséquences de ces choix ont un coût que nous supportons tous, car cela conduit les entreprises à contourner les réglementations, à exploiter les travailleurs et à proposer des produits peut performants ou à risque pour les utilisateurs. L’objectif de rendements les plus élevés possibles nous éloignent des bonnes solutions. Pour elle, nous devrions imposer plus de transparence aux startups, comme nous le demandons aux entreprises cotées en bourse et renforcer l’application des régulations. Pour Bloomberg, explique-t-elle encore, la recherche d’une croissance sous stéroïde ne permet pas de s’attaquer aux problèmes de la société, mais les aggrave. Le problème n’est pas tant ce que le capital-risque finance que ce qu’il ne finance pas, souligne Bracy… et qui conduit les entreprises qui s’attaquent aux problèmes, à ne pas trouver les investissements dont elles auraient besoin. Si le capital-risque désormais s’intéresse à tout, il n’investit que là où il pense trouver des rendements. Les investissements privés sont en train de devenir des marchés purement financiers.
Une critique de son livre pour Bloomberg, explique que Bracy dénonce d’abord la monoculture qu’est devenue le capital-risque. Pour elle, cette culture de la performance financière produit plusieurs victimes. Les premières sont les entreprises incubées dont les stratégies sont modelées sur ce modèle et qui échouent en masse. « Les capitaux-risqueurs créent en grande partie des risques pour les entreprises de leurs portefeuilles » en les encourageant à croître trop vite ou à s’attaquer à un marché pour lequel elles ne sont pas qualifiées. Les secondes victimes sont les entrepreneurs qui ne sont pas adoubées par le capital-risque, et notamment tous les entrepreneurs qui ne correspondent pas au profil sociologique des entrepreneurs à succès. Les troisièmes victimes sont les capitaux-risqueurs eux-mêmes, dans les portefeuilles desquels s’accumulent les « sorties râtées » et les « licornes zombies ». Les quatrièmes victimes, c’est chacun d’entre nous, pris dans les rendements des startups modèles et dont les besoins d’investissements pour le reste de l’économie sont en berne.
Bracy défend un capital risque plus indépendant. Pas sûr que cela suffise effectivement. Sans attaquer les ratios de rendements qu’exigent désormais l’investissement, on ne résoudra pas la redirection de l’investissement vers des entreprises plus stables, plus pérennes, plus utiles… et moins profitables.
-
7:00
Red-teaming : vers des tests de robustesse de l’IA dans l’intérêt du public
sur Dans les algorithmesLe Red-teaming consiste à réunir des équipes multidisciplinaires pour procéder à des attaques fictives pour éprouver la robustesse de la sécurité d’un système informatique. Dans le domaine de l’IA, cela consiste à identifier les vulnérabilités des réponses d’un modèle de langage pour les corriger. Mais les questions méthodologiques auxquelles sont confrontées ces équipes sont nombreuses : comment et quand procéder ? Qui doit participer ? Comment intégrer les résultats… Les questions d’enjeux ne sont pas moindres : quels intérêts sont protégés ? Qu’est-ce qu’un comportement problématique du modèle et qui est habilité à le définir ? Le public est-il un objet à sécuriser ou une ressource utilisée ?…
Un rapport publié par Data & Society et AI Risk and Vulnerability Alliance (ARVA), par les chercheurs Ranjit Singh, Borhane Blili-Hamelin, Carol Anderson, Emnet Tafesse, Briana Vecchione, Beth Duckles et Jacob Metcalf, tente d’esquisser comment produire un red-teaming dans l’intérêt public.
À ce jour, la plupart des expériences de red-teaming en IA générale comportent quatre étapes :
- Organiser un groupe de penseurs critiques.
- Leur donner accès au système.
- Les inviter à identifier ou à susciter des comportements indésirables.
- Analyser les données probantes pour atténuer les comportements indésirables et tester les futurs modèles.
Actuellement, la méthode dominante pour réaliser la troisème étape est l’incitation manuelle et automatisée, qui consiste à tester les comportements erronés des modèles par l’interaction. Pour les chercheurs, qui ont recueilli les avis de participants à des équipes de red-teaming, si cette approche est précieuse, le red-teaming doit impliquer une réflexion critique sur les conditions organisationnelles dans lesquelles un modèle est construit et les conditions sociétales dans lesquelles il est déployé. Le red-teaming dans d’autres domaines, comme la sécurité informatique, révèle souvent des lacunes organisationnelles pouvant entraîner des défaillances du système. Les évaluations sociotechniques de l’IA générale gagneraient à s’inspirer davantage des pratiques existantes en matière de red-teaming et d’ingénierie de la sécurité.
Pour les chercheurs, les événements de Red-Teaming soulignent trop souvent encore l’asymétrie de pouvoir et limitent l’engagement du public à la seule évaluation des systèmes déjà construits, plutôt qu’aux systèmes en développement. Ils favorisent trop l’acceptation du public, le conduisant à intégrer les défaillances des systèmes, plutôt qu’à les résoudre ou les refuser. Enfin, ils restreignent la notion de sécurité et ne prennent pas suffisamment en cause les préjudices qu’ils peuvent causer ou les modalités de recours et de réparation proposé au grand public.
Le rapport dresse une riche histoire des pratiques d’amélioration de la sécurité informatique et de ses écueils, et de la faible participation du public, même si celle-ci a plutôt eu tendance à s’élargir ces dernières années. Reste que cet élargissement du public est encore bien timide. Il s’impose surtout parce qu’il permet de répondre au fait que l’IA générative couvre un large champ d’usages qui font que chaque prompt peut être une attaque des modèles. “L’objectif du red-teaming est de compenser le manque de bonnes évaluations actuelles pour les modèles génératifs”, explique une spécialiste, d’autant qu’il permet de créer “une réflexivité organisationnelle”, notamment du fait que les interactions avec les modèles sont très ouvertes et nécessitent d’élargir les perspectives de sécurité. Mais les pratiques montrent également la difficulté à saisir ce qui relève des défaillances des modèles, d’autant quand ce sont les utilisateurs eux-mêmes qui sont considérés comme des adversaires. Pourtant, dans ces pratiques de tests de robustesse adverses, les risques n’ont pas tous le même poids : il est plus simple de regarder si le modèle génère des informations privées ou du code vulnérable, plutôt que d’observer s’il produit des réponses équitables. En fait, l’une des grandes vertus de ces pratiques, c’est de permettre un dialogue entre développeurs et publics experts, afin d’élargir les enjeux de sécurité des uns à ceux des autres.
Le rapport souligne cependant que l’analyse automatisée des vulnérabilités se renforce (voir “Comment les IA sont-elles corrigées ?”), notamment via l’utilisation accrue de travailleurs du clic plutôt que des équipes dédiées et via des systèmes spécialisés dédiés et standardisés, prêts à l’emploi, afin de réduire les coûts de la correction des systèmes et ce même si ces attaques-ci pourraient ne pas être aussi “novatrices et créatives que celles développées par des humains”. Le risque c’est que le red-teaming ne devienne performatif, une forme de “théâtre de la sécurité”, d’autant que le régulateur impose de plus en plus souvent d’y avoir recours, comme c’est le cas de l’AI Act européen. Or, comme le pointe un red-teamer, “ce n’est pas parce qu’on peut diagnostiquer quelque chose qu’on sait comment le corriger”. Qui détermine si le logiciel respecte les règles convenues ? Qui est responsable en cas de non-respect des règles ? L’intégration des résultats du red-teaming est parfois difficile, d’autant que les publications de leurs résultats sont rares. D’où l’importance des plateformes qui facilitent le partage et l’action collective sur les problèmes d’évaluation des systèmes d’IA, comme Dynabench.
“Nous devons repenser la relation entre l’IA et la société, passant d’une relation conflictuelle à une relation co-constitutive”, plaident les chercheurs. C’est la seule à même d’aider à dépasser la confusion actuelle sur la fonction du red-teaming, qu’elle relève des conflits de méthodes, de pouvoir, d’autorité ou d’expertise. Les meilleures pratiques ne le sont pas nécessairement. Le Titanic a été construit selon les meilleures pratiques de l’époque. Par définition, le red-teaming consiste à examiner les réponses des modèles de manière critique, mais uniquement selon les meilleures pratiques du moment. Le red-teaming a tendance à porter plus d’attention aux méthodes holistiques de red-teaming (comme les simulations) qu’à ceux qui se concentrent sur l’évaluation des dommages causés par l’IA aux utilisateurs normaux. Trop souvent encore, le red-teaming consiste à améliorer un produit plus qu’à améliorer la sécurité du client, alors que le red-teaming élargi aux publics consiste à mieux comprendre ce qu’ils considèrent comme problématique ou nuisible tout en leur permettant d’être plus conscients des limites et défaillances. Pour les chercheurs, nous avons plus que jamais besoin “d’espaces où le public peut débattre de ses expériences avec les systèmes d’IA générale”, d’espaces participatifs, disaient déjà une précédente recherche de plusieurs de ces mêmes chercheurs. Le risque, c’est que cet élargissement participatif que permet certains aspects du red-teaming ne se referme plus qu’il ne s’étende.
-
7:00
Inférences : comment les outils nous voient-ils ?
sur Dans les algorithmesComment les systèmes interprètent-ils les images ? Ente, une entreprise qui propose de chiffrer vos images pour les échanger de manière sécurisée sans que personne d’autres que ceux que vous autorisez ne puisse les voir, a utilisé l’API Google Vision pour montrer comment les entreprises infèrent des informations des images. C’est-à-dire comment ils les voient, comment les systèmes automatisés les décrivent. Ils ont mis à disposition un site pour nous expliquer comment « ILS » voient nos photos, qui permet à chacun d’uploader une image et voir comment Google Vision l’interprète.
Sommes-nous ce que les traitements disent de nous ?Le procédé rappelle le projet ImageNet Roulette de Kate Crawford et Trevor Paglen, qui renvoyait aux gens les étiquettes stéréotypées dont les premiers systèmes d’intelligence artificielle affublaient les images. Ici, ce ne sont pas seulement des étiquettes dont nous sommes affublés, mais d’innombrables données inférées. Pour chaque image, le système produit des informations sur le genre, l’origine ethnique, la localisation, la religion, le niveau de revenu, les émotions, l’affiliation politique, décrit les habits et les objets, pour en déduire des passe-temps… mais également des éléments de psychologie qui peuvent être utilisés par le marketing, ce qu’on appelle les insights, c’est-à-dire des éléments permettant de caractériser les attentes des consommateurs. Par exemple, sur une des images en démonstration sur le site représentant une famille, le système déduit que les gens priorisent l’esthétique, sont facilement influençables et valorisent la famille. Enfin, l’analyse associe des mots clefs publicitaires comme albums photos personnalisé, produits pour la peau, offre de voyage de luxe, système de sécurité domestique, etc. Ainsi que des marques, qui vont permettre à ces inférences d’être directement opérationnelles (et on peut se demander d’ailleurs, pourquoi certaines plutôt que d’autres, avec le risque que les marques associéées démultiplient les biais, selon leur célébrité ou leur caractère international, comme nous en discutions en évoquant l’optimisation de marques pour les modèles génératifs).
Autant d’inférences probables, possibles ou potentielles capables de produire un profil de données pour chaque image pour leur exploitation marketing.
Comme l’explique le philosophe Rob Horning, non seulement nos images servent à former des modèles de reconnaissance d’image qui intensifient la surveillance, mais chacune d’entre elles produit également des données marketing disponibles pour tous ceux qui souhaitent les acheter, des publicitaires aux agences de renseignement. Le site permet de voir comment des significations sont déduites de nos images. Nos photos, nos souvenirs, sont transformés en opportunités publicitaires, identitaires et consuméristes, façonnées par des logiques purement commerciales (comme Christo Buschek et Jer Thorp nous l’avaient montré de l’analyse des données de Laion 5B). L’inférence produit des opportunités, en ouvre certaines et en bloque d’autres, sur lesquelles nous n’avons pas la main. En nous montrant comment les systèmes interprètent nos images, nous avons un aperçu de ce que, pour les machines, les signifiants signifient.
Mais tout n’est pas parfaitement décodable et traduisible, transparent. Les inférences produites sont orientées : elles ne produisent pas un monde transparent, mais un monde translucide. Le site They see your photos nous montre que les images sont interprétées dans une perspective commerciale et autoritaire, et que les représentations qu’elles produisent supplantent la réalité qu’elles sont censées interpréter. Il nous permet de voir les biais d’interprétation et de nous situer dans ceux-ci ou de nous réidentifier sous leur répétition.
Nous ne sommes pas vraiment la description produite de chacune de ces images. Et pourtant, nous sommes exactement la personne au coeur de ces descriptions. Nous sommes ce que ces descriptions répètent, et en même temps, ce qui est répété ne nous correspond pas toujours ou pas du tout.
Exemples d’intégration d’images personnelles dans TheySeeYourPhotos qui montrent les données qui sont inférées de deux images. Et qui posent la question qui suis-je ? Gagne-je 40 ou 80 000 euros par mois ? Suis-je athée ou chrétien ? Est-ce que je lis des livres d’histoire ou des livres sur l’environnement ? Suis-je écolo ou centriste ? Est-ce que j’aime les chaussures Veja ou les produits L’Oréal ? Un monde indifférent à la vérité
L’autre démonstration que permet le site, c’est de nous montrer l’évolution des inférences publicitaires automatisées. Ce que montre cet exemple, c’est que l’enjeu de régulation n’est pas de produire de meilleures inférences, mais bien de les contenir, de les réduire – de les faire disparaître voire de les rendre impossibles. Nous sommes désormais coincés dans des systèmes automatisés capables de produire de nous, sur nous, n’importe quoi, sans notre consentement, avec un niveau de détail et de granularité problématique.
Le problème n’est pas l’automatisation publicitaire que ce délire de profilage alimente, mais bien le délire de profilage automatisé qui a été mis en place. Le problème n’est pas la qualité des inférences produites, le fait qu’elles soient vraies ou fausses, mais bien le fait que des inférences soient produites. La prévalence des calculs imposent avec eux leur monde, disions-nous. Ces systèmes sont indifférents à la vérité, expliquait le philosophe Philippe Huneman dans Les sociétés du profilage (Payot, 2023). Ils ne produisent que leur propre renforcement. Les machines produisent leurs propres mèmes publicitaires. D’un portrait, on propose de me vendre du cognac ou des timbres de collection. Mais ce qu’on voit ici n’est pas seulement leurs défaillances que leurs hallucinations, c’est-à-dire leur capacité à produire n’importe quels effets. Nous sommes coincés dans un régime de facticité, comme le dit la philosophe Antoinette Rouvroy, qui finit par produire une vérité de ce qui est faux.
Où est le bouton à cocher pour refuser ce monde ?Pourtant, l’enjeu n’est pas là. En regardant très concrètement les délires que ces systèmes produisent on se demande surtout comment arrêter ces machines qui ne mènent nulle part ! L’exemple permet de comprendre que l’enjeu n’est pas d’améliorer la transparence ou l’explicabilité des systèmes, ou de faire que ces systèmes soient plus fiables, mais bien de les refuser. Quand on comprend la manière dont une image peut-être interprétée, on comprend que le problème n’est pas ce qui est dit, mais le fait même qu’une interprétation puisse être faite. Peut-on encore espérer un monde où nos photos comme nos mots ne sont tout simplement pas interprétés par des machines ? Et ce alors que la grande interconnexion de celles-ci facilite ce type de production. Ce que nous dit « They see your photos », c’est que pour éviter ce délire, nous n’avons pas d’autres choix que d’augmenter considérablement la confidentialité et le chiffrement de nos échanges. C’est exactement ce que dit Vishnu Mohandas, le développeur de Ente.
Hubert Guillaud
MAJ du 25/03/2025 : Il reste une dernière inconnue dans les catégorisations problématiques que produisent ces outils : c’est que nous n’observons que leurs productions individuelles sur chacune des images que nous leurs soumettons… Mais nous ne voyons pas les catégorisations collectives problématiques qu’ils peuvent produire. Par exemple, combien de profils de femmes sont-ils catalogués comme à « faible estime de soi » ? Combien d’hommes catégorisés « impulsifs » ? Combien d’images de personnes passées un certain âge sont-elles caractérisées avec des mots clés, comme « alcool » ? Y’a-t-il des récurrences de termes selon le genre, l’âge putatif, l’origine ou le niveau de revenu estimé ?… Pour le dire autrement, si les biais individuels semblent innombrables, qu’en est-il des biais démographiques, de genre, de classe… que ces outils produisent ? L’exemple permet de comprendre très bien que le problème des biais n’est pas qu’un problème de données et d’entraînement, mais bien de contrôle de ce qui est produit. Ce qui est tout de suite bien plus problématique encore…
-
7:00
Data for Black Lives
sur Dans les algorithmesAnuli Akanegbu, chercheuse chez Data & Society, a fait un rapide compte rendu de la 3e édition de la conférence Data for Black Lives qui s’est tenue fin novembre à Miami.
L’IA et d’autres technologies automatisées exacerbent les inégalités existantes dans tous les domaines où elles se déploient : l’emploi, l’éducation, la santé, le logement, etc. Comme l’a expliqué Katya Abazajian, fondatrice de la Local Data Futures Initiative, lors d’un panel sur le logement, « toutes les données sont biaisées. Il n’y a pas de données sans biais, il n’y a que des données sans contexte ». Rasheedah Phillips, directrice du logement pour PolicyLink, a ajouté : « les préjugés ne se limitent pas aux mauvais acteurs, ils sont intégrés dans les systèmes que nous utilisons ». Soulignant les injustices historiques et systémiques qui affectent la représentation des données, la criminologue et professeure de science des données Renee Cummings a rappelé le risque d’utiliser les nouvelles technologies pour moderniser les anciennes typologies raciales. « Les ensembles de données n’oublient pas », a-t-elle insisté.
Tout au long de la conférence, les intervenants n’ont cessé de rappeler l’importance des espaces physiques pour l’engagement communautaire. Aux Etats-Unis, institutions artistiques, églises, associations… sont partout des pôles d’organisation, d’éducation et d’accès à la technologie qui permettent de se mobiliser. Pour Fallon Wilson, cofondatrice de l’Institut de recherche Black Tech Futures, cela plaide pour mettre nos anciennes institutions historiques au coeur de notre rapport à la technologie, plutôt que les entreprises technologiques. Ce sont ces lieux qui devraient permettre de construire la gouvernance des données dont nous avons besoin, afin de construire des espaces de données que les communautés puissent contrôler et partager a défendu Jasmine McNealy.
Joan Mukogosi, qui a notamment travaillé pour Data & Society sur la dégradation des conditions de maternité des femmes noires et de leurs enfants, expliquait que nous avons besoin de données sur la vie des afro-américains et pas seulement sur la façon dont ils meurent. Pour l’anthropologue de la médecine Chesley Carter, ce changement de perspective pourrait conduire à une recherche plus constructive, porteuse de solutions. Nous devrions construire des enquêtes sur les atouts plutôt que sur les déficits, c’est-à-dire nous interroger sur ce qui améliore les résultats plutôt que ce qui les détériore. Cela permettrait certainement de mieux identifier les problèmes systémiques plutôt que les défaillances individuelles. Aymar Jean Christian, fondateur du Media and Data Equity Lab, qui prépare un livre sur les médias réparateurs à même de guérir notre culture pour les presses du MIT, a présenté le concept d’intelligence ancestrale, alternative à l’IA : un moyen de guérir des impacts des systèmes capitalistes en centrant les discussions sur la technologie et les données sur l’expérience des personnes de couleurs. C’est par le partage d’expériences personnelles que nous documenteront les impacts réels des systèmes sur la vie des gens.
La chercheuse Ruha Benjamin (voir notre lecture de son précédent livre, Race after technology) dont le nouveau livre est un manifeste de défense de l’imagination, a rappelé que l’avenir n’est que le reflet de nos choix actuels. « L’imagination est un muscle que nous devrions utiliser comme une ressource pour semer ce que nous voulons plutôt que de simplement déraciner ce que nous ne voulons pas ». Dans une interview pour Tech Policy, Benjamin rappelait que les imaginaires évoluaient dans un environnement très compétitif, qui rivalisent les uns avec les autres. Pour elle, face aux imaginaires dominants et marchands qui s’imposent à nous, le risque est que concevoir une nouvelle société devienne une impossibilité, tant ils nous colonisent par l’adhésion qu’ils suscitent tout en repoussant toujours plus violemment les imaginaires alternatifs. Pour elle, nous opposons souvent l’innovation et les préoccupations sociales, comme si les technologies innovantes étaient par nature autoritaires. Mais c’est notre conception même de l’innovation que nous devrions interroger. « Nous ne devrions pas appeler innovation ce qui exacerbe les problèmes sociaux ». En nous invitant à imaginer un monde sans prison, des écoles qui encouragent chacun ou une société où chacun a de la nourriture, un abri, de l’amour… Elle nous invite à réinventer la réalité que nous voulons construire. -
7:00
LLMO : de l’optimisation de marque dans l’IA générative
sur Dans les algorithmes« Votre client le plus important, désormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. C’est le constat que dresse également Jack Smyth, responsable des solutions IA de JellyFish. Smyth travaille avec des marques pour les aider à comprendre comment leurs produits ou leurs entreprises sont perçues par les différents modèles d’IA afin de les aider à améliorer leur image. L’enjeu est d’établir une forme d’optimisation d’image, comme les entreprises le font déjà avec les moteurs de recherche, afin de s’assurer que sa marque est perçue positivement par un grand modèle de langage.
JellyFish propose d’ailleurs un outil, Share of Model, qui permet d’évaluer la façon dont différents modèles d’IA perçoivent les marques. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». L’enjeu, consiste à construire des campagnes marketing dédiée pour changer la perception de marque des modèles. « On ne sait pas encore si les changements fonctionnent », explique un client, « mais la trajectoire est positive ». A croire que l’important c’est d’y croire ! Sans compter que les changements dans la façon dont on peut demander une recommandation de produits dans un prompt produit des recommandations différentes, ce qui pousse les marques à proposer des invites pertinentes sur les forums, pour orienter les questions et donc les réponses à leur profit. En fait, le même jeu de chat et de souris que l’on connaît dans le SEO pourrait se répéter dans l’optimisation des LLM pour le marketing, au plus grand profit de ceux chargés d’accompagner les entreprises en manque d’argent à dépenser.
Le problème surtout, c’est que les biais marketing des LLM sont nombreux. Une étude montre que les marques internationales sont souvent perçues comme étant de meilleures qualités que les marques locales. Si vous demandez au LLM de recommander des cadeaux aux personnes vivant dans des pays à revenu élevé, il suggérera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays à faible revenu, il recommandera des marques non luxueuses.
L’IA s’annonce comme un nouveau public des marques, à dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs résultats financiers. Bref, le marketing a trouvé un nouveau produit à vendre ! Les entreprises vont adorer !
-
7:00
L’essor des PropTechs, les technologies pour les propriétaires immobiliers
sur Dans les algorithmesLes technologies des propriétaires sont en plein essor aux Etats-Unis, rapporte Tech Policy Press. Mais elles ne se limitent pas aux logiciels de tarification algorithmique de gestion immobilière, comme RealPage, dont nous vous avions déjà parlé (et que le ministère de la Justice continue de poursuivre au prétexte qu’il permettrait une entente anticoncurrentielle). Alors que la crise de l’accès au logement devient de plus en plus difficile pour nombre d’Américains, le risque est que la transformation numérique de l’immobilier devienne un piège numérique pour tous ceux à la recherche d’un logement. Le prix des loyers y devient de plus en plus inabordable. YieldStar de RealPage, influence désormais le prix de 70 % des appartements disponibles aux États-Unis et serait responsable de l’augmentation de 14% du prix de l’immobilier d’une année sur l’autre. Le développement de ces systèmes de fixation des prix coordonnés sapent l’idée que la concurrence sur le marché du logement pourrait seule protéger les locataires.
Des technologies pour harmoniser les tarifs, discriminer les locataires et accélérer les expulsionsMais la numérisation du marché ne s’applique pas seulement au tarif des locations, elle se développe aussi pour la sélection des locataires. Alors qu’aux Etats-Unis, les propriétaires étaient souvent peu exigeants sur les antécédents des locataires, désormais, les conditions pour passer les filtres des systèmes de sélection deviennent bien plus difficiles, reposant sur une inflation de justificatifs et des techniques d’évaluation des candidats à la location particulièrement opaques, à l’image de SingleKey, l’un des leader du secteur. 9 propriétaires sur 10 passent désormais par ce type de logiciels, en contradiction avec la loi américaine sur le logement équitable, notamment du fait qu’ils produisent un taux de refus de logement plus élevé sur certaines catégories de la population. Ces systèmes reproduisent et renforcent les discriminations, et surtout, rendent la relation propriétaire-locataire plus invasive. Mais, rappelaient déjà The Markup et le New York Times en 2020, ils s’appuient sur des systèmes de vérification d’antécédents automatisés et défectueux, qui par exemple agglomèrent des données d’homonymes et démultiplient les erreurs (et les homonymies ne sont pas distribuées de façon homogène : plus de 12 millions de Latinos à travers les Etats-Unis partageraient seulement 26 noms de famille !). Les casiers judiciaires des uns y sont confondus avec ceux des autres, dans des systèmes qui font des évaluations massives pour produire des scores, dont nul n’a intérêt à vérifier la pertinence, c’est-à-dire le taux de faux-positifs (comme nous le pointions relativement aux problèmes bancaires). Soumis à aucune normes, ces systèmes produisent de la discrimination dans l’indifférence générale. L’accès aux registres judiciaires et aux registres de crédits a permis aux entreprises de « vérification d’antécédents » de se démultiplier, sans que les « vérifications » qu’elles produisent ne soient vraiment vérifiées. Contrairement aux agences de crédit bancaires, dans le domaine de la location, les agences immobilières qui les utilisent ne sont pas contraintes de partager ces rapports d’information avec les candidats rejetés. Les locataires ne savent donc pas les raisons pour lesquelles leurs candidature sont rejetées.
Mais, rapporte encore Tech Policy Press, une troisième vague technologique est désormais à l’œuvre : les technologies d’expulsion, qui aident les propriétaires à rassembler les raisons d’expulser les locataires et à en gérer les aspects administratifs. C’est le cas par exemple de Teman GateGuard, un interphone « intelligent » qui permet de surveiller le comportement des locataires et enregistrer toute violation possible d’un bail, aussi anodine soit-elle, pour aider à documenter les infractions des locataires et remettre leurs biens sur le marché. SueYa est un service pour aider les propriétaires à résilier un bail de manière anticipée. Resident Interface propose quant à lui d’expulser les locataires rapidement et facilement… Des solutions qui n’enfreignent aucune loi, rappelle pertinemment Tech Policy Press, mais qui accélèrent les expulsions. Les propriétaires américains ont procédé à 1 115 000 expulsions en 2023, soit 100 000 de plus qu’en 2022 et 600 000 de plus qu’en 2021. Sans compter que ces expulsions peuvent être inscrites au casier judiciaire et rendre plus difficile la recherche d’un autre logement, et ce alors que les logements sociaux, les refuges et les services aux sans-abri sont notoirement sous-financés et insuffisants, alors même que de plus en plus d’Etat pénalisent les personnes SDF.
Pour l’instant, les tentatives de régulation des PropTechs sont plus juridiques que techniques, notamment en renforçant le droit au logement équitable. Des villes ou Etats prennent des mesures pour limiter les vérifications des antécédents des locataires ou interdire le recours à des logiciels de fixation de prix. Des actions de groupes contre RealPage ou Yardi ou contre des plateformes de contrôle des locataires, comme SafeRent ou CoreLogic, ont également lieu. Mais, « les régulateurs et les agences ne sont pas conçus pour être les seuls à faire respecter les protections et les conditions du marché ; ils sont conçus pour créer les conditions dans lesquelles les gens peuvent faire valoir leurs propres droits ». Les gouvernements locaux devraient soutenir publiquement la représentation juridique des locataires comme moyen d’atténuer les impacts de la crise du logement, et créer une meilleure responsabilité pour la technologie pour rétablir l’équité dans la relation propriétaire-locataire. À l’échelle nationale, 83 % des propriétaires ont une représentation juridique, contre seulement 4 % des locataires. La ville de Cleveland par exemple a piloté une représentation publique pour les locataires, ce qui a permis à 81 % des personnes représentées d’éviter une expulsion ou un déménagement involontaire, à 88 % de celles qui cherchaient un délai supplémentaire pour déménager d’obtenir ce délai et à 94 % de celles qui cherchaient à atténuer les dommages d’y parvenir. En fait, assurer cette représentation permet d’assurer aux gens qu’ils puissent exercer leurs droits.
Les PropTechs exacerbent la crise du logement. A défaut de substituts à des logements abordables, l’enjeu est que le droit puisse continuer à protéger ceux qui en ont le plus besoin. Mais sans documenter les discriminations que cette conjonction de systèmes produit, le droit aura surement bien des difficultés à menacer les technologies.
MAJ du 16/03/2025 : Signalons que The American Prospect consacre son dernier numéro à la crise du logement américaine : l’inflation immobilière est la principale responsable de l’inflation aux Etats-Unis.
-
7:01
IA au travail : un malaise persistant
sur Dans les algorithmesLes travailleurs américains sont plutôt sceptiques face à l’aide que peut leur apporter l’IA au travail. 80% d’entre eux ne l’utilisent pas, rapporte un sondage du Pew Internet, et ceux qui le font ne sont pas impressionnés par ses résultats. Les travailleurs sont plus inquiets qu’optimistes. Si les travailleurs plus jeunes et ceux qui ont des revenus plus élevés expriment plus d’enthousiasme à l’égard de l’IA au travail et à des taux plus élevés que les autres, l’inquiétude se propage à tous les groupes démographiques, rapporte le Washington Post. En fait, les attitudes des travailleurs à l’égard de l’IA risquent de devenir plus polarisées encore à la fois parce que les entreprises n’expliquent pas en quoi l’IA va aider leurs employés ni ne lèvent le risque sur l’emploi et le remplacement. Le malaise social de l’IA se répand bien plus qu’il ne se résout.
MAJ du 13/03/2025 : Dans sa newsletter, Brian Merchant pointe vers un autre sondage réalisé par le cabinet de consulting FGS pour Omidyar Network. Le sondage montre que si les travailleurs sont plutôt enthousiastes sur l’IA et la productivité qu’elle permet, ils savent que ces avantages ne leurs seront pas bénéfiques et qu’ils auront peu de contrôle sur la façon dont l’IA sera utilisée sur le lieu de travail. Bref, ils savent que l’IA sera un outil d’automatisation que la direction utilisera pour réduire les coûts de main-d’œuvre. Ils sont plus préoccupés par la perte d’emploi que par la menace que l’IA représente sur leur propre emploi. Par contre, ils sont très inquiets de la menace que représente l’IA sur la vie privée et sur la capacité d’apprentissage des enfants. Enfin, la plupart des travailleurs souhaitent des réglementations et des mesures de protection, ainsi que des mesures pour empêcher que les systèmes d’IA soient utilisés contre leurs intérêts et, bien sûr, pour dégrader les conditions de travail.
-
7:00
Atténuation des risques, entre complexité et inefficacité
sur Dans les algorithmesTim Bernard pour TechPolicy a lu les évaluations de risques systémiques que les principales plateformes sociales ont rendu à la Commission européenne dans le cadre des obligations qui s’imposent à elles avec le Digital Service Act. Le détail permet d’entrevoir la complexité des mesures d’atténuation que les plateformes mettent en place. Il montre par exemple que pour identifier certains contenus problématiques d’autres signaux que l’analyse du contenu peuvent se révéler bien plus utile, comme le comportement, le temps de réaction, les commentaires… Certains risques passent eux totalement à la trappe, comme les attaques par d’autres utilisateurs, les risques liés à l’utilisation excessive ou l’amplification de contenus polarisants et pas seulement ceux pouvant tomber sous le coup de la loi. On voit bien que la commission va devoir mieux orienter les demandes d’information qu’elle réclame aux plateformes (mais ça, la journaliste Gaby Miller nous l’avait déjà dit).
-
7:00
Dans les algorithmes bancaires
sur Dans les algorithmes« Faux positifs » est une série de 3 épisodes de podcasts produits par Algorithm Watch et l’AFP, disponibles en français ou en anglais, et que vous trouverez sur la plupart des plateforme. Cette série pourrait être une enquête anodine et pourtant, c’est l’une des rares de disponible sur le sujet des défaillances des algorithmes bancaires. Les 3 épisodes explorent le problème du debanking ou débancarisation, c’est-à-dire le blocage et la fermeture automatisée de comptes bancaires, sans que vous n’y puissiez rien. Un phénomène qui touche des centaines de milliers de personnes, comme le montre cette grande enquête à travers l’Europe.
Dans les erreurs de la débancarisationOn ne sait pas grand chose des innombrables algorithmes qu’utilisent les banques, rappellent les journalistes de Faux positifs. La débancarisation repose sur des alertes automatisées développées par les banques et leurs prestataires sur les mouvements de comptes et leurs titulaires, mais elles semblent bien souvent mal calibrées. Et sans corrections appropriées, elles débouchent très concrètement sur la fermeture de comptes en banques. Le problème, comme souvent face aux problèmes des systèmes du calcul du social, c’est que les banques ne mettent en place ni garanties ni droits de recours pour ceux dont les comptes sont considérés comme suspects par les systèmes de calculs. Et le problème s’étend à bas bruit, car les clients chassés de leurs banques n’ont pas tendance à en parler.
Ça commence assez simplement par le blocage brutal du compte, racontent ceux qui y ont été confrontés. Impossible alors de pouvoir faire la moindre opération. Les usagers reçoivent un courrier qui leur annonce que leur compte sera clos sous deux mois et qu’ils doivent retirer leurs fonds. Bien souvent, comme dans d’autres problèmes du social, les banques annoncent être en conformité avec la réglementation dans leur décision voire nient le fait que la décision soit automatisée et assurent que la décision finale est toujours prise par un humain, comme l’exige la loi. Rien n’est pourtant moins sûr.
Comme ailleurs, les explications fournies aux usagers sont lacunaires, et elles le sont d’autant plus, que, comme quand on est soupçonné de fraude dans les organismes sociaux, le fait d’être soupçonné de malversation bancaire diminue vos possibilités de recours plutôt qu’elle ne les augmente. Visiblement, expliquent les journalistes, le blocage serait lié à des erreurs dans le questionnaire KYC (Know your customer, système de connaissance client), un questionnaire très exhaustif et intrusif, assorti de pièces justificatives, qui permet de certifier l’identité des clients et leur activité. Bien souvent, les défaillances sont liées au fait que l’activité ou l’identité des clients est mal renseignée. Certaines catégories, comme le fait de pratiquer l’échange de devises, sont considérées comme des activités à haut risques et sont plus susceptibles que d’autres de déclencher des alertes et blocages.
« Les saisines de l’autorité de surveillance des banques pour des plaintes liées à des fermetures de comptes en banques ont quadruplé en Espagne entre 2018 et 2022« , rapporte le pool de journalistes auteurs du podcast. « En novembre 2023, le New York Times a publié une enquête sur le même phénomène et au Royaume-uni, une hausse de 69% des plaintes a été constatée entre 2020 et 2024 par le médiateur des banques. En France, ce sont les associations du culte musulman qui ont tiré la sonnette d’alarme » et alertent sur la discrimination bancaire dont elles sont l’objet. Un tiers de ces associations auraient expérimenté des fermetures de comptes. Les associations cultuelles, les personnalités politiques et les réfugiés politiques semblent faire partie des catégories les plus débancarisées.
En 2024, le problème des associations cultuelles musulmanes n’est toujours pas réglé, confirment les associations, les empêchant de payer leurs loyers ou leurs charges. Ici aussi, les victimes se retrouvent face à un mur, sans recevoir d’explications ou de solutions. Si les banques ont le droit de fermer les comptes inactifs ou à découvert, elles doivent aussi respecter une réglementation très stricte pour lutter contre le blanchiment d’argent ou le financement du terrorisme, et les amendes sont très élevées pour celles qui ne respectent pas ces contraintes. En France, les banques doivent rapporter à Tracfin, la cellule de renseignement financier, les opérations douteuses qu’elles détectent. Les algorithmes bancaires repèrent des opérations sensées correspondre à certaines caractéristiques et seuils, développés par les banques ou des acteurs tiers, aux critères confidentiels. Ces logiciels de surveillance de la clientèle se sont déployés, et avec eux, les « faux positifs », rapportent les journalistes.
A la Banque postale, rapporte un cadre, chaque années, ce sont plusieurs dizaines de milliers d’opérations qui font l’objet d’alertes. Une fois analyse faite, si l’alerte se confirme, l’opération est déclarée à Tracfin, mais 95% des alertes ne débouchent sur aucun signalement. Dans les banques, à Paris, 17 à 20 000 personnes vérifient chaque jour ces alertes. Mais, visiblement, les rapports d’activité suspecte existent et ne sont pas sans conséquence sur les comptes. En fait, contrairement à ce qu’on pourrait penser, les faux positifs visent à surprotéger les banques contre les amendes réglementaires, en démontrant aux régulateurs qu’elles agissent, qu’importe si cette efficacité est très défaillante. Les faux positifs ne sont pas tant des erreurs, qu’un levier pour se prémunir des amendes. Finalement, les banques semblent encouragées à produire des faux positifs pour montrer qu’elles agissent, tous comme les organismes sociaux sont poussés à détecter de la fraude pour atteindre leurs objectifs de contrôle ou les systèmes de contrôle fiscaux automatisés sont poussés à atteindre certains niveaux d’automatisation. Le fait de débrancher des comptes, de soupçonner en masse semble finalement un moyen simple pour montrer qu’on agit. Pour la professeure Mariola Marzouk de Vortex Risk qui a quitté le secteur de la conformité réglementaire des banques, cette conformité est hypocrite et toxique. Les erreurs ne sont pas un bug, elles sont une fonctionnalité, qui protège les banques au détriment des usagers.
Faux positifs, la série de podcast d’Algorithm Watch et de l’AFP. La débancarisation, outil bien commode de la réduction du risque
Le 2e épisode commence par revenir sur les Panama Papers et les scandales de l’évasion fiscale qui ont obligé les banques à renforcer leurs contrôles. Mais la véritable origine de la surveillance des comptes provient de la lutte contre le trafic de drogue, explique l’avocate Charlotte Gaudin, fondatrice de AML Factory, une entreprise qui aide les entreprises à lutter contre le blanchiment de capitaux et le financement du terrorisme, dans tous les secteurs, des banques, aux assurances, en passant par les notaires et avocats, aux entreprises de cryptomonnaies, qui « ont toutes l’obligation de surveiller leurs clients ». Pour Transparency International, les banques doivent surveiller les dépôts à risques, notamment provenance de pays à risques établis par le GAFI, le Groupe d’action financière, l’organisme mondial de surveillance du blanchiment de capitaux et du financement du terrorisme. Outre, le KYC, la surveillance des clients, il y aussi la surveillance des transactions (KYT, Know your transactions). Le KYC permet de générer un score client. Le KYT lui permet de regarder s’il y a des dépôts d’argents « décorélés de ce que vous êtes sensé gagner tous les mois ». Les dépôts d’espèces sont mécaniquement plus risqués que les dépôts par carte, par exemple. Quand un dépôt d’espèces semble suspect, la banque alerte Tracfin qui estime s’il faut prévenir la justice ou l’administration fiscale. Pour s’éviter des ennuis, la banque peut décider de fermer votre compte, sans avoir le droit de vous dire pourquoi pour que vous n’effaciez pas les preuves.
Le problème, c’est que cette réglementation font des banques des auxiliaires de police et de justice… Mais sans avoir les moyens ou les compétences de mener des enquêtes. Les banques, pour poursuivre leur but, gagner de l’argent, ont donc tendance à se débarrasser de tous clients qui pourraient les mettre en danger. « C’est ce qu’on appelle le « derisking » ». Pour Mariola Marzouk, « ces règles sont vraiment simplistes ». Elles peuvent dire qu’une ONG est à haut risque parce qu’elle envoie des fonds dans une zone de conflits. En janvier 2022, l’autorité bancaire européenne elle-même a lancé une alerte sur le risque du derisking. En 2023, le politicien britannique d’extrême-droite, Nigel Farage, s’est vu fermer ses comptes par sa banque et a lancé un appel à témoignage qui a rencontré beaucoup d’échos, montrant à nouveau l’étendue du problème. Tous les politiques sont jugés à hauts risques par ces systèmes et font l’objet de mesures de contrôles renforcés (on parle de PPE, Personnes politiquement exposées). Selon les données de l’autorité qui contrôle les banques et les marchés financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermé en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont été condamné pour ce délit ces mêmes années selon l’Institut des affaires économiques britanniques.
En France aussi, les politiques sont sous surveillance. C’est arrivé au sénateur centriste du Tarn, Philippe Folliot, qui a même déposé une loi contre la fermeture abusive des comptes bancaires. Pour le sénateur, la débancarisation est liée à la déshumanisation, aux développement des robots bancaires et aux fermetures d’agences. Depuis la crise financière de 2008, le nombre de succursales bancaires en France est passé de 180 000 agences à 106 000 en 2023. Si l’on en croit le Canard Enchaîné, il y aurait d’autres raisons à la débancarisation du sénateur du Tarn, notamment les activités de sa compagne, d’autant que les banques semblent également utiliser les informations de la presse et des réseaux sociaux pour prolonger leurs informations. Mais quand bien même ces informations auraient pu jouer dans ce cas précis, les banques agissent ici sans mandat ni preuves. Cela montre, il me semble, la grande limite à confier à des acteurs des pouvoirs de police et de justice, sans assurer de possibilités de se défendre. Un peu comme l’on confie désormais aux Gafams la possibilité d’exclure des utilisateurs sans que ceux-ci ne puissent faire de recours. « Les banques de leur côté, ne nient pas qu’il puisse y avoir des difficultés, mais soulignent qu’elles ne font qu’appliquer la réglementation », souligne un acteur de la réglementation bancaire. Dans le cadre de PPE, se sont tous les proches qui sont placés sous-surveillance.
Pour l’expert américain Aaron Ansari de RangeForce, les décisions, aux Etats-Unis, sont automatisés en temps réel. Depuis les années 2010, quand un dépôt est effectué, les signalements sont immédiats… et si la marge d’erreur est faible, les comptes sont automatiquement fermés. En Europe, on nous assure que ce n’est pas le cas.
Sans issue ?Le 3e épisode, évoque l’internationalisation du problème, en montrant que les banques peuvent débancariser des réfugiés politiques au prétexte qu’ils sont signalés comme terroristes par les pays autoritaires qu’ils ont fuit. La débancarisation est devenue un moyen pour exclure des opposants dans leurs pays et qui ont des effets au-delà de leurs pays d’origine.
Yasir Gökce, réfugié turc en Allemagne, estime que nombre d’opposants turcs en Europe sont débancarisés du fait que les banques utilisent des informations provenant de courtiers en données pour alimenter leurs algorithmes de débancarisation, sans toujours les trier. Des données turques assignent les opposants comme terroristes et ces termes restent dans les fiches nominatives des courtiers. Les banques les utilisent pour évaluer les risques, et à moins de prêter une attention particulière à ces données pour les désactiver, génèrent des scores de risque élevés…
Le grand problème, c’est que les citoyens confrontés à ces décisions n’ont pas de recours. Faire modifier leur fiches KYC ne leur est souvent même pas proposé. Pour Maíra Martini de Transparency International, « les institutions financières n’ont pas à rechercher de preuves. Ce n’est pourtant pas à elles de décider si des personnes sont ou pas criminelles ».
« Les institutions financières n’arrivent donc pas toujours à corriger les erreurs de leurs systèmes algorithmiques et faire appel de ces décisions fondées sur leurs calculs ou sur leur aversion au risque peut-être très compliqué. C’est un problème que l’on retrouve ailleurs : dans l’aide social, dans l’éducation, les ressources humaines. » Les citoyens ne savent pas à qui s’adresser pour demander un réexamen de leurs cas. En fait, bien souvent, la possibilité n’est même pas proposée. Dans les boucles absurdes des décisions automatisées, bien souvent, l’usager est laissé sans recours ni garantie. « Les boutons Kafka » qu’évoquait l’avocate hollandaise Marlies van Eck pour permettre aux administrés de s’extraire de situations inextricables, n’est toujours pas une option.
Maíra Martini estime que les institutions financières devraient motiver leurs décisions. Les autorités de contrôle devraient également mieux évaluer les fermetures de compte, demander aux banques des statistiques annuelles, pour connaître les types de comptes et de personnes touchées, la proportion de fermeture par rapport aux condamnations… Empêcher que les abus ne se cachent derrière l’envolée des « faux positifs ». Et que les « faux positifs » ne deviennent partout une solution à la minimisation des risques. Bref, peut-être un peu mieux surveiller le niveau de derisking afin qu’il ne soit pas le prétexte d’une discrimination en roue libre.
Hubert Guillaud
Prenez le temps d’aller écouter les 3 épisodes de « Faux positifs », pilotés par Naiara Bellio d’Algorithm Watch et Jean-Baptiste Oubrier pour l’Agence France-Presse. Signalons que les journalistes invitent les victimes de débancarisation à témoigner par message audio sur whatsapp au + 33 6 79 77 38 45 ou par mail : podcast@afp.com
-
7:04
De l’hypersurveillance chinoise
sur Dans les algorithmesLes technologies de surveillance les plus avancées au monde se trouvent aujourd’hui en Chine, explique le politologue Minxin Pei, mais, comme il le montre dans son livre, The Sentinel State: Surveillance and the Survival of Dictatorship in China, aucune de ces technologies ne fonctionne particulièrement bien et ce malgré le déploiement d’une pléthore de personnels pour les faire fonctionner. En fait, cette pléthore humaine ressemble bien plus aux vieux réseaux d’informateurs humains qui viennent compléter les défaillances du renseignement qu’à un réseau d’ingénieurs performants, explique Mason Wong dans sa lecture du livre de Pei. La dictature chinoise n’a pas besoin de technologie de pointe pour assurer sa paranoïa. La persistance de l’autocratie en Chine est moins une fonction de la technologie que le résultat d’un travail humain sous la forme de réseaux d’informateurs, d’espionnage intérieur à forte intensité de main-d’œuvre et d’une surveillance policière renforcée. Pei montre que nous sommes bien loin des délires dystopiques qui savent si bien mettre sous silence la question des libertés publiques qu’évoque l’investisseur sino-américain Kai-Fu Lee dans ses livres et notamment dans IA 2042.
Pour l’historien Andrew Liu, ce qui rend l’Asie si dangereuse pour nombre d’occidentaux, c’est qu’elle aurait capturé les technologies occidentales pour les rendre autoritaires et malfaisantes. Mais selon Liu, nous sommes surtout confronté à un techno-orientalisme, qui n’est pas seulement raciste, mais qui sert surtout à occulter la surveillance américaine elle-même et qui tend à faire de l’Asie une menace indétrônable. Dans le cadre techno-orientaliste, le problème est moins lié au danger que le régime chinois représente pour son propre peuple qu’au danger qu’il représente pour l’Occident.
Cette histoire sert également des objectifs politiques pratiques. Mettre la technologie au centre du récit sur la privation de liberté de la Chine permet à la sécurité américaine de présenter celle-ci comme une menace de haute technologie pour l’ensemble du monde libre. Et cela, à son tour, leur permet d’intégrer des préoccupations apparemment humanitaires concernant la surveillance dans un projet plus vaste : l’endiguement de la Chine. La logique de la soi-disant guerre technologique sino-américaine déplace le débat des questions de droits de l’homme vers les questions de politique de sécurité nationale, en associant le problème de l’État de surveillance aux débats sur les sanctions, le contrôle des exportations de semi-conducteurs, le protectionnisme commercial contre les voitures électriques chinoises et le désinvestissement forcé des investisseurs chinois d’applications comme TikTok. Le journaliste allemand Kai Strittmatter dans son livre, Dictature 2.0, quand la Chine surveille son peuple (et demain le monde) (Taillandier, 2020), nous le disait déjà pourtant : la Chine est d’abord le miroir noir de la surveillance américaine. En présentant la Chine comme l’ennemi, les Etats-Unis protègent d’abord leur propre puissance, expliquait Paris Marx.
Dans un pays où les informateurs imprègnent chaque couche de l’interaction sociale, la solution n’est pas aussi simple que de déjouer un algorithme ou d’échapper à la censure sur un flux vidéo. Le livre de Pei rappelle que l’autoritarisme chinois n’est pas fondamentalement un problème technique : le totalitarisme numérique n’est pas le bon prisme d’analyse. Ce qui ne veut pas dire que les Chinois sont des enfants de choeur, ni que la surveillance chinoise, plus distribuée que technologique, n’est pas un problème. Mais elle est d’abord un problème pour les citoyens chinois, plus qu’une menace technologique pour l’Occident.
-
7:25
La course à l’IA est un marathon
sur Dans les algorithmes« Tant qu’il existera un consensus sur le fait que les LLM sont la seule approche pertinente, la loi d’échelle dominera et aucun pays ne pourra réellement « gagner » la course à l’IA. »
« L’extrême droite a réussi un tour de force : disqualifier la vérité en tant que critère pertinent pour juger de la qualité d’un modèle d’IA. »
« Ce n’est qu’en refusant de participer à cette course délirante que l’Europe aurait vraiment une chance de s’en sortir par le haut. » Gary Marcus
-
7:00
De l’esthétique fasciste de l’IA
sur Dans les algorithmes“Pourquoi les personnalités d’extrême droite utilisent-elles massivement la synthographie et la vidéo générée par IA pour communiquer ? Le premier élément de réponse, le plus évident, se situe dans la facilité d’accès aux outils de génération d’image. Dans la pure application de la doctrine de Steve Bannon, qui recommande d’inonder l’espace médiatique de « merde » , l’imagerie IA peut être produite et diffusée de façon massive. Elle ne nécessite pas d’intermédiaire artistique et permet de véhiculer de manière suffisamment précise les idées à communiquer”. David-Julien Rahmil
“Si l’art consiste à établir ou à briser des règles esthétiques, alors l’art de l’IA, tel qu’il est pratiqué par la droite, affirme qu’il n’y a pas de règles, mais l’exercice pur et simple du pouvoir par un groupe sur un groupe extérieur”. Gareth Watkins“Les fascistes n’ont pas de morale […] Ils prennent toutes leurs décisions pour des raisons mythologiques ou esthétiques. C’est pourquoi ils aiment l’IA moderne. Pour eux, elle représente la victoire de l’esthétique sur l’art. Le triomphe final des apparences superficielles sur le sens humain.” Aaron Brown
-
7:00
La co-science de l’IA sera-t-elle magique ?
sur Dans les algorithmesGoogle a dévoilé un système expérimental d’intelligence artificielle qui « utilise le raisonnement avancé pour aider les scientifiques à synthétiser de vastes quantités de littérature, à générer de nouvelles hypothèses et à suggérer des plans de recherche détaillés », selon son communiqué de presse. L’idée de cette IA de « co-science », basée sur Gemini, est qu’elle propose des idées à une question ou à un objectif spécifique, puis travaille ces hypothèses en allant puiser dans la recherche scientifique et dans les bases de données scientifiques. Si les équipes qui ont testé l’outil semblent enthousiastes, le New Scientist l’est beaucoup moins. L’idée que l’IA permettrait de tester de nouvelles hypothèses semble présomptueux, estime un spécialiste qui a regardé les propositions d’une équipe pour traiter la fibrose hépatique, qui note qu’il n’y a rien de nouveau dans ce qui est proposé. Visiblement, le système a surtout accès a bien plus de réponses que les humains.
En 2023, Google avait déjà annoncé qu’une quarantaine de « nouveaux matériaux » avaient été synthétisés à l’aide de son IA GNoME. Pourtant, selon une analyse de 2024 de Robert Palgrave de l’University College London, aucun des matériaux synthétisés n’était réellement nouveau. Ce qui n’empêche pas Palgrave de soutenir que l’IA est une aide considérable à la science. Une aide, pas une solution.
-
7:00
Les sites de rencontre ne protègent pas leurs utilisatrices
sur Dans les algorithmesMatch Group est un conglomérat mondial qui possède la plupart des applications de rencontre, comme Hinge, Tinder, OkCupid et Plenty of Fish. Match Group contrôle la moitié du marché mondial des rencontres en ligne, opère dans 190 pays et facilite les rencontres pour des millions de personnes. La politique de sécurité officielle de Match Group stipule que lorsqu’un utilisateur est signalé pour agression, « tous les comptes trouvés qui sont associés à cet utilisateur seront bannis de nos plateformes ». Mais ce n’est pas le cas, révèle une enquête de The Markup. Le 25 octobre 2024, un juge a condamné un cardiologue de Denver à 158 ans de prison après qu’un jury l’a reconnu coupable de 35 chefs d’accusation liés à l’usage de drogues et à l’agression sexuelle de huit femmes, et à l’agression de 3 autres. Les avocats des femmes ont déclaré qu’une grande partie de cette violence aurait pu être évitée, car la plupart de ces mauvaises rencontres se sont faites depuis des applications de rencontre, alors que le cardiologue y avait été dénoncé par de précédentes victimes. Visiblement, les sites de rencontre permettent aussi aux agresseurs qui commettent des abus sexuels d’atteindre plus facilement un nombre apparemment infini de cibles potentielles.
En 2022, une équipe de chercheurs de l’université Brigham Young a publié une analyse de centaines d’agressions sexuelles dans l’Utah. Ils ont découvert que les agressions facilitées par les applications de rencontre se produisaient plus rapidement et étaient plus violentes que lorsque l’agresseur rencontrait la victime par d’autres moyens. Ils ont également constaté que les agresseurs qui utilisent des applications de rencontre sont plus susceptibles de cibler les personnes vulnérables.
« Match Group sait depuis des années quels utilisateurs ont été dénoncés pour avoir drogué, agressé ou violé leurs partenaires. Depuis 2019, la base de données centrale de Match Group enregistre chaque utilisateur signalé pour viol et agression sur l’ensemble de sa suite d’applications ; en 2022, le système, connu sous le nom de Sentinel, collectait des centaines d’incidents chaque semaine, selon des sources internes de l’entreprise.«
« Match Group a promis en 2020 de publier ce que l’on appelle un rapport de transparence – un document public qui révélerait des données sur les préjudices survenus sur et en dehors de ses plateformes. Si le public était conscient de l’ampleur des viols et des agressions sur les applications de Match Group, il serait en mesure d’évaluer précisément les risques auxquels il est exposé. Mais en février 2025, le rapport n’avait pas encore été publié. »
Depuis 2020, les membres du Congrès américain ont demandé à plusieurs reprises à Match des données sur les agressions sexuelles, sans jamais avoir obtenu de réponses. « Les utilisateurs de Tinder bannis, y compris ceux signalés pour agression sexuelle, peuvent facilement rejoindre ou passer à une autre application de rencontre de Match Group, tout en conservant les mêmes informations personnelles clés. » « À partir d’avril 2024, The Dating Apps Reporting Project a créé une série de comptes Tinder que nous avons ensuite signalés pour agression sexuelle. Peu de temps après, Tinder a banni les comptes et nous avons commencé à enquêter sur la facilité avec laquelle un utilisateur banni pouvait créer de nouveaux comptes.«
« À plusieurs reprises, nous avons constaté que les utilisateurs, peu de temps après avoir été bannis, pouvaient créer de nouveaux comptes Tinder avec exactement le même nom, la même date de naissance et les mêmes photos de profil que ceux utilisés sur leurs comptes bannis. Les utilisateurs bannis de Tinder pouvaient également s’inscrire sur Hinge, OkCupid et Plenty of Fish sans modifier ces informations personnelles. »
En ce début 2025, les résultats financiers du Groupe Match ne sont pas très bons : les sites de rencontre peinent à se renouveler. Et surtout, la sécurité des utilisatrices des applications de rencontre est devenue problématique. Le cardiologue de Denver ne sortira probablement jamais de prison, mais les dirigeants de Match Group ne sont actuellement pas inculpés alors que l’entreprise était au courant de son comportement et de ceux de milliers d’autres utilisateurs abusifs. L’entreprise dispose de données qui pourraient aider les utilisatrices à éviter des situations dangereuses, mais elle ne les a pas partagées, laissant des millions de personnes dans l’ignorance. « La réalité est que si le cardiologue de Denver était libéré aujourd’hui, il pourrait immédiatement revenir sur une application de rencontre. Match Group le sait – et maintenant vous aussi. »
Sortir du swipePour le philosophe Luke Brunning qui dirige le Centre pour l’amour, le sexe et les relations de l’université de Leeds, les utilisateurs sont de plus en plus nombreux à se détourner des sites de rencontre. Pourtant, elles ont permis d’élargir les bassins de partenaires, tout en rendant la recherche de relation plus calculatrice, comme le montrait la chercheuse Marie Bergström dans son livre, Les nouvelles lois de l’amour (2019, La Découverte). A mesure que les applications de rencontre ont été plus acceptées, elles se sont aussi gamifiées, explique Brunning dans The New Scientist, nous incitant à chercher de nouvelles relations plutôt que d’approfondir les relations existantes (voir « Comment gagner à Tinder ? »). Bien souvent, payer un abonnement mensuel permet surtout d’obtenir un surcroît d’attention, tout comme sur X, où les utilisateurs payants sont rendus plus visibles. Mais cela ne signifie pas plus de rendez-vous réussi pour autant. Pour Brunning, les applications de rencontre doivent faire leur mea-culpa sur la gamification. Le fait qu’elles projettent toutes d’intégrer de l’IA, fait peser de nouveaux risques en créant des espaces toujours moins authentiques, où la manipulation se déploie, et avec elle, les préjugés sociaux existants et notamment l’homogamie sociale. Le chercheur invite également les applications à se débarrasser du mode binaire du swipe. « Avant d’adopter l’IA générative, les applications de rencontres doivent résoudre les problèmes qu’elles ont créés, pour nous connecter avec plus de transparence et d’autonomie. Elles ne sont peut-être pas disposées à le faire, car leur conception actuelle signifie que plus nous swipons, plus ils gagnent, mais s’ils ne le font pas, ils ont peu de chances de survivre à l’apathie croissante envers les rencontres en ligne. »
Le public est devenu très méfiant envers les sites de rencontre, notamment parce que celui-ci s’est rendu compte que les applications cherchent surtout à pousser les utilisateurs à payer pour accéder à des avantages (augmentation de la visibilité, likes illimités…). Le groupe Match est même poursuivi parce qu’il enferme ses utilisateurs « dans une boucle perpétuelle de paiement » pour jouer au détriment des « objectifs relationnels des clients ». Pour The Atlantic, Faith Hill se demande s’il pourrait y avoir des applications de rencontre à but non lucratif, pour éviter tous les désagréments auxquels conduit la recherche de profits. La journaliste a repéré quelques applications développées par des villes en Asie. Mais, si les objectifs des autorités peuvent rejoindre ceux des utilisateurs, la protection des utilisateurs n’est pas plus assurée par les applications publiques. En Chine ou en Iran, les victimes ne sont pas mieux considérées, sans compter qu’une plateforme publique ou gouvernementale peut facilement censurer certains types de rencontres (notamment intersexes, interculturelles, intercultuelles ou interraciales).
Mais il y a d’autres acteurs que les autorités pour produire ce type de plateforme, et notamment les chercheurs. Pourtant, la recherche sur le sujet des rencontres est à la peine. Dans une étude de 2017, des psychologues ont essayé de prédire la compatibilité des gens en utilisant un modèle mathématique basé sur plus de 100 mesures de traits et de préférences que leurs sujets ont eux-mêmes déclarées : aucune combinaison de ces caractéristiques n’a réussi à corréler le degré d’entente entre les participants lors de leur rencontre.
Elizabeth Bruch et Amie Gordon, chercheuses à l’Université du Michigan, ont travaillé sur Revel, une application de rencontres en cours de test par 200 étudiants. Mais plus qu’un site de rencontre, Revel semble surtout une plateforme d’étude pour comprendre à partir de combien de profils proposés, l’utilisateur sature, ou si le fait d’avoir plus d’information sur les personnes conduit à de meilleures connexions… C’est oublier que derrière la magie des appariements, comme le disait déjà Marie Bergström, « les algorithmes utilisés sont très rudimentaires et bien moins sophistiqués qu’on le croit. Les concepteurs sont d’ailleurs souvent les premiers à dire qu’on ne peut pas prédire l’appariement… et se contentent de cadrer la rencontre en laissant se débrouiller les gens. Meetic par exemple utilise des algorithmes simples qui déterminent une priorité dans les profils présentés favorisant le fait que les gens soient connectés en temps réel, qu’ils se soient inscrits récemment, qu’ils habitent à proximité et qu’ils aient à peu près le même âge. Et on en reste là la plupart du temps. »
-
7:00
Doge : l’efficacité, vraiment ?
sur Dans les algorithmesSans mandat ni attribution claire, Musk a pris les commandes des systèmes informatiques de l’Etat fédéral (Musk n’est que conseiller du Département de l’efficacité, dirigé – on ne le sait que depuis quelques jours – par Amy Gleason). Le démantèlement en cours de l’autre côté de l’Atlantique est à l’image de ce nouveau bureau dont le cadre d’exercice est tout aussi confus que le périmètre de ses missions. Cela n’empêche pas que, depuis le 20 janvier 2025, les Doge Kids prennent partout les commandes des bases de données d’innombrables agences et ministères, alors que le Doge licencie les fonctionnaires à tour de bras et coupe les budgets. S’il est difficile de tirer la situation au clair, tant les actions sont nombreuses et polémiques (certaines décisions sont prises, réfutées, reprises, avec des décisions de justice contradictoires qui viennent les réfuter sans qu’elles ne le soient nécessairement dans les faits), à défaut d’éclaircir la confusion, essayons néanmoins de regrouper les analyses.
Ce qu’il se passe avec le Doge depuis janvier est difficile à suivre, rappelle Brian Barrett pour Wired. Notamment parce que, contrairement à ce que Musk avait promis, le Doge ne fonctionne absolument pas d’une manière transparente, bien au contraire. Mais le peu que la presse en voit, qu’elle arrive à documenter, montre dans ses interstices, que ce qu’il se passe est pire que ce qu’elle parvient à en montrer. « La Food and Drug Administration (FDA) a annulé une réunion qui aurait dû donner des orientations sur la composition du vaccin contre la grippe de cette année. Pour l’instant, la réunion n’a pas été reprogrammée ». L’administration de la sécurité sociale va réduire son personnel de moitié. Le ministère du Logement et du Développement urbain va être réduit de 84 %. Et c’est pareil dans nombre d’administrations… « Ne pensez pas que vous recevrez vos chèques d’aide sociale à temps, que vous allez pouvoir garder vos lumières allumées »…. « Ne présumez pas que tout ce qui fonctionne aujourd’hui fonctionnera encore demain. » Surtout que si beaucoup de personnel ont été licenciés, la purge massive annoncée n’a pas encore eu lieu !
Le Doge a annoncé des correctifs sur certaines de leurs premières annonces, comme l’annulation d’un programme de l’USAID conçu pour empêcher la propagation d’Ebola. « Nous avons rétabli la prévention d’Ebola immédiatement » a-t-il été répondu face à l’alarme. Ce n’est pas le cas, rapporte le Washington Post. Un exemple qui montre qu’on ne peut même pas s’appuyer sur les déclarations.
Bref, « le Doge pour l’instant n’a fait que jeter un rocher au milieu d’un étang. Si vous pensez que c’est mauvais, attendez les répercussions ».
Le Doge : un piratage de l’intérieur !« Il s’agit de la plus grande violation de données et de la plus grande violation de sécurité informatique de l’histoire de notre pays », explique un expert en sécurité informatique interrogé par The Atlantic. Comme si on assistait à un piratage informatique de l’intérieur. Partout, les fonctionnaires sont déboussolés de constater ce qu’il se passe. « Musk et son équipe pourraient agir délibérément pour extraire des données sensibles, modifier des aspects fondamentaux du fonctionnement de ces systèmes ou fournir un accès supplémentaire à des acteurs non contrôlés. Ou ils peuvent agir avec négligence ou incompétence, détruisant complètement les systèmes. Étant donné l’ampleur de ce que font ces systèmes, des services gouvernementaux clés pourraient cesser de fonctionner correctement, des citoyens pourraient être lésés et les dommages pourraient être difficiles ou impossibles à réparer ». D’innombrables données personnelles sont siphonnées sans que nulle ne sache où elles seront disséminées ni à quoi elles pourront servir. Pire, les données peuvent également être modifiées tout comme le fonctionnement de logiciels critiques. Pire encore, le Doge peut désormais cacher les preuves des modifications que ses équipes accomplissent. « Ils pourraient modifier ou manipuler les données du Trésor directement dans la base de données sans que plus personne ne puisse vérifier les modifications ». L’information sur les niveaux d’accès spécifiques dont Musk et son équipe disposent restent flous et varient probablement selon les agences et les systèmes. « Auparavant, les protocoles de sécurité étaient si stricts qu’un entrepreneur branchant un ordinateur non fourni par le gouvernement sur un port Ethernet d’un bureau d’une agence gouvernementale était considéré comme une violation majeure de la sécurité ». Nous n’en sommes absolument plus là. « Plus ces intrusions durent, plus le risque d’une compromission potentiellement fatale augmente ». Même une petite modification d’une partie du système qui a trait à la distribution des fonds pourrait faire des ravages, empêchant ces fonds d’être distribués ou les distribuant de manière incorrecte, par exemple. Les opposants de Musk et Trump devraient s’inquiéter. Demain, le fisc pourrait produire des déclarations qu’ils n’ont pas faites ou faire disparaître celles qu’ils ont faites. La corruption des bases de données de l’Etat fédéral risque de saper ce qu’il reste de confiance dans l’Etat.
Dans les administrations, la terreur et la paranoïa règnent, explique la journaliste Karen Hao. La paralysie qui saisit les administrations américaines n’est pas que liée aux licenciements massifs, mais plus encore à la peur de dénonciation. Tous les fonctionnaires ont l’impression d’être désormais traqués par leur propre gouvernement. Nombre de fonctionnaires suspectent désormais leurs ordinateurs de les espionner pour le compte du Doge, rapporte Wired, et nombreux sont ceux qui se mettent à prendre des précautions… D’ailleurs, le nombre de messages échangés a considérablement chuté, pas seulement du fait des licenciements.
Mais la surveillance des fonctionnaires a commencé bien avant Trump, rappellent les journalistes de Wired, notamment pour ceux qui manipulent des informations classifiées. Mais pas seulement, beaucoup d’agences sensibles sont depuis longtemps sous surveillance. 9 des 15 ministères américains avaient déjà souscrit des programmes de surveillance d’une partie de leurs employés, à l’image du logiciel Intercept de Dtex, utilisé par plusieurs agences fédérales, qui génère des scores de risque individuels en analysant des métadonnées anonymisées, telles que les URL que les travailleurs visitent et les fichiers qu’ils ouvrent et impriment sur leurs appareils de travail. « Lorsque vous créez une culture de peur et d’intimidation et que vous parvenez à dissuader les gens de dénoncer les actes répréhensibles, vous vous assurez que la corruption passe inaperçue et n’est pas traitée« , s’alarme Karen Hao.
Thomas Shedd, un ancien ingénieur de Tesla récemment nommé directeur des services de transformation technologique du Doge, a demandé un accès privilégié à 19 systèmes informatiques différents. « S’ils voulaient changer le montant du salaire d’une personne ou de ses impôts, ils pourraient le modifier », explique encore un article de The Atlantic. Non seulement ils peuvent lire les e-mails des employés, mais vu le niveau d’autorisation d’accès, ils pourraient même les modifier. Les risques de préjudice, d’abus, de corruption ou de vengeance sont complètement libérés. « La NASA détient des spécifications techniques et des données de recherche pour les concurrents de SpaceX, et les initiés craignent que ces informations soient bientôt également compromises. Ils craignent également que la R&D classifiée de la NASA dans des domaines tels que la physique quantique, la biotechnologie et l’astrobiologie puisse être volée à des fins privées. »
« Le premier mois de Musk et du Doge a été si chaotique, leurs incursions si aléatoires, qu’il est difficile d’évaluer ce qui s’est passé. Doge prétend améliorer le gouvernement, mais les employés de l’agence avec lesquels nous avons parlé ont le sentiment d’avoir été piratés. »
Pour les éditeurs de The Atlantic : « Aucune bonne raison ou argument ne peut être avancé pour qu’une personne ou une entité ait un tel accès à autant d’agences gouvernementales contenant autant d’informations sensibles. Même dans un seul bureau gouvernemental, l’accès administratif complet à tous les systèmes est un privilège qui n’existe pas. Dans l’ensemble, à l’échelle de l’ensemble du gouvernement, ce serait incompréhensible ».
Le Data Coup du Doge est « la plus grande appropriation de données publiques par un particulier dans l’histoire d’un État moderne », estiment les sociologues Nick Couldry et Ulises Meijas dans une tribune pour Tech Policy Press (auteurs d’un récent livre sur le pillage des données et le colonialisme de la Tech, dont on avait rendu compte). Pour eux, ce qu’il se passe ne relève pas du capitalisme de surveillance de Zuboff qui dénonçait le fait que les géants de la tech aient été mis au service de l’Etat. Ici, il s’agit de mettre toutes les données de l’Etat fédéral au mains d’entreprises : « Dans le néolibéralisme, les citoyens deviennent des consommateurs ; dans le colonialisme des données, les citoyens deviennent des sujets ». Une fois que nous examinons les événements récents aux États-Unis à travers une lentille coloniale, le mépris de la légalité n’est pas non plus surprenant. Jusqu’à récemment, il était possible que l’État américain soutienne des réglementations pour restreindre l’extractivisme des Big Tech, sous une forme ou une autre. Aujourd’hui, c’est devenu une perspective lointaine.
« Le Doge a compris quelque chose que l’establishment politique n’a pas compris : la technologie est la colonne vertébrale de tout gouvernement ! » C’est ce qu’affirme dans une tribune pour Tech Policy Press, Emily Tavoulareas qui a fondé le US Digital Service, qui, depuis le 20 janvier est devenu le Doge. L’organisation dédiée à l’amélioration des services gouvernementaux a été réaffectée en vecteur de destruction de ces services, constate, désolée, la chercheuse et ex-directrice technique à la Maison Blanche. Là aussi, la plupart des employés ont été licenciés. Le Doge a pris le contrôle de nombres de systèmes critiques du gouvernement fédéral. « L’administration Trump semble comprendre quelque chose que peu d’autres comprennent : l’infrastructure technique est l’infrastructure de tout. Elle peut accélérer ou entraver les objectifs politiques ». C’est ce qu’a tenté d’expliquer Tavoulareas à nombre de responsables politiques ces dernières années. Pour le US Digital Service, les applications et sites de l’administration problématiques étaient souvent un levier pour organiser des transformations plus profondes dans les services. Mais pour les politiciens, bien souvent, la technologie et l’implémentation des politiques dans des services numériques, tenaient de la simple logistique, souvent confiée à des acteurs privés. Mais, c’est là croire que la technologie est subordonnée au travail politique, quand elle lui est inextricablement liée. « Séparer la politique de la technologie dont elle dépend a été une cause profonde de beaucoup de dysfonctionnements ».
« La technologie n’est pas une chose supplémentaire que vous ajoutez aux programmes et services gouvernementaux — elle EST le service. Ce n’est pas une chose supplémentaire que vous ajoutez à l’institution — elle est la colonne vertébrale de l’institution. » Le Doge a parfaitement compris cela. Les équipes de Musk savent parfaitement que l’infrastructure technique n’est pas seulement une infrastructure pour faire des applications et des sites web, mais qu’elle est l’infrastructure qui contrôle tout.
La mission du US Digital Service était de fournir de meilleurs services gouvernementaux au peuple américain à travers la technologie et le design. Pour le service numérique du gouvernement américain, la technologie n’était qu’un véhicule pour améliorer les services au bénéfice des personnes. Ce n’est pas l’objectif du Doge, qui se concentre tout entier sur l’efficacité et la réduction des coûts. Le Doge n’a pas vocation à se mettre au service des gens, ce qui signifie qu’elle est au service de quelqu’un d’autre ! Certes, concède Emily Tavoulareas, le Digital service n’a pas toujours été efficace. Oui, le gouvernement américain a gaspillé parfois des milliards de dollars à construire des logiciels qui ne fonctionnent pas, notamment parce que nombre de services se préoccupent assez peu des utilisateurs. Mais le Digital service montrait qu’on pouvait et devait faire mieux, que les employés du gouvernement devaient privilégier les résultats sur les procédures, les personnes par rapport aux processus, les solutions par rapport aux règles. Le service a tenté de faire en sorte que la technologie bénéficie aux utilisateurs. Avec le Doge, il est sûr que ce n’est pas aux utilisateurs qu’elle va désormais bénéficier !
Le Doge, institution de l’IA impérialeIl est temps de s’inquiéter des projets d’intelligence artificielle du Doge, s’alarment les spécialistes de la sécurité informatique Bruce Schneier et Nathan Sanders dans The Atlantic (ils feront paraître en octobre, Rewiring Democracy). Alors que nombre de fonctions critiques de l’Etat ont été interrompues, que des dizaines de milliers de fonctionnaires fédéraux sont encouragés à démissionner, le département de l’efficacité gouvernementale s’attaque déjà à l’étape suivante : utiliser l’IA pour réduire les coûts. Selon le Washington Post, le groupe de Musk a commencé à traiter des données sensibles des systèmes gouvernementaux via des programmes d’IA pour analyser les dépenses et déterminer ce qui pourrait être élagué et bien sûr remplacer les fonctionnaires par des machines. En fait, analysent Schneier et Sanders, remplacer les fonctionnaires par des machines a surtout pour objectif de rendre le changement à l’oeuvre sans recours, en éliminant la résistance des corps institués au changement. L’autre danger de recourir à l’IA pour gérer des programmes fédéraux, c’est de renforcer la concentration du pouvoir. Les programmes de protection sociale comme les organismes de contrôle des entreprises peuvent alors très facilement être orientés pour bénéficier à certains plus qu’à d’autres. « Le pouvoir absolu de commander des agents d’IA pourrait faciliter la subversion de l’intention législative« .
Bien sûr, la faculté de discernement ne disparaît pas, mais dans les systèmes machiniques, celle-ci est concentrée dans les mains de ceux qui opèrent et déploient les systèmes. Dans les systèmes humains, ce discernement est largement réparti entre de nombreux individus, fonctionnaires et agents. « L’IA ne remplace pas ces anciennes institutions, mais elle change leur fonctionnement ». Le développement de l’IA elle-même pourrait se faire au sein d’institutions publiques transparentes, responsables et démocratiques, avec une supervision publique de leur conception et de leur mise en œuvre et la mise en place de garde-fous adaptés, plaident les deux chercheurs. Ce n’est bien sûr pas cette orientation qui est prise. Et le risque, c’est que cette orientation autoritaire inspire toute les autres à venir.
Le Washington Post explique que c’est le ministère de l’Education qui semble le premier à faire les frais de l’épluchage de ses dépenses par l’IA. L’utilisation de l’IA par le Doge au sein du ministère de l’Éducation constitue un écart important par rapport à la politique préconisée sur la technologie, à savoir n’utiliser les programmes qu’après avoir fait les tests nécessaires pour s’assurer que son utilisation ne compromette pas la confidentialité et la cybersécurité.
Mais, l’IA peut-elle vraiment aider le Doge à réduire les budgets et éviter le gaspillage ?, s’interroge la Technology Review. Comme le répète Arvind Narayanan, le calcul fonctionne mieux quand ce qu’il doit calculer est clair. La fraude est une notion un peu moins subjective que le gaspillage. Or, les paiements fédéraux frauduleux dans le domaine de la santé ne sont pas tant du fait des utilisateurs que des sociétés pharmaceutiques, rappelle l’économiste Jetson Leder-Luis, spécialiste de la fraude sociale. Celui-ci rappelle qu’il est possible de chercher des schémas de fraudes pour mettre fin aux remboursements frauduleux avant qu’ils ne se produisent. Dans une étude de 2024, l’économiste montrait qu’il était possible d’utiliser l’IA pour détecter des fraudes institutionnelles potentielles, selon une approche préventive. Mais ces distinctions n’ont pas l’air d’être la priorité du Doge, bien au contraire. Le but semble bien plus de réduire des dépenses pour des raisons politiques que de réduire les fraudes et abus depuis des preuves.
Le Doge travaille à un système pour automatiser le licenciement des fonctionnaires, explique encore Wired, sur la base d’un logiciel créé il y a 20 ans par le ministère de la Défense, permettant d’accélérer la réduction d’effectifs. Jusqu’à présent, les licenciements ont été manuels et ont visé surtout les employés en période d’essai. Mais visiblement, le but semble d’accélérer encore la cadence. Pour Brian Merchant, ces annonces d’automatisation des licenciements sont consécutives au fait que le Doge ait demandé à deux millions d’employés du gouvernement de répondre à un mail leur demandant ce qu’ils ont fait de leur semaine. L’analyse qu’il va en être fait risque surtout de ne pas produire grand-chose car aucun système n’est capable de déterminer depuis ces mails, si le travail de ceux qui y répondent est nécessaire ou non. Nous sommes dans un “Grok Gouvernement” ironise Merchant, en comparant ce qu’il se passe à l’IA de Musk, surtout connue pour son sens de l’humour particulièrement problématique.
Mais aussi stupide soit la fiction, la mascarade est puissante. Car ces annonces rhétoriques impressionnent. L’essentiel n’est pas ce que ces outils vont ou peuvent produire, mais en réalité, l’important, c’est la fiction qu’ils déroulent. Ce sont des “générateurs de faux-semblants”. L’efficacité supposée des outils permet surtout de déresponsabiliser les décisions. “L’idée est d’utiliser la notion même d’IA et d’automatisation comme instruments de perturbation et de consolidation du contrôle”.
Pour Kate Crawford, citée par Merchant, l’IA se révèle plus impérialiste que jamais. Les Etats-Unis comme les Big Techs de l’IA ne parlent plus d’innovation, constate-t-elle. JD Vance, le vice-président américain, à Paris comme à Munich, ne disait pas autre chose. Il parle d’expansion pure, de consolidation du pouvoir par l’IA. Le décalage avec le camp qui défend l’intérêt public n’a jamais été aussi béant. Le désalignement est total. “L’approche américaine de l’IA consiste à construire un empire”, sans garde-fous. “Au moment même où Vance prononçait ces mots, aux États-Unis, le Doge infiltrait et saisissait, souvent en violation de la loi, l’infrastructure d’information du gouvernement américain”. Le Doge a effacé des données, censuré des mots et réécrit l’histoire. Pour le gouvernement américain, désormais, l’enjeu n’est plus de s’inquiéter des risques, de la sécurité ou de la protection des populations, mais de construire des systèmes rentables. Les empires ont toujours concentré le pouvoir technologique, rappelle Crawford qui a tenté de le montrer dans son projet Calculating Empire.
Ce qui semble certain, c’est que ce déploiement de l’IA comme nouvelle méthode de gouvernement ne se fera pas sans retour de bâton… A mesure que ces systèmes feront n’importe quoi – et ils feront n’importe quoi –, c’est tout le champ technologique qui est menacé de corruption et d’effondrement.
Nous sommes confrontés à un coup d’Etat des thuriféraires de l’IA, estime Eryk Salvaggio dans Tech Policy Press. L’IA est une technologie qui permet de « fabriquer des excuses ». Il suffit de dire que l’IA peut remplacer l’administration, pour qu’on discute de savoir comment plutôt que de comprendre pourquoi ce serait nécessaire. Nous sommes au milieu d’un coup d’État politique qui risque de changer à jamais la nature du gouvernement américain. Il ne se déroule pas dans la rue, il se déroule sans loi martiale, sans même avoir recours à la force ou à l’armée : il se déroule dans l’automatisation banale de la bureaucratie. La justification repose sur un mythe de productivité selon lequel le but de la bureaucratie est simplement ce qu’elle produit (services, informations, gouvernance) et peut être isolé du processus qui y conduit. L’IA nous est imposée comme un outil pour remplacer la politique. Mais son but n’est pas de s’en prendre à la paperasse ou au gaspillage, comme on nous le répète : l’IA est utilisée pour « contourner la surveillance du budget par le Congrès, qui est, constitutionnellement, l’attribution de ressources aux programmes gouvernementaux par le biais de la politique représentative ». Le Doge vise à déplacer la prise de décision collective au cœur de la politique représentative. Dans le chaos qui règne à Washington, les entreprises de la Silicon Valley font valoir qu’elles sont la solution. Elle consiste, peu ou prou, en un chatbot omnipotent, une sorte d’IA gouvernementale dédiée. « Il suffit que cette IA soit considérée comme un concurrent plausible de la prise de décision humaine suffisamment longtemps pour déloger les décideurs humains existants dans la fonction publique, des travailleurs qui incarnent les valeurs et la mission de l’institution. Une fois remplacées, les connaissances humaines qui produisent l’institution seront perdues ». Ce projet, même flou, ne propose rien de moins que l’avènement d’un régime technocratique, où le pouvoir se concentre entre les mains de ceux qui comprennent et contrôlent la maintenance, l’entretien et les mises à niveau de ce système. Pour Salvaggio, l’enjeu consiste à créer une forme de « crise informatique nationale que seule les géants de l’IA peuvent résoudre ». Nous sommes en train de passer de « la gouvernance démocratique à l’automatisme technocratique ». Ce scénario catastrophe suppose bien sûr un public passif, une bureaucratie complaisante et un Congrès qui ne fait rien, précise Salvaggio. Cela suppose qu’opérer dans une zone grise juridique est un moyen d’échapper à la surveillance judiciaire – et c’est ce que permet le Doge. La rapidité d’action permet de déplacer le débat vers la technique ce qui est une façon d’exclure les décideurs politiques et le public des décisions et de transférer ce pouvoir au code qu’ils écrivent. La participation démocratique ne sera jamais un gaspillage, rappelle Salvaggio. « Aucun système informatisé ne devrait remplacer la voix des électeurs. Ne demandez pas si la machine est digne de confiance. Demandez-vous qui la contrôle« .
Transformer l’infrastructure de l’Etat en arme« Ce n’est pas tant un coup d’Etat qu’une OPA », expliquent Henry Farrell et Abraham Newman, qui ont publié récemment L’empire souterrain (Odile Jacob, 2024) un livre où ils expliquent comment l’Amérique a pris le contrôle des systèmes techniques de l’économie mondiale et les ont utilisés pour exercer leur domination sur leurs alliés comme sur leurs ennemis. « Aujourd’hui, Musk semble faire au gouvernement américain ce que le gouvernement américain a fait autrefois au reste du monde : transformer la plomberie du gouvernement fédéral en arme politique contre ses adversaires« . Snowden nous a montré comment les États-Unis avaient transformé Internet en un gigantesque système de surveillance mondiale. L’accès à Swift, l’infrastructure institutionnelle de base qui garantit que l’argent, les informations et les biens arrivent là où ils doivent était l’autre pierre angulaire que l’Amérique a subvertit. « Les États-Unis ont identifié des points d’étranglement clés qui leur ont permis d’utiliser les infrastructures de paiement, d’information et physiques du monde entier comme une arme pour parvenir à leurs fins. Le Doge de Musk utilise les infrastructures de paiement, d’information et physiques du gouvernement américain de manière très similaire, en contournant les structures politiques censées restreindre l’action exécutive unilatérale. Tout comme lorsque les États-Unis ont utilisé l’économie mondiale comme une arme il y a plus de deux décennies, il est difficile pour ceux qui en sont les victimes de comprendre exactement ce qui leur arrive« .
« Comme Swift et la compensation en dollars, le système de paiement fédéral était autrefois traité comme un système entièrement technique, à l’abri des interférences politiques. Ce n’est plus le cas. Comme l’explique Nathan Tankus pour Rolling Stones, le Bureau du service fiscal, la partie du département du Trésor qui gère les paiements pour le gouvernement fédéral, est censé être technocratique et se concentrer uniquement sur la garantie que l’argent va là où il est censé aller. Néanmoins, parce qu’il agit comme un intermédiaire entre le gouvernement et le reste du gouvernement, il constitue un point d’étranglement crucial. Il offre un point de visibilité unique sur les opérations du gouvernement, avec des informations stratégiques détaillées sur l’argent qui circule et où, et un point de contrôle unique. »
« Ce qu’ils doivent comprendre – et rapidement – ??c’est que Musk, et par extension Trump, semblent essayer de transformer ces systèmes techniques en leviers de contrôle. Si les deux réussissent, ce qui est incertain, ils auront un avantage politique sans précédent dans les mois et les années à venir. Même s’ils échouent, leurs erreurs peuvent avoir des conséquences catastrophiques.«
« Tout comme le contrôle de Swift a fourni aux États-Unis des informations stratégiques vitales sur les flux financiers mondiaux, Doge pourrait également utiliser l’accès au système fédéral de paiements pour obtenir un aperçu des opérations gouvernementales. Dans notre recherche sur les paiements mondiaux, nous avons décrit comment les États-Unis ont transformé la finance mondiale en un « panoptique » qui leur a fourni des informations extrêmement détaillées sur qui envoyait de l’argent à qui, qu’ils pouvaient ensuite utiliser comme arme contre leurs adversaires. Peu à peu, les États-Unis ont utilisé le système du dollar comme un point d’étranglement pour bloquer les paiements et pour transformer les banques étrangères en agents du pouvoir américain ».
« Le système fédéral de paiements est un panoptique depuis des décennies, attendant que quelqu’un avec des ambitions politiques brise le pare-feu bureaucratique ». C’est ce qui est en train de se passer, estiment les chercheurs. « Tout entrepreneur ou tiers qui dépend de l’argent du gouvernement américain se retrouvera dépendant de leur patronage et de leurs caprices politiques. Cela sera techniquement difficile à réaliser, mais cela générerait des opportunités étonnantes de corruption secrète et ouverte et d’imposition de préférences politiques et idéologiques à des tiers ». Pourtant, les risques les plus probables à court terme ne sont pas une coercition efficace mais une calamité accidentelle, du fait que les Doge Kids maîtrisent mal les couches techniques de ces systèmes.
« Tout comme il a fallu des décennies aux États-Unis pour vraiment transformer les systèmes techniques de l’économie mondiale en fonction de leurs objectifs, il faudra du temps et des bidouillages pour que le Doge commence vraiment à réaliser ses ambitions. La mauvaise nouvelle est que les fonctionnaires fédéraux et l’ensemble de la population américaine seront les cobayes involontaires de cette vaste expérience. La moins mauvaise nouvelle est que ce qui ressemble à une prise de pouvoir gouvernementale accomplie en un week-end n’est pas encore une machine de pouvoir, et il faudra un travail acharné et ininterrompu pour y parvenir. Les législateurs, les avocats et les citoyens ordinaires qui ne veulent pas que cette prise de pouvoir hostile réussisse devraient saisir toutes les occasions de jeter du sable dans le mécanisme par la politique et la protestation, tant qu’il est encore temps de préserver les institutions qui, bien qu’imparfaites, sont nécessaires au fonctionnement de la société et de la démocratie américaines ».
Même constat pour l’historien de l’économie Quinn Slobodian (auteur du Capitalisme de l’apocalypse, Le Seuil, 2025) dans une brillante analyse politique pour la New York Review, où il explique que le Doge est la synthèse de trois courants politiques : celui des marchés et des startups qui souhaitent un retour sur investissement, celui des think-tanks consevateurs anti-New Deal qui souhaite un Etat incapable de promouvoir la justice sociale ; et le monde extrêmement connecté de l’anarchocapitalisme et de l’accélérationnisme de droite, qui souhaite un État brisé qui cède l’autorité gouvernementale à des projets concurrents de gouvernance privée décentralisée. Les mercenaires de Musk sont des « consultants en gestion radicalisés » qui appliquent les règles qu’il a appliqué à Twitter au gouvernement fédéral. L’objectif n’est pas moins que la mort de l’Etat fédéral, pareil à un écran noir qui ne répond plus.
Doge : une porte ouverte pour la corruption et l’escroquerieEn attendant, les équipes de Musk agissent vite. Dès qu’ils accèdent aux données, ils épurent les bénéficiaires. The Atlantic rapporte par exemple l’arrivée des équipes du Doge au Bureau de protection des consommateurs en matière financière (CFPB). En quelques heures, les bureaux sont fermés, les employés licenciés, les activités suspendues, selon des principes partout similaires : coupes budgétaires brutales, changements de direction, et campagnes de diffamation en ligne. Toutes les dépenses sont annulées, avec le triple objectif d’une purge politique de l’administration, du renforcement sans précédent du pouvoir présidentiel et bien sûr d’économies.
Pourtant, depuis sa création, en 2011, le CFPB a protégé nombre d’Américains des fraudes et escroqueries financières. Selon son ancien directeur, elle aurait restitué 20,7 milliards de dollars aux consommateurs depuis sa création. Sa fermeture annonce surtout la retour des arnaques financières que l’organisme n’a eu de cesse de traquer : « les entreprises de fintech douteuses auront moins de soucis à se faire, les normes de prêt pourront se détériorer, les consommateurs victimes de fraude n’auront pas de moyen de demander de l’aide »…
Comme le dit l’économiste américain Paul Krugman dans sa newsletter, c’est le retour du printemps pour les escrocs. « Nous avons désormais un gouvernement de, par et pour les prédateurs financiers », s’insurge Krugman. Via un système de signalement et de dépôt de plaintes, l’agence a aidé des centaines de milliers de personnes à résoudre leurs problèmes avec des entreprises privées. Selon Bloomberg, le Doge s’est vu « accorder l’accès à tous les systèmes de données du CFPB », alors qu’elle dispose d’une quantité importante d’informations confidentielles sur les plaignants comme sur les entreprises visées par ces plaintes, sans compter les conflits d’intérêts même de Musk (qu’il est censé gérer seul, du haut de sa grande vertu morale !), le CFPB ayant reçu des plaintes à l’encontre de Tesla, et X – qui a annoncé un accord avec Visa pour développer des services de paiement – aurait dû entrer dans le scope de surveillance financière du CFPB. « Démanteler l’organisme de surveillance au motif qu’il représente un coût excessif pour le peuple américain, comme l’a affirmé Elon Musk dans un message est tout simplement incorrect. Si vous regardez les dollars dépensés par rapport aux dollars récupérés », a déclaré son ancien responsable. « L’agence a récupéré bien plus pour les consommateurs qu’elle n’en a jamais dépensé dans son intégralité pour ses opérations. Musk dit que le Doge devrait permettre aux contribuables d’économiser de l’argent, mais le CFPB le fait depuis le début. »
L’accès aux systèmes de paiement fédéraux par le personnel du Doge a été qualifié de « plus grande menace interne à laquelle le bureau du service fiscal n’ait jamais été confronté ».
En tout cas, les conflits d’intérêts semblent innombrables. Scott Langmack, directeur de l’exploitation de Kukun une société de technologie immobilière s’est récemment présenté comme conseiller principal du Doge en demandant aux employés du Département du logement et du développement urbain de lister tous les contrats du bureau et de noter s’ils étaient ou non essentiels pour l’agence, rapporte Wired. Tom Krause, par exemple, exerce les fonctions de secrétaire adjoint aux finances au Trésor tout en occupant le rôle de PDG d’une entreprise de logiciels qui a des millions de dollars de contrats avec le Trésor. Outre les conflits d’intérêts problématiques, la granularité des données auxquels le Doge a désormais accès est tout autant problématique. Et l’ensemble est d’autant plus problématique que nul ne sait ce qui est fait des données. Elles peuvent être copiées, modifiées, corrompues. Il est probable que cette corruption des données soit en train de produire de super-oligarques de la tech… Les techbros surpuissants d’aujourd’hui, pourraient bien être des nains par rapport à la puissance qu’ils sont en train d’acquérir.
Même le vénérable Financial Times commence à s’inquiéter. Les entreprises ont conclu un pacte faustien avec Donald Trump et Elon Musk, séduites par les promesses de la déréglementation et des baisses d’impôts. « En réalité, les chefs d’entreprise ont laissé entrer dans le poulailler des renards extrêmement rapaces, ce qu’ils pourraient regretter ». La journaliste économique Rana Foroohar est pourtant conciliante, puisqu’elle propose de laisser de côté les effets économiques négatifs des guerres commerciales qui s’annoncent, des rafles d’immigrants, ou des conflits géopolitiques qui pointent. L’accès illimité du Doge aux données d’innombrables administrations est une menace existentielle pour nombre d’entreprises. « Il y a plusieurs choses qui m’inquiéteraient si j’étais un chef d’entreprise. La première est l’avantage concurrentiel sans précédent que Musk pourrait obtenir en ayant accès à des éléments tels que les données de sécurité du ministère des Transports, les informations sur les essais de la Food and Drug Administration, les recherches exclusives du ministère de l’Agriculture ou les informations préalables à la publication des demandes de brevet. Si j’étais à la tête d’une entreprise automobile comme General Motors ou d’une société de covoiturage comme Uber, je me demanderai si Elon Musk a aspiré des informations sur les tests de voitures autonomes des concurrents de Tesla. Si j’étais un investisseur en capital-risque, je me demanderai s’il est désormais capable de voir quelles nouvelles technologies sont les plus proches d’être commercialisées et comment, afin de mieux devancer ses concurrents potentiels. Ce ne sont là que quelques-unes des implications les plus évidentes d’avoir un adversaire qui pourrait potentiellement accéder à des informations que les entreprises pensaient ne donner qu’au gouvernement« . Ensuite, il y a les avantages concurrentiels à long terme que Musk pourrait obtenir en intégrant des ensembles de données de différents départements dans ses propres systèmes d’intelligence artificielle (La Maison Blanche affirme qu’il ne le fait pas, mais il n’y a aucune preuve dans un sens ou dans l’autre). « On ne sait pas exactement ce que Doge exploite et comment les données sont utilisées ».
Mais les conséquences négatives potentielles pour les entreprises ne se limitent pas à un accès injuste à l’information. La suppression de diverses agences et la fin des subventions vont avoir de nombreux effets dissuasifs dans des secteurs tels que l’énergie, le transport, l’industrie, le logement… Des entreprises renoncent déjà à des projets. Les processus de demande d’autorisation qui étaient déjà compliqués, vont l’être plus encore à mesure que les effectifs des agences sont réduits. L’incertitude réglementaire ne facilite pas beaucoup les affaires. Pour l’instant, peu de monde souhaite se heurter à Musk ou Trump. Beaucoup de chefs d’entreprises semblent vouloir donner une chance à l’approche de réduction des coûts… Beaucoup attendent en faisant profil bas. Mais la crainte d’une récession se profile. Le silence politique des entreprises pourrait ne pas durer. Reste à savoir qui s’opposera au démantèlement en cours ?
Pour l’instant, rapporte pertinemment Mediapart, les représentants Républicains commencent seulement à être confrontés à la colère de leurs administrés. Les plus fidèles à Trump dénoncent une instrumentalisation des débats par les démocrates. Pas sûr que cette ligne de défense tienne longtemps si la grogne s’étend.
Le Doge ne s’intéresse pas à l’efficacitéLa journaliste et historienne Anne Applebaum rappelle que le département de l’efficacité, pour l’instant, ne s’intéresse pas à l’efficacité. Nous n’assistons qu’à l’éradication de la fonction publique fédérale. Les Américains sont confrontés à un changement de régime. « Trump, Musk et Russell Vought, le nouveau directeur du Bureau de la gestion et du budget et architecte du Projet 2025 de l’Heritage Foundation – le plan initial de changement de régime – utilisent désormais des opérations informatiques, la confiscation des systèmes de paiement, des ingénieurs à leur solde, une avalanche de décrets exécutifs et une propagande virale pour parvenir à leurs fins ». « Bien que Trump et Musk affirment lutter contre la fraude, ils n’ont pas encore fourni de preuves à l’appui de leurs affirmations. Bien qu’ils exigent la transparence, Musk dissimule ses propres conflits d’intérêts. Bien qu’ils affirment vouloir l’efficacité, Musk n’a produit aucun audit des raisons à la suppression des programmes entrepris ».
« La seule chose que ces politiques auront certainement pour effet, et sont clairement conçues pour cela, est de modifier le comportement et les valeurs de la fonction publique« . Toutes les personnes qui travaillent pour le gouvernement fédéral américain font la même expérience, celle d’avoir l’impression de vivre sous occupation étrangère.
Pourtant, estime Applebaum, la destruction de l’éthique de la fonction publique prendra du temps. Jusqu’à présent, les fonctionnaires fédéraux avaient pour instruction de respecter l’État de droit, de vénérer la Constitution, de maintenir la neutralité politique et de soutenir les changements de politique légaux, qu’ils émanent d’administrations républicaines ou démocrates. Ils étaient censés mesurer la réalité objective – les preuves de pollution, par exemple – et réagir en conséquence. Tous n’étaient pas parfaits, mais leurs actions étaient contraintes par des audits, des règles de transparence et une éthique. Le Doge a déjà attaqué au moins 11 agences fédérales qui étaient impliquées dans des conflits réglementaires avec les entreprises de Musk ou qui enquêtaient sur elles pour d’éventuelles violations des lois sur la sécurité au travail, les droits des travailleurs et la protection des consommateurs. Le nouveau système qui se met en place, quelle que soit son idéologie, représente en pratique un retour au clientélisme. Désormais, les candidats aux nouveaux postes doivent s’engager à parler du Golfe d’Amérique au lieu du Golfe du Mexique ou dire que Trump a gagné l’élection de 2020. « Ces tests de loyauté trumpiens, visent à rompre avec l’éthique de la fonction publique, qui exigeait que les gens prennent des décisions basées sur des réalités objectives, et non sur des mythes ou des fictions. »
« Certains employés fédéraux seront certainement tentés d’en abuser. Vous n’aimez pas votre ancien patron ? Dénoncez-le ! Dénoncez aussi vos collègues qui promeuvent l’inclusion et la lutte contre les discriminations ». Cela peut sembler improbable, mais, rappelle Applebaum, au niveau des États, les lois encourageant les Américains à dénoncer d’autres Américains se sont multipliées. Au Texas, une loi permet aux citoyens de poursuive toute personne qui aurait aidé ou encouragé un avortement. Au Mississippi, une loi propose des primes aux personnes qui identifient des immigrés illégaux en vue de leur expulsion. Certains mots tels que « défense des droits », « handicap », « traumatisme » socio-économique et, oui, « femmes », déclenchent déjà des coupures de subventions fédérales et la censure, rapporte le Washington Post.
Le plus grand tour à l’œuvre consiste à nous faire croire que le Doge a pour objectif l’efficacité, explique Tom Nichols pour The Atlantic. “Le Doge n’est pas vraiment un département ; ce n’est pas une agence ; il n’a aucune autorité statutaire ; et il n’a pas grand-chose à voir avec les économies d’argent, la rationalisation de la bureaucratie ou l’élimination du gaspillage”. C’est une attaque contre l’expertise qui vise à y mettre fin, explique Nichols qui a publié un livre sur la contestation de l’expertise (The Death of Expertise : The Campaign Against Established Knowledge and Why it Matters, Oxford University Press, 2017). Pour lui, l’assaut de Musk à l’encontre de l’expertise s’abreuve à la même source que celle qui alimente en grande partie l’hostilité du public envers les experts. La mort de l’expertise est liée à la montée de deux mots sociaux : le narcissisme et le ressentiment.
L’égocentrisme est au cœur du succès des “techno-ploutocrates” comme Musk, qui pensent que leur richesse est la preuve de leur compétence. Trump et Musk semblent constamment en colère parce que leur richesse et leur pouvoir peuvent leur apporter tout sauf du respect. Or, l’expertise est bien souvent un puissant moyen de défense contre l’incompétence et les manigances politiques. S’opposer aux experts nécessite des connaissances. L’égocentrisme ne réclame pas aux autres de la compétence, mais de l’obéissance et de la servitude. D’où le fait qu’ils cherchent à saper l’expertise et la connaissance qui peut s’opposer à eux.
L’autre moteur est le ressentiment, celui d’une élite contre une autre. Nous sommes en train d’assister à l’affrontement d’élites entre elles, estime Nichols, entre les jeunes ingénieurs et entrepreneurs du Doge et les fonctionnaires et experts de carrière. L’objectif du Doge n’est pas de produire un meilleur gouvernement, mais de le détruire : de le remplacer par un autre. A se demander si la destruction de l’Etat fédéral ne serait pas seulement un moyen pour générer des débouchés économiques à l’illusion de l’IA ?
Pour Ethan Zuckerman également, Musk ne disrupte par le gouvernement, il le détruit. En prenant la main sur les systèmes, ce qu’il brise, ce sont les processus démocratiques qui les ont créés. « Dans Doge, nous voyons l’intersection de deux idéologies : la croyance conservatrice selon laquelle le gouvernement ne peut rien faire de bien et devrait en faire le moins possible, et le credo du perturbateur selon lequel tout système inefficace mérite d’être détruit. Leur fusion est une prophétie auto-réalisatrice : les systèmes détruits fonctionnent mal et ne peuvent être améliorés qu’en les éliminant complètement ».
Comme le disait le professeur d’économie comportementale Raymond Fishman, dans une tribune pour le New York Times, avant l’arrivée de Trump au pouvoir. Bien sûr que l’efficacité gouvernementale peut être améliorée. Mais si les entreprises fonctionnent plus efficacement qu’un gouvernement, c’est parce qu’elles n’ont pas les mêmes objectifs, les mêmes missions ni la même complexité. Ce que font les entreprises est bien souvent plus simple que ce que font les gouvernements. Une entreprise ne gère pas la misère ni la pauvreté. Ce n’est pas parce qu’il n’y a pas d’attaque terroriste qu’il faut réduire le budget du FBI. « Créons une commission consacrée à rendre le gouvernement plus efficace. Mais ce n’est pas la même chose que de réduire la taille du gouvernement, et ce n’est certainement pas la même chose que de le gérer comme une entreprise ».
Le ministère de l’incompétencePour Derek Thompson, le bureau de l’efficacité risque vite de nous montrer tout le contraire. Cette agence hors de contrôle, semble surtout le règne de l’incompétence. Une incompétence qui risque de coûter très chère aux Etats-Unis, bien plus que les coupes de dépenses qu’elle promet. Pour l’instant, le Doge licencie à tour de bras, sans même savoir qui. Elon Musk a laissé entendre, face à des critiques croissantes, que le Doge annulerait simplement toute mesure qui irait trop loin. Certes, dans la pratique reste à savoir lesquelles réinstaller en fonction de quelles critiques, et si cela s’avère possible une fois les choses démantelées. Tout annuler et voir ce qu’il se passe ne semble pas une méthodologie très fonctionnelle. L’incompétence du Doge est une fonctionnalité, pas un bug, estime Brian Barrett pour Wired. Doge.gov est un simple fil Twitter, comme si une politique se résumait à une succession d’annonces. « L’incompétence née de la confiance en soi est un état d’esprit familier de la Silicon Valley, la raison pour laquelle les startups réinventent sans cesse un bus, une épicerie ou le courrier. C’est la certitude implacable que si vous êtes intelligent dans un domaine, vous devez être intelligent dans tous les domaines ».
Les États-Unis ne sont pas une start-up. Le gouvernement fédéral existe pour faire toutes les choses qui ne sont pas rentables par définition, qui servent le bien public plutôt que de protéger les profits des investisseurs. La grande majorité des start-up échouent, ce que les États-Unis ne peuvent pas se permettre de faire, rappelle Barrett. « Les erreurs coûteuses et embarrassantes du Doge sont le sous-produit d’un nihilisme téméraire ; si l’intelligence artificielle peut vous vendre une pizza, elle peut bien sûr assurer l’avenir de l’administration centrale ». En fait, Musk se contrefout du gouvernement comme de l’efficacité. Il n’est là que pour siphonner des données qui lui assureront une puissance sans limite.
Ce qu’il se passe est une course de vitesse, estime Brian Barrett dans un autre article pour Wired. « La vitesse est bien sûr une stratégie. Elle consiste à inonder la zone de merde (comme disait Steve Bannon) afin que ni les médias ni les tribunaux ne puissent suivre le rythme« . Les poursuites judiciaires et les ordonnances judiciaires évoluent selon une échelle de temps différente de cette approche de purge des effectifs, de forçage des accès et de pillage des données. Et à ce rythme, DOGE aura exploité tous les serveurs gouvernementaux bien avant que la Cour suprême n’ait même eu la chance de se prononcer, ironise Barrett. Mais c’est aussi une question de réflexe. La première chose à faire lors d’une reprise d’entreprise est de réduire les coûts le plus rapidement possible.
« C’est ainsi que vous obtenez un décret exécutif déclarant que « chaque agence ne doit pas embaucher plus d’un employé pour quatre employés qui partent », un ratio arbitraire qui ne tient pas compte des besoins réels en personnel. C’est ainsi que vous mettez aux enchères des centaines de bâtiments du gouvernement fédéral, quel que soit leur taux d’occupation. C’est à la fois extrême et inconsidéré, une course pour vider le seul puits de la ville ».
« Et ensuite… quoi ? C’est la question à laquelle Elon Musk et Doge n’ont pas réussi à répondre, car il n’y a pas de réponse. Le gouvernement américain doit-il devenir un moteur de profits ? Doit-il restituer de la valeur aux citoyens-actionnaires ? Medicaid doit-il démontrer une adéquation produit-marché à temps pour le prochain tour de financement ? »
« C’est la logique d’un consultant. Il s’agit d’un sprint d’ingénierie dont la ligne d’arrivée inévitable est la rupture du contrat social« .
« La démocratie ne meurt pas dans l’obscurité : elle meurt dans les logiciels de ticketing déposés par les anciens de Palantir » (Les logiciels de ticketing sont des logiciels pour traiter les demandes de clients à la suite les unes des autres et selon leur importance. Ici Barrett évoque le fait que les accès aux systèmes fédéraux s’ouvrent selon les demandes fantasques de conseillers qui masquent souvent leurs conflits d’intérêts derrière ces accès). « Il n’est pas nécessaire d’avoir un MBA de Stanford pour savoir que la réduction des dépenses n’aide que la moitié de votre compte de résultat. Toute tentative sérieuse de traiter les États-Unis comme une entreprise impliquerait une augmentation des revenus. Alors, où sont les impôts ? Et pourquoi démolir le CFPB, qui a rendu plus de 20 milliards de dollars aux citoyens américains ? »
« Dans les semaines et les mois à venir, alors que cette farce continue de se dérouler, rappelez-vous que l’objectif de la plupart des acquisitions n’est pas de bénéficier aux Américains. Il s’agit soit de subsumer, soit de s’en débarrasser, selon ce qui génère le meilleur rendement. » « L’influence sans précédent d’Elon Musk sur le pouvoir exécutif profitera en fin de compte à Elon Musk. Les employés aux commandes sont ses employés. Les données collectées par Doge, les contrats d’approvisionnement qu’ils supervisent, tout cela lui revient. Et tout cela s’écoule trop vite pour que l’Etat puisse suivre, et encore moins pour pouvoir l’arrêter. »
Dans un autre billet, Barrett rappelle que le gouvernement n’est pas une startup. Pourtant, c’est bien la même méthode que celle qu’il a appliquée lors de sa reprise de Twitter, que Musk déroule. « Il se débarrasse des employés. Il installe des loyalistes. Il abat les garde-fous. Ils ont récupéré les accès avant de les couper. Ils ont récupéré les données comme un avantage concurrentiel. Et des économies. Ils veulent des économies. Plus précisément, ils veulent soumettre le gouvernement fédéral à un budget à base zéro », une méthode de planification financière populaire dans la Silicon Valley dans laquelle chaque dépense doit être justifiée à partir de zéro. « Le problème avec la plupart des startups de logiciels, c’est qu’elles échouent. Elles prennent de gros risques et ne sont pas rentables, et elles laissent la carcasse de cet échec derrière elles et commencent à produire un nouveau pitch. C’est le processus que Doge impose aux États-Unis. » Pas sûr que le gouvernement puisse proposer un nouveau pitch !
« Personne ne contesterait que la bureaucratie fédérale est parfaite, ou particulièrement efficace. Bien sûr, elle peut être améliorée. Bien sûr, elle devrait l’être. Mais il y a une raison pour laquelle le changement se fait lentement, méthodiquement, par le biais de processus qui impliquent des élus et des fonctionnaires, ainsi que de l’attention et de la considération. Les enjeux sont trop élevés et le coût de l’échec est total et irrévocable« .
« Musk va réinventer le gouvernement américain de la même manière que l’hyperloop a réinventé les trains, que la société Boring a réinventé le métro, que Juicero a réinventé le presse-agrume. Autrement dit, il ne réinventera rien du tout, ne réglera aucun problème, n’offrira aucune solution au-delà de celles qui consolident encore davantage son propre pouvoir et sa richesse. Il réduira la démocratie à sa plus simple expression et la reconstruira à l’image conflictuelle de ses propres entreprises. Il ira vite. Il cassera tout. » Mêmes constats dans le New York Times, notamment en soutenant ses élucubrations sans preuves depuis ses tweets incendiaires.
L’Amérique, livrée à elle-même : la re-ségrégationCe n’est pas une réforme, c’est un sabotage, explique David Wallace-Wells pour le New York Times. C’est « une guerre éclair contre les fonctions essentielles de l’État”, opérant en dehors du droit constitutionnel. Pour le politologue Seth Masket, « Elon Musk est un simple citoyen qui prend le contrôle du gouvernement. C’est un coup d’Etat ».
“Tout d’un coup, vous ne pouvez plus consulter les données du CDC sur le VIH ni les directives pour d’autres maladies sexuellement transmissibles. Vous ne pouvez pas non plus trouver de données de surveillance sur l’hépatite ou la tuberculose, ni l’enquête sur les comportements à risque des jeunes, ni aucune des données de l’agence sur la violence domestique. Si vous étiez un médecin espérant consulter les directives fédérales sur le contrôle des naissances post-partum, cette page a également été fermée.” Derrière les fermetures et le recul de l’information, le nouveau message semble être clair : les citoyens sont désormais livrés à eux-mêmes.
Désormais, la santé publique se résume à la responsabilité personnelle. Mais, c’est également vrai de toutes les politiques publiques qui ont été “effacées” : le climat, l’aide sociale, la lutte contre les discriminations. C’est la grande “re-ségrégation”, explique Adam Serwer, c’est-à-dire le début d’un mouvement qui va revenir sur les droits civiques obtenus de haute lutte. Le retour de la Grande Amérique (Make America Great Again), consiste d’abord et avant tout à restaurer les hiérarchies traditionnelles de race et de genre de l’Amérique. Les lois tentant de renforcer l’égalité des chances ont été annulées, les recherches sur les inégalités également, comme si cela suffisait à faire disparaître les inégalités elles-mêmes. Le but est clair : « abroger les acquis de l’ère des droits civiques« .
“Ils ne souhaitent pas le retour à la ségrégation explicite – cela briserait l’illusion selon laquelle leurs propres réalisations sont basées sur une méritocratie aveugle à la couleur de peau. Ils veulent un arrangement qui perpétue indéfiniment l’inégalité raciale tout en conservant une certaine possibilité de déni plausible, un système truqué qui maintient un mirage d’égalité des chances tout en maintenant une hiérarchie raciale officieuse. Comme les élections dans les pays autoritaires où l’autocrate est toujours réélu par une écrasante majorité, ils veulent un système dans lequel ils ne risquent jamais de perdre mais peuvent toujours prétendre avoir gagné équitablement.”
Du grand effacement au grand ralentissement scientifiqueNous assistons à l’effacement de la science américaine, déplore Katherine J. Wu pour The Atlantic. La cohabitation pacifique et productive de la science avec les autorités est terminée. Les autorités ont toujours agi sur les priorités scientifiques avec leurs financements (le gouvernement fédéral est le premier bailleur de fond de la recherche fondamentale), mais ces changements d’orientation sont souvent modestes et ciblées, rappelle le spécialiste du financement de la science, Alexander Furnas. La nouvelle administration n’a d’ailleurs pas annoncé de coupes uniformes : la recherche sur l’IA, le spatial ou les maladies chroniques ne sont pas concernées. Pour passer le couperet de la censure automatisée sur certains mots clefs, nombre de chercheurs modifient les termes de leurs demandes de subventions. Le risque, c’est que s’impose l’idée que la méthodologie scientifique soit transgressive. En faisant disparaître des données, en courant le risque qu’elles soient falsifiées, le gouvernement fédéral s’attaque à la science. “À long terme, la science américaine pourrait ne plus paraître fiable aux yeux des scientifiques étrangers”. “Trump et son administration sont en train de déc
-
7:09
La reconnaissance faciale : un projet politique
sur Dans les algorithmesSuite de notre plongée dans le livre de Kashmir Hill, « Your face belongs to us ». Après avoir observé l’histoire du développement de la reconnaissance faciale, retour sur l’enquête sur le développement de Clearview, la startup de la reconnaissance faciale. 2e partie.
Clearview, un outil d’investissement idéologiqueLe cœur du livre de Kashmir Hill, Your face belongs to us, est consacré à l’histoire de l’entreprise Clearview. Hill rappelle que lorsqu’elle entend parler de cette entreprise jusqu’alors inconnue, face au silence qu’elle reçoit de ses fondateurs, elle contacte alors des policiers qui lui en font immédiatement les louanges : Clearview parvient à identifier n’importe qui, lui expliquent-ils ! Pourtant, quand ils entrent une photo de la journaliste dans le moteur, celui-ci ne fournit aucune réponse, alors que de nombreuses images d’elle sont disponibles en ligne, ce qui devrait permettre de la réidentifier facilement. En fait, ce n’est pas que la journaliste n’est pas dans la base, mais que toute recherche sur elle est protégée et déclenche même une alerte quand quelqu’un s’y essaye.
Cette anecdote permet de montrer, très concrètement, que ceux qui maintiennent la base disposent d’un pouvoir discrétionnaire immense, pouvant rendre des personnes totalement invisibles à la surveillance. Les constructeurs de Clearview peuvent voir qui est recherché par qui, mais également peuvent contrôler qui peut-être retrouvé. Cet exemple est vertigineux et souligne que les clefs d’un tel programme et d’un tel fichier sont terribles. Que se passera-t-il quand le suspect sera le supérieur d’un agent ? Qui pour garantir l’incorruptibilité d’un tel système ? On comprend vite que dans une société démocratique, un tel outil ne peut pas être maintenu par une entreprise privée, hormis si elle est soumise à des contrôles et des obligations des plus rigoureux – et le même problème se pose si cet outil est maintenu par une entité publique. Ce qui n’est absolument pas le cas de Clearview.
Hill raconte longuement l’histoire de la rencontre des cofondateurs de Clearview. Elle souligne le fait que ceux-ci se rencontrent du fait de leurs opinions politiques, lors de réunions et de meetings en soutien à la candidature de Donald Trump à l’été 2016. Hoan Ton-That, le développeur et confondateur de Clearview, fasciné par le candidat républicain, prend alors des positions politiques racistes que ses amis ne lui connaissaient pas. C’est via les réseaux républicains qu’il rencontre des personnages encore plus radicaux que lui, comme Peter Thiel, le milliardaire libertarien qui sera le premier financeur du projet, ou encore Richard Schwartz, qui deviendra son associé. Si les deux cofondateurs de Clearview ne sont pas des idéologues, le produit qu’ils vont imaginer correspond néanmoins aux convictions politiques de l’extrême-droite américaine dont ils se revendiquent à cette époque. L’entreprise va d’ailleurs particulièrement attirer (et aller chercher) des investisseurs au discours politique problématique, comme Paul Nehlen, tenant du nationalisme blanc.
C’est en voyant fonctionner l’application russe de reconnaissance faciale FindFace, qui permet de retrouver les gens inscrits sur VKontakte, le réseau social russe, que Ton-That a l’idée d’un produit similaire. En novembre 2016, il enregistre le site web smartcherckr.com. Le projet se présente alors comme un système de réidentification depuis une adresse mail ou une image, permettant d’inférer les opinions politiques des gens… dans le but « d’éradiquer les gauchistes » !
Si depuis les discours des fondateurs se sont policés, nous avons là des gens très conservateurs, qui tiennent des propos d’extrême-droite et qui vont concevoir un outil porteur de ces mêmes valeurs. La reconnaissance faciale et ceux qui la portent sont bien les révélateurs d’une idéologie : ils relèvent tout à fait du technofascisme que dénonce le journaliste Thibault Prévost dans son livre, Les prophètes de l’IA. Et nul ne peut faire l’économie du caractère fasciste que porte la possibilité de réidentifier n’importe qui, n’importe quand pour n’importe quelle raison. C’est d’ailleurs là l’héritage de la reconnaissance faciale, inspirée des théories racistes de Francis Galton, qui va donner naissance à la police scientifique d’Alphonse Bertillon, comme à l’eugénisme et à la phrénologie d’un Cesare Lombroso. L’analyse des traits distinctifs des être humains est d’abord et reste le moyen de masquer le racisme sous le vernis d’une rigueur qui se veut scientifique. Hill suggère (sans jamais le dire) que Clearview est un projet politique.
Clearview, un outil de contournement du droitHill souligne un autre point important. Elle n’est pas tendre avec l’arrivisme du jeune informaticien australien Hoan Ton-That qui se fait un nom en créant des outils de phishing via des quizz pour Facebook et des jeux pour iPhone. Elle montre que celui-ci n’a pas beaucoup de conscience morale et que le vol des données, comme pour bien de porteurs de projets numériques, n’est qu’un moyen de parvenir à ses fins. Dès l’origine, Ton-That mobilise le scraping pour construire son produit. Derrière ce joli mot, la pratique consiste à moissonner des contenus en ligne, sauf que cette récolte consiste à ramasser le blé qui a poussé sur les sites web des autres, sans le consentement des sites que l’on pille ni celui des utilisateurs dont on vole les données. En juin 2017, une première version de l’outil de recherche de visage est lancée, après avoir pillé quelque 2,1 millions de visages provenant de plusieurs services en ligne, comme Tinder. A la fin 2018, elle comportera plus de 2 milliards d’images. L’entreprise qui a changé de nom pour Clearview, dispose alors d’un produit robuste. Seuls Facebook et Google disposent de plus de portraits que lui.
Certes, Clearview a volé toutes les images disponibles. Facebook, Google ou Linked-in vont officiellement protester et demander l’effacement des images volées. Reste que les géants n’intentent aucun procès à la startup. Il faut dire que les entreprises de la Tech sont en effet refroidies par les échecs de Linked-in à lutter contre le scraping. Dans un bras de fer avec une entreprise qui a moissonné les données du réseau social, Linked-in a été débouté en 2017 par un jugement confirmé en appel en 2019. Le tribunal de Californie a déclaré qu’il était légal de collecter des informations publiques disponibles sur le net. Le jugement a gelé les ardeurs des géants à lutter contre un phénomène… qu’ils pratiquent eux-même très largement.
Hill pointe également que Ton-That n’est pas un génie du développement. Comme nombre d’ingénieurs, non seulement il vole les données, mais il a recours à des outils existants pour développer son application, comme OpenFace. Ton-That n’a pas d’états d’âme. Si les géants de la Tech refusent de sortir un produit de réidentification, c’est parce qu’ils ont peur des retombées désastreuses d’un tel outil, en termes d’image. Ce n’est pas le cas de Ton-That.
Reste que c’est bien la qualité de l’application qui va convaincre. Clearview permet d’identifier des gens dans la foule quelles que soient les conditions (ou presque). Pour tous ceux qui l’essayent, l’application semble magique. C’est à ce moment que les investisseurs et les clients se précipitent… D’abord et avant tout des investisseurs libertariens, très marqués politiquement. Pourtant, ceux-ci sont conscients que l’application risque d’avoir des problèmes avec les régulateurs et va s’attirer des poursuites en justice. Mais le risque semble plutôt les convaincre d’investir. Hill sous-entend par là un autre enjeu majeur : l’investissement s’affole quand les produits technologiques portent des enjeux de transformation légale. Si les capitaux-risqueurs ont tant donné à Uber, c’est certainement d’abord parce que l’entreprise permettait d’agir sur le droit du travail, en le contournant. C’est l’enjeu de modification des règles et des normes que promettent les outils qui muscle l’investissement. C’est parce que ces technologies promettent un changement politique qu’elles sont financées. Pour les investisseurs de Clearview, « pénétrer dans une zone de flou juridique constitue un avantage commercial ». Hill suggère une fois encore une règle importante. L’investissement technologique est bien plus politique qu’on ne le pense.
Mais, il n’y a pas que les investisseurs qui vont voir dans Clearview un outil pour contourner les normes. Ses clients également.
Après avoir tenté d’élargir le recrutement de premiers clients, Clearview va le resserrer drastiquement. Au-delà du symbole, son premier client va être la police de New York. Mais là encore, Clearview ne rencontre pas n’importe quels policiers. L’entreprise discute avec des officiers qui ont soutenu les théories problématiques de la vitre brisée, des officiers qui ont promu le développement du Big data dans la police et notamment les systèmes tout aussi problématiques de police prédictive. C’est donc par l’entremise de policiers radicaux, eux aussi très marqués à droite, que Clearview signe, en décembre 2018, un contrat avec la police de New York. Le contrat demande que l’entreprise prenne des engagements en matière de sécurité et de contrôle des agents qui l’utilisent. Le nombre de requêtes sur l’application décolle. Pourtant, après 6 mois de tests et plus 11 000 requêtes, la police de New York renonce à poursuivre le contrat. Elle aussi est inquiète de la perception par l’opinion publique. Sa direction a plus de pudeurs que les officiers qui ont permis le rapprochement entre la startup et la police. D’autres départements de police n’auront pas ces pudeurs. L’Indiana, la Floride, le Tennessee vont se mettre à utiliser Clearview. Viendront Londres puis le Département américain de la sécurité intérieure. Des agences du monde entier testent l’outil et l’adoptent : Interpol, la police australienne, canadienne… Clearview multiplie les contrats alors que l’entreprise est encore totalement inconnue du grand public. Malgré ces contrats publics, l’entreprise reste sous les radars. Assurément, parce que son usage permet là aussi pour ses clients de s’affranchir des règles, des normes et des modalités d’examen public en vigueur. Alors que la reconnaissance faciale est une technologie sulfureuse, l’abonnement discret à Clearview permet de le rendre invisible. La zone de flou de légalité profite à tous.
Discrètement, la reconnaissance faciale est advenueEn 2017, un militant de l’ACLU entend parler de Rekognition, l’outil de reconnaissance faciale développé par Amazon et lance une campagne à son encontre. L’ACLU lance l’outil sur les photos de 535 membres du Congrès et en identifie faussement 28 comme des criminels connus des services de police. L’ACLU lance sa campagne pour interdire la surveillance des visages, que quelques villes adopteront, comme San Francisco ou Oakland. Pour Clearview, ces controverses sont préjudiciables. La startup va alors utiliser le même test sur son propre produit qui ne déclenche aucune erreur et identifie parfaitement les 535 membres du Congrès. D’ailleurs, quand on met une photo provenant du site This Person Does not exist dans Clearview, l’application ne produit aucun résultat !
Bien sûr, Kashmir Hill rappelle que des Américains qui ont été et continuent d’être indûment arrêtés à cause de la reconnaissance faciale. Mais ces rares exemples semblent n’avoir plus grand poids. Le Nist qui a testé quelque 200 algorithmes de reconnaissance faciale a montré qu’il y avait de fortes variations selon les produits.
En décembre 2021, Clearview a soumis son algorithme au NIST pour évaluation. Son logiciel de reconnaissance facial a obtenu parmi les meilleurs résultats.
Pour les médias, ces variations dans les résultats des outils de reconnaissance faciale montrent que la reconnaissance faciale est biaisée, mais elles montrent plutôt qu‘il y a de bons algorithmes et de mauvais. Le NIST dispose de 2 sortes de tests, le premier pour comparer deux images et déterminer si le système est capable d’identifier une même personne et le second pour chercher un visage particulier dans une base de données remplie de visages. Contrairement à ce que l’on pense, les pires biais se trouvent plutôt dans le premier cas, où les systèmes ont du mal avec à reconnaître les sujets féminin, noirs ou asiatiques. « Reste que, aussi précis qu’ils soient, les algorithmes de reconnaissance faciale déployés dans des sociétés inégalitaires et structurellement racistes vont produire des résultats racistes ». Les personnes faussement arrêtées par la reconnaissance faciale étaient toutes noires, rappelle Hill. Ce qui est une preuve supplémentaire, non seulement de ses défauts, mais plus encore de son ancrage idéologique.
L’exemple du développement de Clearview nous rappelle en tout cas qu’il n’y a pas de neutralité technologique. Les outils ne sont pas des outils qui dépendent des usages qu’on en fait, comme le dit l’antienne. Ils ont des fonctionnalités spécifiques qui embarquent des idéologies. L’essor de Clearview nous montre très bien qu’il est un instrument au service d’un projet politique. Et que quelques soient ses défauts ou ses qualités, la reconnaissance faciale sert des objectifs qui ne sont pas que ceux, financiers, d’une classe sociale qui a intérêt à son succès, mais bien avant tout, ceux, politiques, d’idéologues qui ont un projet. Et ce projet, on l’a vu, n’est pas celui de construire une société apaisée, mais son exact contraire : faire avancer, dans l’ombre, les technologies nécessaires à l’avènement de la dissolution de l’Etat de droit.
(à suivre)
-
7:03
Sacrifiés
sur Dans les algorithmesDerrière une poignée d’ingénieurs, 150 à 430 millions de travailleurs de la donnée à travers le monde font tourner les IA. Un système d’exploitation bien rodé, une méthode de redistribution de la violence des comportements humains du Nord pour les faire nettoyer par ceux du Sud et leur en laisser les conséquences psychologiques. Les profits pour les uns, les sacrifices pour les autres. L’impérialisme est toujours là, au mépris des droits humains et des droits du travail, tout simplement parce que ce mépris permet d’augmenter les profits.
Prenez le temps de regarder le documentaire les Sacrifiés de l’IA.
-
7:00
L’arsenal technologique pour réprimer l’immigration aux Etats-Unis est prêt !
sur Dans les algorithmesApplications et bracelets électroniques qui suivent les demandeurs d’asile en temps réel où qu’ils aillent. Bases de données remplies d’informations personnelles comme les empreintes digitales et les visages. Outils d’enquête qui peuvent pénétrer dans des téléphones et rechercher dans des gigaoctets d’e-mails, de messages texte et d’autres fichiers. Ces éléments font partie de l’arsenal technologique dont dispose le président Trump pour lutter contre l’immigration illégale et mener à bien la plus grande opération d’expulsion de l’histoire américaine, explique le New York Times. Quelques 15 000 contrats ont été passé par les agences des douanes et de l’immigration amércaines, soit 7,8 milliards de dollars dépensés en technologies contre l’immigration auprès de 263 entreprises depuis 2020.
D’autres systèmes comparent les données biométriques aux casiers judiciaires, alertent les agents des changements d’adresse, suivent les voitures avec des lecteurs de plaques d’immatriculation et extraient et analysent les données des téléphones, des disques durs et des voitures. L’administration Biden a utilisé bon nombre de ces technologies pour faire respecter la législation sur l’immigration, notamment dans le cadre d’enquêtes sur le trafic de drogue, le trafic d’êtres humains et les activités des gangs transnationaux, pour répondre à une pénurie d’agents et d’installations de détentions. Pour le NYTimes, le boom des technologies sécuritaires n’a pas connu de repos depuis 2001 et devrait s’envoler sous Trump. Les entreprises qui fournissent des solutions, comme Palantir, Clearview, Cellbrite, Lexis Nexis, Thomson Reuters ou Geo Group sont sur les rangs. Leurs actions sur les marchés ont toutes augmentées depuis l’élection de Trump.
Environ 180 000 immigrants sans papiers portent un bracelet à la cheville avec un dispositif de localisation GPS, ou utilisent une application appelée SmartLink qui les oblige à enregistrer leurs allées et venues au moins une fois par jour. Fabriquée par une filiale de Geo Group, cette technologie est utilisée dans un programme lancé en 2004 appelé Alternatives to Detention.
Reste que « certains outils sont parfois pertinents pour les enquêtes ciblées, pas pour les expulsions généralisées », a déclaré Dave Maass, le directeur des enquêtes de l’Electronic Frontier Foundation, l’association de défense des libertés civiles. « Ce que les services de l’immigration achètent et ce qui est réellement utile peuvent être des choses totalement différentes ». La seule chose certaine, c’est que les entreprises du secteur vont gagner beaucoup d’argent.
-
7:03
De la difficulté à évaluer l’IA
sur Dans les algorithmesLes chercheurs ont désormais du mal à créer des tests que les systèmes d’IA ne peuvent pas réussir. La plupart des tests dont nous disposions sont vites devenus caducs, explique Kevin Roose pour le New York Times. Des chercheurs du Center for AI Safety et de Scale AI viennent de publier un nouveau test d’évaluation baptisé « Humanity’s Last Exam », imaginé par Dan Hendrycks, directeur du Center for AI Safety. Le test consiste en un questionnaire à choix multiple de plus de 3000 questions qui ont chacune été produites par des experts en leur domaine, à qui on a demandé de proposer des questions extrêmement difficile dont ils connaissaient la réponse.
Il existe bien sûr d’autres tests qui tentent de mesurer les capacités avancées de l’IA dans certains domaines, tels que FrontierMath, un test développé par Epoch AI, et ARC-AGI, un test développé par le chercheur François Chollet. Mais celui de AI Safety s’imagine surtout comme un score d’intelligence générale du fait de la complexité et de la grande diversité des questions. « Une fois la liste des questions établie, les chercheurs ont soumis le dernier examen de l’humanité à six modèles d’IA de premier plan, dont Gemini 1.5 Pro de Google et Claude 3.5 Sonnet d’Anthropic. Tous ont échoué lamentablement. Le système o1 d’OpenAI a obtenu le score le plus élevé du groupe, avec un score de 8,3 % ». Mais ces résultats devraient bouger très vite.
Nous devrons chercher d’autres moyens d’évaluer les performances de l’IA que de savoir à quoi elles peuvent répondre, suggère Roose. Comme de mieux mesurer leurs impacts, comme d’examiner les données économiques qu’elles peuvent traiter ou juger si elle peut faire de nouvelles découvertes dans des domaines comme les mathématiques et les sciences. Pour Summer Yue, directrice de recherche chez Scale AI, un autre test pourrait consister à « poser des questions dont nous ne connaissons pas encore les réponses, et vérifier si le modèle est capable de nous aider à les résoudre ».
Les progrès de l’IA actuelle sont déroutants car ils sont très irréguliers, rappelle Kevin Roose. L’IA peut être très performante sur certains sujets et les mêmes modèles peuvent avoir du mal à effectuer des tâches de base, comme l’écriture de poésie rythmée. Et cela créé une perception de ses améliorations différenciée, selon que l’on regarde ses meilleurs résultats ou les pires. Cette irrégularité rend également l’évaluation de l’IA difficile. L’année dernière, Kevin Roose expliquait déjà que nous avions besoin de meilleures évaluations des systèmes d’IA, mais selon lui, nous avons aussi besoin de méthodes plus créatives que des tests standardisés que l’IA réussi plutôt bien. Si l’IA peut être impressionnante, même pour répondre à des questions complexes, ses réponse ne suffisent pas. L’un des experts en physique théorique des particules qui a soumis des questions au dernier test de l’humanité, explique que, quand bien même l’IA serait capable de répondre à toutes les questions sur nos connaissance, le travail humain ne se limite pas à fournir des réponses correctes. En médecine par exemple, les machines deviennent de plus en plus performantes pour produire des diagnostics automatisés, mais cela ne signifie pas qu’on puisse remplacer les médecins, rappelait le New Scientist. Parce que le diagnostic ne se limite pas toujours à des données. Ensuite parce que la relation est certainement plus essentielle qu’on ne la mesure. Enfin, parce que les symptômes eux-mêmes sont rarement clairs.
Le problème, conclut le New Scientist, c’est que les qualités comme les limites des diagnostics automatisés ne sont pas le seul facteur qui entre en ligne de compte dans l’automatisation. L’état du système de santé, ses défaillances, ses coûts, la disponibilité du personnel… sont autant de facteurs qui vont appuyer sur les choix à recourir et à déployer les outils, mêmes imparfaits. Bref, l’évaluation de l’IA ne peut se faire dans une boîte de Pétri.
-
7:01
Technofanatiques
sur Dans les algorithmes« Le déploiement de l’IA s’accompagne d’un imaginaire qui porte en lui une dévaluation profonde de l’humanité ». Celia Izoard.
-
7:00
L’IA : une « machine à valeur perpétuelle »
sur Dans les algorithmes« Ce que j’entends par machine à valeur perpétuelle, c’est une machine qui serait un moyen de créer et de capturer une quantité infinie de plus-value sans avoir besoin de travail pour produire cette valeur ». Une forme de quête chimérique du capital, explique Jathan Sadowski qui vient de faire paraître The Mechanic and the Luddite.
« La technologie et le capitalisme ne sont pas deux systèmes qui existent séparément l’un de l’autre, comme si la technologie était corrompue par le capital, ce qui serait l’argument qui sous-tend, je pense, la thèse du capitalisme de surveillance de Zuboff, selon laquelle ces entreprises ont été corrompues par le capitalisme. Mon livre soutient que ce n’est pas du tout le cas, que ces deux systèmes ont toujours été étroitement liés et interconnectés, qu’on ne peut pas les dissocier analytiquement ou matériellement. Il faut comprendre que ces entreprises technologiques sont le sommet du capital à l’heure actuelle. Ce sont les capitalistes de pointe, et cela signifie qu’ils vont agir de la manière dont les capitalistes ont toujours agi au cours des 300 dernières années. »
-
7:00
Pour une démocratie algorithmique
sur Dans les algorithmes« Les débats politiques suscités par les nouvelles technologies ont le potentiel de « réanimer la démocratie au XXIe siècle » », défend le théoricien politique devenu député travailliste britannique, Josh Simons, dans son livre Algorithms for the People: Democracy in the Age of AI (Princeton University Press, 2023). Les questions que posent les décisions automatisées révèlent les enjeux qu’on toujours eut les décisions institutionnelles en matière d’équité, explique Lily Hu dans le compte-rendu du livre qu’elle livre pour la Boston Review. Pour Simmons, ceux qui jusqu’à présent prenaient des décisions seront demain formés par les algorithmes pour les prendre. Mais cela ne signifie pas que les décisions de demain seront plus efficaces ou plus justes, critique Hu. Les assistants sociaux qui prenaient des décisions sur les gens n’étaient pas forcément bienveillants, pas plus que ne le seront les outils algorithmiques qu’on imagine apolitiques. Au contraire, comme l’ont documentés ces dernières années ceux qui s’intéressent au déploiement des outils algorithmiques dans le domaine social, à l’image des travaux de la sociologue Dorothy Roberts qui dénonce la « terreur bienveillante » des systèmes de protection de l’enfance américains, qui relèvent bien plus d’une extension de l’État carcéral qu’autre chose. Les enjeux politiques de nos institutions – en particulier des institutions étatiques qui ont le monopole de la violence – ne peuvent pas être réduits au caractère personnel des individus qui y travaillent, rappelle Hu. Pour Simons, « nous devons nous engager dans des débats publics sur la raison d’être des différentes institutions, sur les responsabilités qu’elles ont et sur la manière dont la prise de décision devrait refléter ces objectifs et ces responsabilités ». Le fait que les systèmes algorithmiques offrent un moyen de mettre en pratique de telles déterminations collectives – par le biais d’une conception décidée démocratiquement – est ce qui en fait un lieu si important de renouveau démocratique, défend-t-il. C’est là que les outils algorithmiques présentent une opportunité unique. En élargissant nos options de prise de décision, ils facilitent l’audit et l’évaluation des systèmes dont nous disposons déjà, en proposant d’ouvrir le débat, de les changer et les améliorer.
Dans son livre, Simmons esquisse deux propositions. Il propose une loi sur l’égalité de l’IA qui établirait un cadre auquel toutes les institutions qui ont recours à des outils prédictifs devraient se conformer. L’idée est de mettre au cœur des systèmes l’égalité politique, c’est-à-dire « non seulement de s’assurer que leurs systèmes de prise de décision n’aggravent pas les inégalités sociales et que, dans certains contextes, leurs systèmes les réduisent ».
Enfin, il propose de développer des services publics « spécifiquement démocratiques » via de nouveaux mécanismes de gouvernance participative – ce qui n’est pas sans rappeler ce que disait le juriste Thomas Perroud, qui voyait dans les Communs, un levier pour reposer la question démocratique en ouvrant la gouvernance des services publics. Pour Simmons, nous devons « débattre sans cesse » de la manière dont nos idéaux sont mis en pratique. « Ce qui compte ce n’est pas les valeurs ou les intérêts particuliers que les outils de prédiction privilégient à un moment donné, mais les processus et les mécanismes de gouvernance utilisés pour faire émerger et interroger ces valeurs et ces intérêts au fil du temps ». Nous devrions institutionnaliser un processus de révision continue pour nous demander comment faire progresser l’égalité politique et soutenir les conditions de l’autonomie collective. Une démocratie plus profonde est la fin que nous devrions chercher à atteindre. Nous devrions nous préoccuper avant tout de la meilleure façon de « donner la priorité à la démocratie sur le capitalisme ».
-
7:00
De l’impact de la désinformation sur l’IA
sur Dans les algorithmesIl est relativement facile d’empoisonner les modèles d’IA en ajoutant un peu de désinformation médicale à leurs données d’entraînement, explique le New Scientist. Les expériences réalisées ont montré que le remplacement de seulement 0,5 % des données d’entraînement de l’IA par un large éventail de fausses informations médicales pouvait amener les modèles d’IA empoisonnés à générer davantage de contenu médicalement nocif, même lorsqu’ils répondaient à des questions sur des concepts sans rapport avec les données corrompues. Par exemple, les modèles d’IA empoisonnés ont catégoriquement nié l’efficacité des vaccins et des antidépresseurs en termes sans équivoque. Les chercheurs « ont découvert que la corruption d’à peine 0,001 % des données d’entraînement de l’IA par des fausses informations sur les vaccins pouvait entraîner une augmentation de près de 5 % du contenu nuisible généré par les modèles d’IA empoisonnés ».
Pour répondre à ces attaques, faciles à mener, les chercheurs ont développé un algorithme de vérification des faits capable d’évaluer les résultats de n’importe quel modèle d’IA pour détecter la désinformation médicale. En comparant les phrases médicales générées par l’IA à un graphique de connaissances biomédicales, cette méthode a pu détecter plus de 90 % de la désinformation médicale générée par les modèles empoisonnés. Le problème reste que l’algorithme de vérification ne peut pour l’instant n’être qu’un correctif temporaire, mais cela plaide en tout cas pour améliorer les contrôles randomisés des systèmes et leur surveillance en continue.
-
7:00
La reconnaissance faciale, l’enjeu du siècle
sur Dans les algorithmesAvec cet article, nous nous lançons dans un dossier que nous allons consacrer à la reconnaissance faciale et au continuum sécuritaire. Première partie.
Your face belongs to us (Random House, 2023), le livre que la journaliste du New York Times, Kashmir Hill, a consacré à Clearview, l’entreprise leader de la reconnaissance faciale, est une plongée glaçante dans la dystopie qui vient.
Jusqu’à présent, j’avais tendance à penser que la reconnaissance faciale était problématique d’abord et avant tout parce qu’elle était défaillante. Elle est « une technologie qui souvent ne marche pas », expliquaient Mark Andrejevic et Neil Selwyn (Facial Recognition, Wiley, 2022), montrant que c’est souvent dans son implémentation qu’elle défaille. La juriste, Clare Garvie, faisait le même constat. Si l’authentification (le fait de vérifier qu’une personne est la même que sur une photo) fonctionne mieux que l’identification (le fait de retrouver une personne dans une banque d’image), les deux usages n’ont cessé ces dernières années de montrer leurs limites.
Mais les choses évoluent vite.
L’une des couvertures du livre de Kashmir Hill. « Le plus grand danger de la reconnaissance faciale vient du fait qu’elle fonctionne plutôt très bien »
Dans leur livre, AI Snake Oil, les spécialistes de l’intelligence artificielle, Arvind Narayanan et Sayash Kapoor, soulignent pourtant que le taux d’erreur de la reconnaissance faciale est devenu négligeable (0,08% selon le NIST, l’Institut national des normes et de la technologie américain). « Quand elle est utilisée correctement, la reconnaissance faciale tend à être exacte, parce qu’il y a peu d’incertitude ou d’ambiguïté dans la tâche que les machines doivent accomplir ». Contrairement aux autres formes d’identification (identifier le genre ou reconnaître une émotion, qui sont bien plus sujettes aux erreurs), la différence cruciale c’est que l’information requise pour identifier des visages, pour les distinguer les uns des autres, est présente dans les images elles-mêmes. « Le plus grand danger de la reconnaissance faciale vient du fait qu’elle fonctionne plutôt très bien » et c’est en cela qu’elle peut produire énormément de dommages.
Le risque que porte la reconnaissance faciale repose tout entier dans la façon dont elle va être utilisée. Et de ce côté là, les dérives potentielles sont innombrables et inquiétantes. Gouvernements comme entreprises peuvent l’utiliser pour identifier des opposants, des personnes suspectes mais convaincues d’aucuns délits. Certes, elle a été utilisée pour résoudre des affaires criminelles non résolues avec succès. Certes, elle est commode quand elle permet de trier ou d’organiser ses photos… Mais si la reconnaissance faciale peut-être hautement précise quand elle est utilisée correctement, elle peut très facilement être mise en défaut dans la pratique. D’abord par ses implémentations qui peuvent conduire à y avoir recours d’une manière inappropriée et disproportionnée. Ensuite quand les images ne sont pas d’assez bonnes qualités, au risque d’entraîner tout le secteur de la sécurité dans une course sans limites à toujours plus de qualité, nécessitant des financements disproportionnés et faisant peser un risque totalitaire sur les libertés publiques. Pour Narayanan et Kapoor, nous devons avoir un débat vigoureux et précis pour distinguer les bons usages des usages inappropriés de la reconnaissance faciale, et pour développer des gardes-fous pour prévenir les abus et les usages inappropriés tant des acteurs publics que privés.
Certes. Mais cette discussion plusieurs fois posée n’a pas lieu. En 2020, quand la journaliste du New York Times a commencé ses révélations sur Clearview, « l’entreprise qui pourrait mettre fin à la vie privée », le spécialiste de la sécurité, Bruce Schneier avait publié une stimulante tribune pour nous inviter à réglementer la ré-identification biométrique. Pour lui, nous devrions en tant que société, définir des règles pour déterminer « quand une surveillance à notre insu et sans notre consentement est permise, et quand elle ne l’est pas », quand nos données peuvent être combinées avec d’autres et quand elles ne peuvent pas l’être et enfin savoir quand et comment il est permis de faire de la discrimination biométrique et notamment de savoir si nous devons renforcer les mesures de luttes contre les discriminations qui vont se démultiplier avec cette technologie et comment. En France, à la même époque, le sociologue Laurent Mucchielli qui avait fait paraître son enquête sur la vidéosurveillance (Vous êtes filmés, Dunod, 2018 – voir notre compte-rendu de l’époque, désabusé), posait également sur son blog des questions très concrètes sur la reconnaissance faciale : « Quelle partie de la population serait fichée ? Et qui y aurait accès ? Voilà les deux problèmes. » Enfin, les deux professeurs de droit, Barry Friedman (auteur de Unwarranted : policing without permission, 2017) et Andrew Guthrie Ferguson, (auteur de The Rise of Big Data policing, 2017) condamnaient à leur tour, dans une tribune pour le New York Times, « la surveillance des visages » (c’est-à-dire, l’utilisation de la reconnaissance faciale en temps réel pour trouver où se trouve quelqu’un) mais reconnaissaient que l’identification faciale (c’est-à-dire la réidentification d’un criminel, uniquement pour les crimes les plus graves), elle, pourrait être autorisée. Ils y mettaient néanmoins une condition : la réidentification des visages ne devrait pas être autorisée sans décision de justice et sans sanction en cas d’utilisation abusive. Mais, à nouveau, ce n’est pas ce qui s’est passé. La reconnaissance faciale s’est déployée sans contraintes et sans limites.
Les dénonciations comme les interdictions de la reconnaissance faciale sont restées éparses. Les associations de défense des libertés publiques ont appelé à des moratoires et mené des campagnes pour l’interdiction de la reconnaissance faciale, comme Ban Facial Recognition aux Etats-Unis ou Reclaim your face en Europe. Souvent, ces interdictions restent circonscrites à certains types d’usages, notamment les usages de police et de surveillance d’État, oubliant les risques que font courir les outils de surveillance privée.
Reste que le débat public sur son implémentation et ses modalités est inexistant. Au lieu de débats de sociétés, nous avons des « expérimentations » qui dérogent au droit, des déploiements épars et opaques (plus de 200 autorités publiques par le monde sont clientes de Clearview qui n’est qu’un outil parmi une multitude de dispositifs plus ou moins efficaces, allant de la reconnaissance faciale, à la vidéosurveillance algorithmique), et surtout, un immense déni sur les enjeux de ces technologies. Au final, nous ne construisons aucune règle morale sur son utilité ou son utilisation. Nous faisons collectivement l’autruche et son utilisation se déploie sans cadres légaux clairs dans un continuum de technologies sécuritaires et problématiques, allant des drones aux technologies de contrôle de l’immigration.
Une histoire de la reconnaissance faciale : entre amélioration par à-coups et paniques morales à chaque améliorationDans son livre, Your face belongs to us, Kashmir Hill alterne à la fois une histoire de l’évolution de la technologie et une enquête sur le développement de Clearview.
Sur cette histoire, Hill fait un travail qui met en exergue des moments forts. Elle rappelle d’abord que le terme de vie privée, définit à l’origine comme le droit d’être laissé tranquille par les juristes américains Samuel Warren et Louis Brandeis, était inspiré par la création de la pellicule photographique par Kodak, qui promettait de pouvoir sortir l’appareil photo des studios où il était jusqu’alors confiné par son temps de pause très long. Dans cette longue histoire de la reconnaissance faciale, Hill raconte notamment l’incroyable histoire du contrôle des tickets de trains américains dans les années 1880, où les contrôleurs poinçonnaient les tickets selon un codage réduit (de 7 caractéristiques physiques dont le genre, l’âge, la corpulence…) permettant aux contrôleurs de savoir si le billet contrôlé correspondait bien à la personne qui l’avait déjà présenté. Bien évidemment, cette reconnaissance humaine et basique causa d’innombrables contestations, tant ces appréciations d’un agent à un autre pouvaient varier. Mais la méthode aurait inspiré Herman Hollerith, qui va avoir l’idée de cartes avec des perforations standardisées et va adapter la machine pour le recensement américain, donnant naissance à l’entreprise qui deviendra IBM.
Hill surfe sur l’histoire de l’IA, des Perceptrons de Marvin Minsky, à Panoramic, l’entreprise lancée dans les années 60 par Woody Bledsoe, qui va être la première, à la demande de la CIA, à tenter de créer un outil de reconnaissance des visages simplifié, en créant une empreinte de visages comme autant de points saillants. Elle raconte que les améliorations dans le domaine vont se faire avec l’amélioration de la qualité et de la disponibilité des images et de la puissance des ordinateurs, à l’image des travaux de Takeo Kanade (dans les années 70, pour l’entreprise japonaise NEC), puis de Matthew Turk qui va bénéficier de l’amélioration de la compression des images. Accusé d’être à la tête d’un programme Orwellien, Turk s’en défendra pourtant en soulignant qu’enregistrer les informations sur les gens qui passent devant une caméra est surtout bénin. A croire que notre déni sur les conséquences de cette technologie remonte à loin.
En 2001, lors du Super Bowl, plusieurs entreprises, dont Viisage Technology et Raytheon, communiquent sur le fait qu’elles ont sécurisé l’accès au stade grâce à la reconnaissance faciale, identifiant 19 spectateurs avec un passé criminel. Viisage a récupéré la technologie de Turk et l’a commercialisé pour des badges d’identification pour entreprises. Ces déploiements technologiques, financés par les agences fédérales, commencent à inquiéter, notamment quand on apprend que des entreprises y ont recours, comme les casinos. Reste que la technologie est encore largement défaillante et peine bien souvent à identifier quiconque.
Mais le 11 septembre a changé la donne. Le Patriot Act permet aux agences du gouvernement d’élargir leurs accès aux données. Joseph Atick, cofondateur de Visionics, une autre entreprise du secteur, propose sa technologie aux aéroports pour rassurer les voyageurs. Il sait que celle-ci n’est pas au point pour identifier les terroristes, mais il a besoin des données pour améliorer son logiciel. Bruce Schneider aura beau dénoncer le « théâtre de la sécurité« , l’engrenage sécuritaire est lancé… Face à ses déploiements, les acteurs publics ont besoin d’évaluer ce qu’ils achètent. Jonathon Philips du National Institute of Standards and Technology (Nist) créée une base de données de visages de très bonne qualité sous différents angles, « Feret », pour tester les outils que vendent les entreprises. Il inaugure un concours où les vendeurs de solutions sont invités à montrer qui parvient à faire le mieux matcher les visages aux photos. En 2001, le premier rapport du Nist montre surtout qu’aucune entreprise n’y parvient très bien. Aucune entreprise n’est capable de déployer un système efficace, mais cela ne va pas les empêcher de le faire. Les meilleures entreprises, comme celle d’Atick, parviennent à faire matcher les photos à 90%, pour autant qu’elles soient prises dans des conditions idéales. Ce qui tient surtout de l’authentification faciale fonctionne également mieux sur les hommes que sur les femmes, les personnes de couleurs ou les jeunes. En 2014, le FBI lance à son tour un concours pour rendre sa base d’images de criminels cherchable, mais là encore, les résultats sont décevants. La technologie échoue dès qu’elle n’est pas utilisée dans des conditions idéales.En 2006, le juriste de l’ACLU James Ferg-Cadima découvre dans une grande surface la possibilité de payer depuis son empreinte digitale. Face à de tels dispositifs, s’inquiète-t-il, les consommateurs n’ont aucun moyen de protéger leurs empreintes biométriques. Quand son mot de passe est exposé, on peut en obtenir un nouveau, mais nul ne peut changer son visage ou ses empreintes. Le service « Pay by Touch », lancé en 2002 fait faillite en 2007, avec le risque que sa base d’empreintes soit vendue au plus offrant ! Avec l’ACLU, Ferg-Cadima œuvre alors à déployer une loi qui oblige à recevoir une permission pour collecter, utiliser ou vendre des informations biométriques : le Biometric Information Privacy Act (Bipa) que plusieurs Etats vont adopter.
En 2009, Google imagine des lunettes qui permettent de lancer une recherche en prenant une photo, mais s’inquiète des réactions, d’autant que le lancement de Street View en Europe a déjà terni son image de défenseur de la vie privée. La fonctionnalité de reconnaissance faciale existe déjà dans Picasa, le service de stockage d’images de Google, qui propose d’identifier les gens sur les photos et que les gens peuvent labelliser du nom de leurs amis pour aider le logiciel à progresser. En 2011, la fonctionnalité fait polémique. Google l’enterre.
A la fin des années 90, l’ingénieur Henry Schneiderman accède à Feret, mais trouve que la base de données est trop parfaite pour améliorer la reconnaissance faciale. Il pense qu’il faut que les ordinateurs soient d’abord capables de trouver un visage dans les images avant qu’ils puissent les reconnaître. En 2000, il propose d’utiliser une nouvelle technique pour cela qui deviendra en 2004, PittPatt, un outil pour distinguer les visages dans les images. En 2010, le chercheur Alessandro Acquisti, fasciné par le paradoxe de la vie privée, lance une expérience en utilisant PittPatt et Facebook et montre que ce croisement permet de ré-identifier tous les étudiants qui se prêtent à son expérience, même ceux qui n’ont pas de compte Facebook, mais qui ont été néanmoins taggés par leurs amis dans une image. Acquisti prédit alors la « démocratisation de la surveillance » et estime que tout le monde sera demain capable d’identifier n’importe qui. Pour Acquisti, il sera bientôt possible de trouver le nom d’un étranger et d’y associer alors toutes les données disponibles, des sites web qu’il a visité à ses achats en passant par ses opinions politiques… et s’inquiète du fait que les gens ne pourront pas y faire grand chose. Pour le professeur, d’ici 2021 il sera possible de réidentifer quelqu’un depuis son visage, prédit-il. Acquisti s’est trompé : la fonctionnalité a été disponible bien plus tôt !
En 2011, PittPatt est acquise par Google qui va s’en servir pour créer un système pour débloquer son téléphone. En décembre 2011, à Washington se tient la conférence Face Facts, sponsorisée par la FTC qui depuis 2006 s’est doté d’une petite division chargée de la vie privée et de la protection de l’identité, quant, à travers le monde, nombre d’Etats ont créé des autorités de la protection des données. Si, suite à quelques longues enquêtes, la FTC a attaqué Facebook, Google ou Twitter sur leurs outils de réglages de la vie privée défaillants, ces poursuites n’ont produit que des arrangements amiables. A la conférence, Julie Brill, fait la démonstration d’un produit de détection des visages que les publicitaires peuvent incorporer aux panneaux publicitaires numériques urbains, capable de détecter l’âge où le genre. Daniel Solove fait une présentation où il pointe que les Etats-Unis offrent peu de protections légales face au possible déploiement de la reconnaissance faciale. Pour lui, la loi n’est pas prête pour affronter le bouleversement que la reconnaissance faciale va introduire dans la société. Les entreprises se défendent en soulignant qu’elles ne souhaitent pas introduire de systèmes pour dé-anonymiser le monde, mais uniquement s’en servir de manière inoffensive. Cette promesse ne va pas durer longtemps…
En 2012, Facebook achète la startup israélienne Face.com et Zuckerberg demande aux ingénieurs d’utiliser Facebook pour « changer l’échelle » de la reconnaissance faciale. Le système de suggestions d’étiquetage de noms sur les photos que les utilisateurs chargent sur Facebook est réglé pour n’identifier que les amis, et pas ceux avec qui les utilisateurs ne sont pas en relation. Facebook assure que son outil ne sera jamais ouvert à la police et que le réseau social est protégé du scraping. On sait depuis que rien n’a été moins vrai. Après 5 ans de travaux, en 2017, un ingénieur de Facebook provenant de Microsoft propose un nouvel outil à un petit groupe d’employés de Facebook. Il pointe la caméra de son téléphone en direction d’un employé et le téléphone déclame son nom après l’avoir reconnu.
A Stanford, des ingénieurs ont mis au point un algorithme appelé Supervision qui utilise la technologie des réseaux neuronaux et qui vient de remporter un concours de vision par ordinateur en identifiant des objets sur des images à des niveaux de précision jamais atteints. Yaniv Taigman va l’utiliser et l’améliorer pour créer DeepFace. En 2014, DeepFace est capable de faire matcher deux photos d’une même personne avec seulement 3% d’erreurs, même si la personne est loin dans l’image et même si les images sont anciennes. En 2015, DeepFace est déployé pour améliorer l’outil d’étiquetage des images de Facebook.
En 2013, les révélations d’Edward Snowden changent à nouveau la donne. D’un coup, les gens sont devenus plus sensibles aux incursions des autorités à l’encontre de la vie privée. Pourtant, malgré les efforts de militants, le Congrès n’arrive à passer aucune loi à l’encontre de la reconnaissance faciale ou de la protection de la vie privée. Seules quelques villes et Etats ont musclé leur législation. C’est le cas de l’Illinois où des avocats vont utiliser le Bipa pour attaquer Facebook accusé d’avoir créer une empreinte des visages des 1,6 millions d’habitants de l’Etat.
Cette rapide histoire, trop lacunaire parfois, semble s’arrêter là pour Hill, qui oriente la suite de son livre sur le seul Clearview. Elle s’arrête effectivement avec le déploiement de l’intelligence artificielle et des réseaux de neurones qui vont permettre à la reconnaissance faciale de parvenir à l’efficacité qu’elle espérait.
Reste que cette rapide histoire, brossée à grands traits, souligne néanmoins plusieurs points dans l’évolution de la reconnaissance faciale. D’abord que la reconnaissance faciale progresse par vague technologique, nécessitant l’accès à de nouvelles puissances de calcul pour progresser et surtout l’accès à des images en quantité et en qualité.
Ensuite, que les polémiques et paniques nourrissent les projets et les relancent plutôt que de les éteindre. Ceux qui les développent jouent souvent un jeu ambivalent, minimisant et dissimulant les capacités des programmes qu’ils déploient.
Enfin, que les polémiques ne permettent pas de faire naître des législations protectrices, comme si la législation était toujours en attente que la technologie advienne. Comme si finalement, il y avait toujours un enjeu à ce que la législation soit en retard, pour permettre à la technologie d’advenir.
(à suivre)
-
7:00
Du démantèlement de l’Amérique
sur Dans les algorithmes« Beaucoup d’entre nous sont consternés par le démantèlement sans précédent de l’État administratif américain. Licenciements massifs. Suppression de sites Web. Suppression des organismes de surveillance. Accès incontrôlé au Trésor public. Tout autour de moi, les gens essaient de relier ce qui se passe à des événements historiques. Est-ce du fascisme ? Une prise de contrôle hostile d’une entreprise ? Un coup d’État ? Les gens veulent un cadre pour comprendre ce qui se passe et pour affronter ce qui va arriver. La plupart des gens que je connais ont également du mal à déterminer où ils peuvent agir », confie danah boyd sur son blog.
La politique est un jeu de Jenga, explique-t-elle. Les conservateurs retirent des pièces de la tour de bois de l’Etat providence, tandis que les libéraux ajoutent de nouvelles pièces au sommet. Mais dans les deux cas, les pressions s’accentuent. Et les fonctionnaires, eux, tentent de faire tenir l’édifice avec du scotch pour éviter qu’il ne s’écroule. Cette configuration est depuis longtemps inquiétante, mais elle nous fait croire que la démolition n’est pas si simple. Lorsque MySpace s’est effondré, rappelle la chercheuse, l’effondrement a été lent jusqu’à devenir explosif. Mais surtout, il est probable que les démocrates ne fassent pas grand-chose pour protéger les fonctionnaires, car ils détestent tout autant l’Etat administratif que les Républicains. Reste que le fait que l’administration Trump ait désormais accès aux systèmes centraux de l’État administratif est très inquiétant. La destruction est désormais un jeu ouvert à ceux qui veulent jouer, et la source de leur pouvoir. « La guerre, la politique et les marchés financiers sont souvent considérés comme des jeux qui attirent toutes sortes de comportements problématiques. L’idée même d’une société est de créer des règles et des garde-fous, des freins et des contrepoids. Mais la logique du jeu a toujours consisté à repousser ces limites, à exploiter les failles et à trouver les passages secrets. Pendant des décennies, nous avons lutté pour contenir les fauteurs de guerre, les politiciens corrompus et les escrocs fraudeurs, même si nous avons eu un succès mitigé. Mais cette équipe de joueurs joue un jeu différent. Nous allons donc avoir besoin d’une toute nouvelle stratégie pour contenir leurs tendances destructrices ». Même constat, accablé, pour Henry Farrell : « Nous assistons à la mise en œuvre du rêve de puissance de la Silicon Valley dans la vie réelle ». Même chez Twitter, rappelle-t-il, Musk a généré beaucoup de destruction et bien peu de création.
L’accès aux systèmes est désormais la clef du pouvoirLa question de savoir si l’accès aux systèmes informatiques relève d’un coup d’Etat, n’est pas qu’une question théorique. Comme en 2016, nombre de sites ont été débranchés, de données ont été supprimées, rapporte Next, notamment des données relatives à la santé, à l’environnement et à la recherche. Le Département de l’efficacité gouvernementale (Doge) a également mis la main sur le système de paiement fédéral et la base de données des agents, ainsi que sur l’agence chargé de la maintenance de l’infrastructure informatique du gouvernement américain, explique encore Martin Clavey dans un autre article de Next. Pour Charlie Warzel de The Atlantic, le démantèlement est très rapide au risque de supprimer des maillons clés de la chaîne bureaucratique qui font fonctionner l’Etat. Cela risque surtout de déclencher beaucoup de contestations judiciaires et de désordres politiques. Mais il n’est pas sûr que ces données là soient dans les indicateurs de réussite du Doge !
Pour Mike Masnick de TechDirt, « un simple citoyen sans aucune autorité constitutionnelle prend effectivement le contrôle de fonctions gouvernementales essentielles ». Et ce alors que la Constitution américaine exige explicitement la confirmation du Sénat pour toute personne exerçant un pouvoir fédéral important – « une exigence que Musk a tout simplement ignorée en installant ses fidèles dans tout le gouvernement tout en exigeant l’accès à pratiquement tous les leviers du pouvoir et en repoussant quiconque se met en travers de son chemin ». Comme l’explique l’article très détaillé de Wired sur la prise de pouvoir des hommes de main de Musk, alors que, normalement, l’accès aux systèmes des agences nécessite que les personnes soient employés par ces agences. Or, en accédant aux systèmes de l’administration générale, c’est l’accès à toutes les données qui est désormais ouvert au plus grand mépris des règlements, procédures et des lois. « Les systèmes de paiement du Trésor, gérés par le Bureau des services fiscaux, contrôlent le flux de plus de 6 000 milliards de dollars par an vers les ménages, les entreprises et plus encore à l’échelle nationale. Des dizaines, voire des centaines de millions de personnes à travers le pays dépendent de ces systèmes, qui sont responsables de la distribution des prestations de sécurité sociale et d’assurance-maladie, des salaires du personnel fédéral, des paiements aux entrepreneurs et aux bénéficiaires de subventions du gouvernement et des remboursements d’impôts, entre des dizaines de milliers d’autres fonctions ». « Nous n’avons aucune visibilité sur ce qu’ils font avec les systèmes informatiques et de données », a déclaré un responsable à Reuters. Un juge a du empêcher l’administration Musk/Trump de mettre à exécution sa tentative d’arrêter de dépenser l’argent alloué par le Congrès, rappelant que la loi fédérale précise comment l’exécutif doit agir s’il estime que les crédits budgétaires ne sont pas conformes aux priorités du président : « il doit demander au Congrès de l’approuver, et non agir unilatéralement ». Musk n’est pas le propriétaire du gouvernement américain. Il n’a pas été élu. Pas même nommé officiellement. « Nous allons vite nous retrouver à regretter l’époque où Musk ne faisait que détruire des réseaux sociaux au lieu des mécanismes de base de la démocratie ».
Pour le financier libéral Mike Brock, ce qui est en train de se passer aux Etats-Unis tient du coup d’Etat, explique-t-il dans plusieurs billets de sa newsletter. Elon Musk a pris le contrôle des systèmes de paiement du Trésor tandis que les responsables de la sécurité qui suivaient les protocoles étaient mis à la porte. Derrière le moto de « l’efficacité gouvernementale » se cache une prise de contrôle inédite, explique-t-il. Elon Musk a fermé l’USAID, l’agence pour le développement international, et la suspension des programmes a déjà des conséquences très immédiates, alors que cette agence a été créée par une loi adoptée par le Congrès qui n’a pas été abrogée. C’est une attaque contre le principe même de la loi, rappelle-t-il. « Si nous acceptons que le président puisse unilatéralement fermer des agences établies par le Congrès, alors le pouvoir du Congrès de créer des agences perd tout son sens. Si l’autorité exécutive peut outrepasser des mandats statutaires clairs, alors tout notre système de freins et contrepoids s’effondre. » Le risque, c’est le « démantèlement de l’ordre constitutionnel lui-même ». Même chose quand le DOGE obtient l’accès aux systèmes de paiement sans autorisation. Le message n’est pas subtil et terriblement confus : « respecter la loi est désormais considéré comme un acte de résistance ». « Lorsque Trump menace le Panama au sujet du canal, lorsqu’il impose des tarifs douaniers illégaux au Canada et au Mexique, il ne viole pas seulement les accords internationaux : il nous demande d’accepter que la parole de l’Amérique ne signifie rien. »
« Cet assaut systématique contre la réalité sert un objectif clair : lorsque les gens ne peuvent plus faire confiance à leur propre compréhension du droit et de la vérité, la résistance devient presque impossible. Si nous acceptons que l’USAID puisse être fermée malgré une autorité statutaire claire, que des fonctionnaires puissent être licenciés pour avoir respecté la loi, que des citoyens privés puissent prendre le contrôle des systèmes gouvernementaux, nous avons déjà abandonné le cadre conceptuel qui rend possible la gouvernance constitutionnelle. »
« L’effet le plus insidieux de la distorsion de la réalité est la paralysie de la réponse démocratique. »
« Une résistance efficace à l’effondrement démocratique nécessite trois éléments clés », conclut Brock : « la clarté sur ce qui se passe, le courage de le nommer et une action coordonnée pour l’arrêter ». « Lorsque nous voyons des responsables de la sécurité renvoyés pour avoir protégé des informations classifiées à l’USAID, nous devons appeler cela par son nom : une punition pour avoir respecter la loi. Lorsque nous voyons Musk prendre le contrôle des systèmes du Trésor sans autorisation, nous devons le dire clairement : c’est une saisie illégale de fonctions gouvernementales. Lorsque Trump déclare qu’il n’appliquera pas les lois qu’il n’aime pas, nous devons l’identifier précisément : c’est une violation de son devoir constitutionnel d’exécuter fidèlement les lois. » Et Brock d’inviter les Américains à faire pression sur le Congrès et notamment sur les élus républicains pour le respect de l’Etat de droit. Ce sont les représentants du peuple qui en sont responsables.
En attendant, d’autres décisions judiciaires sont attendues sur ces transformations profondes du fonctionnement de feu, la démocratie américaine. Mais il n’est pas sûr que la justice, seule, suffise à rétablir le droit.
En tout cas, ce qu’il se passe de l’autre côté de l’Atlantique devrait nous inviter à réfléchir sur la protection constitutionnelle des accès aux systèmes. Car au XXIe siècle, le démantèlement de l’Etat de droit consiste désormais à prendre le contrôle des autorisations d’un serveur.
Hubert Guillaud
MAJ du 6/02/2025 : Comme le dit très bien Brian Marchant, les premières décisions du Doge, nous permettent de voir « la logique de l’automatisation » à venir : le contrôle. « Nous voyons ainsi moins d’informations disponibles pour le monde, moins d’options disponibles pour les humains qui travaillent à les fournir, moins d’humains, point final, pour contester ceux qui sont au pouvoir, car ce pouvoir se concentre entre leurs mains ». Tel est le but de l’automatisation du gouvernement fédéral. Doge va droit au but : « il ne s’agit pas d’améliorer la vie professionnelle de qui que ce soit ».
-
7:00
Avons-nous besoin d’un nouveau Twitter ?
sur Dans les algorithmesNon, répond la journaliste J. Wortham dans une belle tribune pour le New York Times, critiquant la fuite des utilisateurs de X vers Bluesky. Non seulement, nous n’avons pas besoin de recréer l’internet du passé, mais surtout, rien n’assure que Bluesky n’évite à l’avenir l’évolution qu’à connu Twitter.
Pourquoi devrions-nous imaginer que Bluesky ne deviendrait pas un autre Twitter ? Pourquoi continuer à essayer de recréer l’Internet du passé ? « Nous sommes officiellement arrivés au stade avancé des médias sociaux. Les services et plateformes qui nous ont enchantés et ont remodelé nos vies lorsqu’ils ont commencé à apparaître il y a quelques décennies ont désormais atteint une saturation et une maturité totales. Appelez cela un malaise. Appelez cela le syndrome de Stockholm. Appelez ça comme vous voulez. Mais à chaque fois qu’une nouvelle plateforme fait son apparition, promettant quelque chose de mieux — pour nous aider à mieux nous connecter, à mieux partager nos photos, à mieux gérer nos vies — beaucoup d’entre nous la parcourent avec enthousiasme, pour finalement être déçus. »
« L’histoire d’Internet est jonchée de pierres tombales virtuelles de services qui ont surgi et disparu au gré des marées d’attention – et d’argent – qui allaient et venaient. » Désormais, les gens voient à juste titre le X de Musk comme l’emblème de l’emprise excessive de notre technocratie. Ceux qui en partent ne disent pas simplement au revoir à X : ils condamnent le lieu ! « Beaucoup semblent espérer que leur départ ressemblera à une grève générale ou à un boycott, même si cela semble peu probable, car X n’est pas une entreprise rentable et Musk semble surtout satisfait de l’afflux de personnes réactionnaires » que son réseau génère.
Bien sûr, explique la journaliste, je comprends ce que les transfuges recherchent dans un site comme Bluesky : la même chose que nous trouvions dans les premiers forums du net, la profondeur et la vitesse des conversations, des relations, une excitation comme celle que nous avons trouvé au début des médias sociaux. Nous sommes toujours à la recherche de cette utopie qui nous a été promise dès les premiers jours d’internet. « Mais nous aurions tort de penser qu’un site peut résister à la trajectoire (de succès et de déception) que presque tous les autres ont eu tendance à suivre ». Partout, l’impératif de rentabilité a dégradé l’expérience initiale. Et le fléau que nous connaissons actuellement sur X « n’est pas quelque chose qui s’est développé après la prise de contrôle de Musk. Il était là depuis le début ». L’Internet naissant a été fondé sur l’espoir que le cyberespace serait une force unificatrice pour le bien. On parlait de liberté et d’ouverture… Mais dès le départ, l’industrie technologique et ses produits ont reproduit les inégalités existantes. La technologie a surtout bénéficié à ceux qui l’ont bâti. Dans les années 1990, le capital-risqueur John Doerr a décrit le boom technologique de cette décennie comme « la plus grande création légale de richesse que cette planète ait jamais connue ». Il avait raison, mais il oublié de dire que ces richesses n’étaient pas pour tout le monde. Même les premiers forums en ligne ont rapidement été colonisés par les comportements hostiles d’utilisateurs. Comme l’explique le journaliste Malcolm Harris dans son livre Palo Alto (2023), la politique des produits est liée à l’éthique de leur environnement. Et la Silicon Valley a surtout servi à maintenir les structures de pouvoir en place. « La concurrence et la domination, l’exploitation et l’exclusion, la domination des minorités et la haine de classe : ce ne sont pas des problèmes que la technologie capitaliste résoudra », note Harris. Au contraire, « c’est à cela qu’elle sert ». Au fur et à mesure que les plateformes grandissent – en ajoutant des membres, des investisseurs et des attentes – leurs objectifs évoluent également. Mais pas toujours dans le sens d’une plus grande responsabilité… Si Bluesky aujourd’hui attire, c’est parce que la plateforme est encore toute petite et qu’on n’y trouve pas de publicité, mais nombre d’indicateurs montrent que cela ne pourrait pas durer. Jack Dorsey, le fondateur de Twitter et de Bluesky, a quitté le conseil d’administration en mai en déplorant que l’équipe répétait les mêmes erreurs qu’il a connu à Twitter. La Silicon Valley produit la Silicon Valley. La croissance et le retour sur investissement d’abord.
Depuis 20 ans, le modèle économique est le même : vendre des données et de la publicité. Les comportements négatifs se traduisent par un engagement plus important, ce qui a tendance à profiter à l’essor des comportements virulents. Certes, pour l’instant, Bluesky est plus cordial que X, mais X continue à fournir des informations de premières mains, ce qui explique que malgré son environnement nocif, beaucoup y restent encore. La possibilité de trouver en ligne un espace de rassemblement transformateur demeure une promesse d’internet particulièrement séduisante. Mais ce qui nous tient à cœur dans cet internet-ci, ce n’est pas ce que les entreprises peuvent monétiser. « Aucun service ne nous sauvera, et nous ne devrions pas nous attendre à ce qu’un seul le fasse ».
« La nature même de la technologie est éphémère ». La dégradation est inévitable. Toute plateforme se transformera en ruine.
Et c’est bien dans les ruines des promesses de l’internet où nous devons continuer à tenter de faire notre chemin.
-
7:45
Mobiliser le devoir de vigilance
sur Dans les algorithmesLa loi française sur le devoir de vigilance impose aux sociétés de plus de 5000 employés d’identifier chaque année les risques sociaux et environnementaux dans leur chaîne de valeur et de prendre des mesures effectives pour les éviter. Mais dans les plans de vigilance des entreprises, alors qu’elles clament partout utiliser de l’IA, l’IA est nulle part, souligne l’association Intérêt à agir dans un rapport qui invite les représentants du personnel et les organisations de la société civile à se saisir du devoir de vigilance pour mener des actions en justice contre les entreprises, au prétexte qu’elles ne prennent pas suffisamment en considération les risques que les services d’IA qu’elles acquièrent et déploient font peser sur l’environnement et les droits humains des travailleurs. Un levier peut-être plus immédiatement mobilisable que l’IA Act dont les premières mesures entrent à peine en vigueur ?
-
7:02
O tempora, o mores
sur Dans les algorithmesL’un des grands usages promu de l’IA générative consiste à l’utiliser pour rédiger des comptes-rendus de réunions. Mais rien n’assure que ces outils fassent de bons comptes-rendus, rappelle l’informaticienne Florence Marininchi dans un billet où elle explique pourquoi elle n’utilise pas ChatGPT. « Une expérience détaillée conduit même à conclure que cet outil ne résume pas, il raccourcit, et c’est très différent ». Quand bien même, elle y arriverait, serait-ce désirable pour autant ?
« Dans le cas des comptes-rendus de réunion, voilà un effet tout à fait probable : une accélération du rythme des réunions. En effet, la contrainte d’avoir à rédiger et diffuser un compte-rendu avant d’organiser la réunion suivante ayant disparu, plus aucune limite naturelle ne s’oppose à organiser une autre réunion très rapprochée de la première. (…) Au cas où cette prévision vous semblerait peu crédible, rappelez-vous comment vous gériez votre temps professionnel il y a 20 ans, avant le déploiement des outils d’emploi du temps en ligne censés nous faire gagner du temps (j’avoue humblement y avoir cru). Quand j’ai pris mon poste de professeure en 2000, mon emploi du temps du semestre tenait sur un bristol glissé dans mon agenda papier format A6, il était parfaitement régulier pendant les 12 semaines d’un semestre. L’agenda ne me servait qu’à noter les déplacements de un à plusieurs jours et les réunions exceptionnelles. Aujourd’hui sans emploi du temps partagé en ligne et synchronisé avec mon téléphone, j’aurais du mal à savoir le matin en me levant où je dois aller dans la journée, pour rencontrer qui, et sur quel sujet. La puissance des outils numériques avec synchronisation quasi-instantanée entre participants pousse à remplir les moindres coins “libres” des journées. Quand il fallait plusieurs jours pour stabiliser un créneau de réunion, c’était nécessairement assez loin dans le futur, le remplissage de l’emploi du temps de chacun n’était pas parfait, et il restait des “trous”. Il n’y a plus de trous. Nous n’avons jamais été aussi conscients de la pression du temps. »
-
7:00
Luttes américaines
sur Dans les algorithmesA Sacramento, plus de 200 représentants de syndicats se sont réunis à l’évènement Making Tech Work for Workers, rapporte CalMatters, rassemblant des représentant des dockers, des aides à domicile, des enseignants, des infirmières, des acteurs, des employés de bureau de l’État et de nombreuses autres professions. Les représentants syndicaux ont détaillé les façons dont l’IA menace et transforme ces emplois et ont montré leur détermination à négocier davantage de contrôle sur la manière dont l’IA est déployée dans les entreprises. Les discussions se sont concentrées sur comment protéger les travailleurs des développements technologiques.
Pour Amanda Ballantyne, directrice exécutive de l’AFL-CIO Tech Institute, inclure l’IA dans les négociations collectives est essentiel. Pour Duncan Crabtree-Ireland, directeur exécutif et négociateur en chef de SAG-AFTRA, l’un des grands syndicats des acteurs américain : « nous sommes confrontés aux plus grands intérêts des entreprises et aux plus grands intérêts politiques que vous puissiez imaginer, et travailler ensemble dans l’unité est absolument de là que vient notre pouvoir ». « Nous pouvons utiliser les politiques publiques pour faire avancer les négociations collectives et utiliser les négociations collectives pour faire avancer les politiques publiques ». Pour la présidente de la California Labor Federation, Lorena Gonzalez : l’introduction des technologies d’IA sur les lieux de travail n’est qu’un moyen de renforcer la surveillance des travailleurs, « un vieux patron avec de nouveaux outils », comme nous le disions déjà.
Dans le secteur du jeu vidéo, rapporte Wired, la grande enquête annuelle sur l’état de l’industrie fait part de la grogne des développeurs. A l’heure des fermetures de studio et des licenciements en chaîne, du fait du marasme du secteur, les salariés sont de plus en plus préoccupés par ces transformations liées au déploiement de l’IA. « Près de 30 % des développeurs qui ont répondu à l’enquête ont déclaré avoir une opinion négative de l’IA, contre 18 % l’année dernière ; seuls 13 % pensent que l’IA a un impact positif sur les jeux, contre 21 % en 2024 ». L’enquête montre également que le développement de l’IA, loin de soulager les soutiers du jeu vidéo, a tendance à augmenter les heures de travail, en partie pour compenser les départs. Ceux qui ont déjà été licenciés affirment avoir plus de mal que jamais à retrouver du travail dans le secteur.
MAJ du 04/02/2025 : Le ralliement des patrons des Big Tech à Trump a surtout provoqué la consternation de leurs salariés, mais plutôt que de manifester, la contestation s’organise insidieusement pour lutter contre la tentative d’étouffement des dissidences internes, rapporte le NYTimes. Une dissidence bien silencieuse et des subversions discrètes, voire anecdotiques, qui disent beaucoup de l’exacerbation du climat et qui contraste beaucoup avec les comportements plus virulents qui avaient eu lieu après la première élection de Trump, notamment contre les limitations de l’immigration. Sur les messageries internes des entreprises des messages, même anodins, sont supprimés. La grogne semble s’être retirée dans des groupes sur des applications privées, n’appartenant pas aux entreprises.
-
7:00
Vivre dans l’utopie algorithmique
sur Dans les algorithmesDans un article de recherche de 2021, intitulé « Vivre dans leur utopie : pourquoi les systèmes algorithmiques créent des résultats absurdes », l’anthropologue et data scientist américain, Ali Alkhatib pointait le décalage existant entre la promesse technicienne et sa réalité, qui est que ces systèmes déploient bien plus de mauvaises décisions que de bonnes. La grande difficulté des populations à s’opposer à des modèles informatiques défectueux condamne même les systèmes bien intentionnés, car les modèles défaillants sèment le doute partout autour d’eux. Pour lui, les systèmes algorithmiques tiennent d’une bureaucratisation pour elle-même et promeuvent un Etat administratif automatisé, autorisé à menacer et accabler ses populations pour assurer sa propre optimisation.
La raison de ces constructions algorithmiques pour trier et gérer les populations s’expliquent par le fait que la modernité produit des versions abrégées du monde qui ne sont pas conformes à sa diversité, à l’image des ingénieurs du XVIIIe siècle, raconté par l’anthropologue James C. Scott dans L’Oeil de l’Etat, qui, en voulant optimiser la forêt pour son exploitation, l’ont rendue malade. Nos modèles sont du même ordre, ils produisent des versions du monde qui n’y sont pas conformes et qui peuvent être extrêmement nuisibles. « Les cartes abrégées conceptuelles que les forestiers ont créées et utilisées sont des artefacts qui résument le monde, mais elles transforment également le monde ». Nous sommes cernés par la croyance que la science et la technologie vont nous permettre de gérer et transformer la société pour la perfectionner. Ce qui, comme le dit Scott, a plusieurs conséquences : d’abord, cela produit une réorganisation administrative transformationnelle. Ensuite, cette réorganisation a tendance à s’imposer d’une manière autoritaire, sans égards pour la vie – les gens qui n’entrent pas dans les systèmes ne sont pas considérés. Et, pour imposer son réductionnisme, cette réorganisation nécessite d’affaiblir la société civile et la contestation.
La réorganisation administrative et informatique de nos vies et les dommages que ces réorganisations causent sont déjà visibles. L’organisation algorithmique du monde déclasse déjà ceux qui sont dans les marges du modèle, loin de la moyenne et d’autant plus éloignés que les données ne les ont jamais représenté correctement. C’est ce que l’on constate avec les discriminations que les systèmes renforcent. « Le système impose son modèle au monde, jugeant et punissant les personnes qui ne correspondent pas au modèle que l’algorithme a produit dans l’intérêt d’un objectif apparemment objectif que les concepteurs insistent pour dire qu’il est meilleur que les décisions que les humains prennent de certaines ou de plusieurs manières ; c’est la deuxième qualité. Leur mépris pour la dignité et la vie des gens – ou plutôt, leur incapacité à conceptualiser ces idées en premier lieu – les rend finalement aussi disposés que n’importe quel système à subjuguer et à nuire aux gens ; c’est la troisième qualité. Enfin, nos pratiques dans la façon dont les éthiciens et autres universitaires parlent de l’éthique et de l’IA, sapant et contrôlant le discours jusqu’à ce que le public accepte un engagement rigoureux avec « l’algorithme » qui serait quelque chose que seuls les philosophes et les informaticiens peuvent faire, agit comme une dépossession du public; c’est la quatrième et dernière qualité. »
Comme les forestiers du XVIIIe, les informaticiens imposent leur utopie algorithmique sur le monde, sans voir qu’elle est d’abord un réductionnisme. Le monde réduit à des données, par nature partiales, renforce sa puissance au détriment des personnes les plus à la marge de ces données et calculs. Les modélisations finissent par se détacher de plus en plus de la réalité et sont de plus en plus nuisibles aux personnes exclues. Ali Alkhatib évoque par exemple un système d’admission automatisé mis en place à l’université d’Austin entre 2013 et 2018, « Grade », abandonné car, comme tant d’autres, il avait désavantagé les femmes et les personnes de couleur. Ce système, conçu pour diminuer le travail des commissions d’admission ne tenait aucun compte de l’origine ou du genre des candidats, mais en faisant cela, valorisait de fait les candidats blancs et masculins. Enfin, le système n’offrait ni voix de recours ni même moyens pour que les candidats aient leur mot à dire sur la façon dont le système les évaluait.
L’IA construit des modèles du monde qui nous contraignent à nous y adapter, explique Ali Alkhatib. Mais surtout, elle réduit le pouvoir de certains et d’abord de ceux qu’elle calcule le plus mal. En cherchant à créer un « monde plus rationnel », les algorithmes d’apprentissage automatique créent les « façons d’organiser la stupidité » que dénonçait David Graeber dans Bureaucratie (voir notre lecture) et ces modèles sont ensuite projetés sur nos expériences réelles, niant celles qui ne s’inscrivent pas dans cette réduction. Si les IA causent du tort, c’est parce que les concepteurs de ces systèmes leur permettent de créer leurs propres mondes pour mieux transformer le réel. « Les IA causent du tort, parce qu’elles nous exhortent à vivre dans leur utopie ». Lorsque les concepteurs de systèmes entraînent leurs modèles informatiques en ignorant l’identité transgenre par exemple, ils exigent que ces personnes se débarrassent de leur identité, ce qu’elles ne peuvent pas faire, comme le montrait Sasha Constanza-Chock dans son livre, Design Justice, en évoquant les blocages qu’elle rencontrait dans les aéroports. Même chose quand les systèmes de reconnaissance faciales ont plus de mal avec certaines couleurs de peau qui conduisent à renforcer les difficultés que rencontrent déjà ces populations. Pour Ali Alkhatib, l’homogénéisation que produit la monoculture de l’IA en contraignant, en effaçant et en opprimant ceux qui ne correspondent pas déjà au modèle existant, se renforce partout où l’IA exerce un pouvoir autoritaire, et ces préjudices s’abattent systématiquement et inévitablement sur les groupes qui ont très peu de pouvoir pour résister, corriger ou s’échapper des calculs. D’autant qu’en imposant leur réduction, ces systèmes ont tous tendance à limiter les contestations possibles.
En refermant les possibilités de contestation de ceux qui n’entrent pas dans les cases du calcul, l’utopie algorithmique des puissants devient la dystopie algorithmique des démunis.
-
7:00
Hackathon IA générative, 5-6 février
sur Dans les algorithmesL’année dernière, nous faisions part des difficultés que rencontrait Albert, le chatbot de l’Etat, dans son déploiement. Les informations sur ce grand modèle de langage souverain et open source sont depuis laconiques. Pourtant, le projet phare suit son cours, nous apprend le Journal du Net. Désormais, Albert n’est d’ailleurs plus tant un chatbot qu’un service d’IA générative en train de s’intégrer à nombre d’outils tiers. « Certaines administrations déploient déjà leur propre version d’Albert via son API », permettant de mutualiser les projets au sein de l’administration publique. A défaut de retours sur son impact, les développements continuent. Au programme : produire un graphe de connaissance pour affiner ses réponses, évaluer et améliorer ses réponses via un RAG et ouvrir Albert aux contributions externes…
Signalons que l’Etat organise d’ailleurs un hackathon dédié les 5 et 6 février pour développer des algorithmes à forte valeur ajoutée ou des cas d’usages à forts impacts.
-
7:00
Le paradoxe des prévisions
sur Dans les algorithmes« Voici le problème avec les prévisions : certaines sont exactes, d’autres sont fausses, et lorsque nous découvrons lesquelles, il est trop tard. Cela conduit à ce que nous pourrions appeler le paradoxe des prévisions : le test ultime d’une prévision utile n’est pas de savoir si elle s’avère exacte, mais si elle permet d’inciter à agir à l’avance », explique l’essayiste Tim Harford.
L’exactitude d’une prévision peut aider, mais elle n’est pas déterminante, rappelle Harford, qui se souvient d’une conférence fin 2019 où un orateur avait mis en garde contre le risque d’une pandémie, sans que cela ne déclenche, dans l’auditoire, de réaction appropriée pour s’y préparer. « La prévision était brillante… mais inutile ». L’agence fédérale de gestion des urgences a prévenu depuis longtemps des risques de catastrophes pouvant frapper la Nouvelle-Orléans. En 2004, l’ouragan Ivan, s’est détourné au dernier moment de la ville, sans que les autorités prennent des mesures adaptées. Quand Katrina a dévasté la ville en 2005, les prévisions n’avaient pas été utilisées pour s’y préparer. L’hôpital de Boston n’avait pas prévu l’explosion de bombes lors du marathon de Boston, mais l’hôpital avait organisé 78 exercices d’urgence majeurs, des marées noires aux accidents de train, qui leur a permis d’être réactif quand le pire est advenu.
Dans son livre, Seeing What Others Don’t (2015), le psychologue Gary Klein use du concept de pre-mortem, qui invite à réfléchir aux raisons de l’échec d’un projet avant même de le conduire, plutôt que de seulement faire une analyse une fois que l’échec est patent (post-mortem donc). Dans les années 80, Deborah Mitchell, Jay Russo et Nancy Pennington ont montré que cette perspective aidait les gens à générer davantage d’idées. Derrière cet exercice contre-intuitif, l’idée consiste non pas à rendre l’avenir connaissable, mais à nous rendre plus sages et prévoyants.
Barbara Mellers, Philip Tetlock et Hal Arkes ont eux organisé un tournoi de prévision sur plusieurs mois. Ils ont constaté que la réflexion des participants dans la durée adoucissait les préjugés. De même, « les scénarios de prospective ne sont pas des prévisions car ils ne visent pas à être précis, mais à être utiles. Le paradoxe des prévisions nous dit que ces deux qualités sont très différentes ». L’essentiel n’est donc pas de faire des scénarios prédictifs, mais de regarder ensuite ce que l’exercice transforme. Un bilan qui, semble-t-il, lui, est bien souvent manquant.
-
7:00
L’IA générative sera-t-elle l’Excel de la société de la connaissance ?
sur Dans les algorithmesDans sa très riche newsletter, le politologue Henry Farrell – dont le dernier livre, co-écrit avec Abraham Newman, L’Empire souterrain, qui traite d’un tout autre thème, vient de paraître en français – explique que, depuis longtemps, le débat sur la forme de l’automatisation se concentre sur les conséquences pour les hommes, par exemple de savoir si elle va automatiser le travail. Mais dans le management, on se demande plutôt comment l’automatisation va remodeler le fonctionnement des organisations. Et ici, le débat est beaucoup moins vif, car il consiste à passer d’un ensemble de technologies qui soudent les organisations entre elles à d’autres, dans une forme de continuité plutôt que de révolution.
Pour les technocritiques radicaux, l’IA générative est inutile disent-ils, tout en craignant que ces technologies deviennent omniprésentes, remodelant fondamentalement l’économie qui les entoure. « Pourtant, il est peu probable que les grands modèles de langages deviennent vraiment omniprésents s’ils sont vraiment inutiles », estime Farrell. Comme d’autres grandes technologies culturelles, « elles se révéleront avoir (a) de nombreuses utilisations socialement bénéfiques, (b) des coûts et des problèmes associés à ces utilisations, et (c) certaines utilisations qui ne sont pas du tout socialement bénéfiques. »
L’IA de l’ennuiBeaucoup de ces utilisations seront des utilisations dans le management. Les LLM sont des moteurs pour résumer et rendre utiles de vastes quantités d’informations. Et il est probable que ces déploiements soient surtout ennuyeux et techniques, explique pertinemment Farrell. Si les LLM s’avèrent transformateurs, il est possible que ce soit sous la forme assommante du classeur, du mémo ou du tableur, en fournissant de nouveaux outils pour accéder et manipuler des connaissances complexes et résoudre des enjeux de coordination qui sont au cœur de l’activité des grandes organisations.
Pour Farrell, les LLM sont des outils pour traiter des informations culturelles complexes. Ils créent une forme « d’arithmétique culturelle » qui permet de générer, résumer et remixer notre matériel culturel, comme les opérations mathématiques de base permettent d’effectuer des calculs sur des informations quantitatives. Les grandes organisations s’appuient beaucoup sur le matériel écrit et consacrent beaucoup de temps et de ressources à l’organisation et à la manipulation de ces informations. Mais, au-delà d’une certaine taille organisationnelle, nul ne peut savoir ce que toute l’organisation sait. Il y a trop de connaissances et celles-ci sont souvent très mal organisées. « Les grandes organisations consacrent donc beaucoup de ressources humaines et organisationnelles à la collecte d’informations, à leur mélange avec d’autres types d’informations, à leur partage avec les personnes qui en ont besoin, à leur synthèse pour ceux qui n’ont pas le temps de tout lire, à la réconciliation de différents résumés et à leur synthèse à leur tour, à la découverte ex post que des informations cruciales ont été omises et à leur réintégration ou à la recherche d’un substitut tolérable, ou, pire, à ne pas les comprendre et à devoir improviser à la hâte sur place ». En ce sens, les LLM ne sont qu’une nouvelle boîte à outil pour organiser et manipuler les informations. Une boîte à outil imparfaite, mais une boîte à outil tout de même. Les LLM offrent une nouvelle technologie pour gérer la complexité, ce qui est la tâche fondamentale du management.
Pour Farrell, les LLM ont surtout 4 grandes catégories d’utilisation : les micro-tâches, les cartes de connaissances, les moulins à prière et la traduction. L’utilisation pour leur faire accomplir des micro-tâches est certainement la plus courante. Ecrire un court texte, formater une liste ou un fichier. Ils permettent également de créer des cartes de connaissances, certes, très imparfaites. Comme de résumer de grands corpus de textes ou d’extraire des sources, c’est-à-dire de lier vers les ressources que l’IA mobilise. Les LLM sont également des « moulins à prière pour rituels organisationnels« , comme il l’expliquait dans une tribune pour The Economist avec la sociologue Marion Fourcade (dont on avait parlé), c’est-à-dire une machine pour « accomplir nos rituels sociaux à notre place », comme de faire nos lettres de motivation ou rédiger des mails de routine. Enfin, ils ont également un rôle de traduction, pas seulement de traduction d’une langue à une autre bien sûr, mais un rôle de coordination qu’assument beaucoup de personnes dans les grandes organisations et que l’anthropologue David Graeber a assimilé, un peu rapidement selon Farrell, à des bullshits jobs. Par exemple quand ils permettent de transformer un fichier complexe de contraintes en calendrier fonctionnel pour chacun. Les outils d’IA permettent de passer du fichier Excel à son traitement, une activité réservée aujourd’hui aux utilisateurs aguerris d’Excel. Une forme de passage du tableur à son exploitation.
Pour faire avancer les choses, il faut à la fois des protocoles communs et des moyens de traduire ces protocoles dans des termes particuliers que les sous-composantes plus petites de l’organisation peuvent comprendre et mettre en œuvre. Farrell parie que ces innombrables adaptations seront une des grandes utilisations des LLM dans les organisations. Certes, on pourrait dire que les bullshits jobs seront désormais accomplis par la bullshit machine, mais ces travaux de traduction, d’adaptation et d’exploitation sont souvent essentiels pour faire tourner les machines de l’organisation.
Vers une société de la synthèse ?Farrell en tire trois conclusions. Nous devrions accorder plus d’attention à l’automatisation du management qu’à l’automatisation du travail. Ses évolutions seront aussi ennuyeuses que ses évolutions passées. Mais elles seront déterminantes car l’organisation est l’outil le plus important pour traiter la complexité du monde.
Si les marchés où la politique nous semblent plus importants et plus passionnants, c’est par les évolutions des organisations de routines que nous gérons le monde et c’est cela que l’IA générative va modifier. L’impact des LLM sera plus profond dans les applications les plus courantes de la culture. Les résultats des LLM remplaceront probablement une grande partie de la pseudo littérature que les organisations produisent et contribueront à une meilleure coordination des activités. Plus qu’une société de l’information ou de la connaissance, l’IA générative nous projette dans une société de la synthèse, conclut Farrell. C’est-à-dire non pas une société de l’analyse, mais une société de la cohérence – avec peut-être quelques hallucinations et incohérences au milieu, mais on comprend l’idée…
-
7:24
De l’influence des milliardaires
sur Dans les algorithmes« Plus votre statut est élevé, plus vous pouvez facilement persuader les autres ». Et le statut est de plus en plus lié à votre richesse. « Lorsque le statut est lié à la richesse et que les inégalités de richesse deviennent très importantes, les fondations sur lesquelles repose l’expertise commencent à s’effriter ». « Quels points de vue sur la liberté d’expression ont le plus de poids aujourd’hui, un milliardaire de la technologie ou un philosophe qui s’est longtemps attaqué à la question et dont les preuves et les arguments ont été soumis à l’examen d’autres experts qualifiés ? » Daron Acemoglu
-
7:00
Pour une souveraineté numérique non-alignée
sur Dans les algorithmesDans une tribune pour le journal Le Monde, les économistes Cédric Durand et Cécila Rikap défendent « une souveraineté numérique qui ne repose pas sur un illusoire nationalisme technologique mais sur un empilement numérique public non aligné, résultant de l’effort conjoint de nations décidées à interrompre le processus de colonisation numérique dont elles sont victimes ». Dans un rapport en forme de manifeste, ils défendent, eux aussi, des protocoles plus que des plateformes, pour construire un empilement (stack, référence au livre de Benjamin Bratton) de protocoles numériques publics et libres dans chaque couche technologique.
Comme le synthétise Irénée Régnauld : « Un stack public invite à repenser le rôle de la puissance publique, dans un monde où elle a été réduite à faire émerger des licornes. Les auteurs ne font pas mystère de ce qui peut structurer des alternatives : construire un cloud réellement public (et data centers associés), reliés par des infrastructures également publiques. Une agence des Nations unies pourrait avoir pour rôle de réunir les compétences nécessaires à l’atteinte de cet objectif. Les services sont aussi concernés : moteurs de recherche, plateformes de e-commerce devraient également voir surgir leurs versions publiques, à l’échelle appropriée (internationale, nationale ou locale, comme par exemple, une plateforme ajustée à la taille d’une région). Subventionnées, ces applications auraient pour but de sortir de l’emprise des Big tech aussi vite qu’il est légalement possible de le faire. »
-
7:00
Les protocoles de nos libertés
sur Dans les algorithmesNous devons imposer des limites à la liberté des puissants plutôt qu’ils ne limitent la nôtre, plaide Jean Cattan, secrétaire général du Cnnum, dans une stimulante tribune pour la lettre du Conseil national du numérique. Pour cela, nous devons défendre la portabilité et l’interopérabilité, explique-t-il, qui sont les seuls moyens de rendre de la liberté aux utilisateurs que les plateformes limitent et capturent.
« De nombreuses personnes ont vilipendé le collectif HelloQuitteX. Mais si ce collectif existe c’est d’abord parce que les textes que nous avons sur la table ne permettent pas de contraindre les entreprises de prendre en charge la portabilité des utilisateurs de réseaux sociaux. Ce collectif, avec son peu de moyen et beaucoup d’énergie, exprime la nécessité de penser la portabilité et montre qu’elle n’est pas hors de portée. Non c’est d’abord une affaire de volonté politique.
Cette portabilité, nous avons su la penser et la construire dans d’autres secteurs. C’est ce qui permet à tout un chacun d’assurer le transfert de son numéro de téléphone d’un opérateur téléphonique à un autre, sans rien avoir à faire d’autre que de souscrire chez son nouvel opérateur et d’indiquer votre RIO. Aujourd’hui, cela se fait dans tous les sens, sans plus de tracas. Pourquoi ? Parce qu’il y a des autorités qui ont forcé la main aux opérateurs alors dominants pour qu’ils laissent partir leurs clients. Le régulateur a organisé ce processus transactionnel, il en a défini les conditions technico-économiques. Sans cette action publique, il n’est pas de liberté de l’utilisateur d’aller d’un opérateur à l’autre. Il n’y a qu’un enfermement des utilisateurs par les opérateurs dominants. »
(…) « Tant que les institutions n’auront pas agi, on ne pourra reprocher à des collectifs de se livrer à ce travail par eux-mêmes pour pallier les défaillances d’une puissance publique qui n’a pas fait son travail ».
(…) « Et c’est le travail de la régulation : construire un espace économique ouvert au service de l’intérêt général beaucoup plus que d’en assurer la surveillance. C’est pourquoi assimiler le DMA et le DSA à de la régulation est un non-sens. Ce sont des règlements qui mettent l’autorité publique en second, voire troisième rideau dans une posture très délicate de surveillance des acteurs économiques. Malheureusement, c’est la notion de régulation qui a ainsi été dévoyée en étant associée à des textes de simple mise en conformité. »
« Des protocoles, pas des plateformes » (Mike Masnick, 2019). Mais au fond, notre principale erreur – et elle est collective – c’est d’avoir fait de la plateforme le modèle dominant d’organisation de notre espace informationnel. La plateforme vient avec de nombreux avantages, c’est certain et ils sont innombrables : commodité, accessibilité, sécurité, effets de réseaux positifs, etc. Mais en ce qu’elle emporte par nécessité une forme de centralisation de la prise de décision, elle devient un problème d’un point de vue économique, entrepreneurial et sociétal. Plus personne n’est libre et tout le monde tombe sous le coup d’un modèle économique donné. Soit qui nous vampirise, soit qui crée des systèmes d’accès à géométrie variable. Si bien que lorsque le théâtre de notre conversation collective tombe sous le contrôle d’un tenancier qui n’a pour ambition que de nous exposer à ses excès, nous nous retrouvons sans moyen d’action. »
(…) « C’est là que le protocole libre et ouvert devient la solution. C’est là qu’ActivityPub intervient. C’est là qu’AT Protocol intervient. C’est là que l’initiative FreeOurFeeds.com est importante. Dans la poursuite des protocoles constituants d’internet, du mail, du RSS, du pair-à-pair, du Web, du Wi-Fi… Nous devons penser le protocole libre pour ce qu’il nous apporte, pour sortir du monde des plateformes fermées. Comme le rappelle Henri Verdier, « l’architecture est politique ». Et quand, pour schématiser, nous sommes passés d’un monde de protocole à un monde de plateformes, nous avons perdu une bataille politique dont nous payons massivement le prix tous les jours depuis plus de 15 ans. Nous payons le prix de la centralisation du pouvoir de décision. N’en déplaise aux hérauts du libéralisme, qui ne sont en réalité que les hérauts d’une forme de domination sur les autres : ils auront besoin d’institutions, émancipatrices cette-fois, et d’efforts collectifs pour assurer la liberté de tous. C’est l’essence du projet européen. »
(…) « En agissant sur les infrastructures et en promouvant des protocoles ouverts, il s’agit de rendre possible, de proposer des fonctionnalités et des services qui se complètent et s’enrichissent les uns les autres. Ce qu’aujourd’hui des personnes comme Musk, Zuckerberg ou d’autres ne font pas. Ces personnes sont des entraves à la possibilité de simplement proposer pour ne penser que leur innovation. Alors même que ce qu’elles emportent comme modèles sont des modèles destructeurs. Des modèles destructeurs de notre environnement, de notre économie et de notre société. Les grandes plateformes ne sont en aucun cas des solutions. Et le comportement de leurs dirigeants, qui cherchent à s’absoudre de l’application du droit en se réfugiant dans les jupons du politique, est absolument pitoyable. »
-
7:00
L’ère post-TikTok va continuer de bouleverser la société
sur Dans les algorithmesEn suspendant l’interdiction de TikTok, Trump assure à la plateforme vidéo un court répit, le temps de peaufiner une vente dans une logique de marchandage au service des intérêts de la broligarchie américaine, qui se croit toute puissante. Et il est bien probable que cette logique transactionnelle, soit plus que jamais la logique des années à venir. Dès l’annonce du bannissement de TikTok, nous avions pourtant été prévenus. Que la plateforme soit dépecée ou annihilée, les techbros sont prêts à profiter de l’exode annoncé. Ils avaient d’ailleurs prévus des outils d’éditorialisation vidéo pour accueillir les réfugiés de TikTok, sachant bien, comme le montrait le précédent indien, qui a banni TikTok avant eux, que les grands services américains resteraient les premiers bénéficiaires. Désormais, ils sont assurés de gagner quel que soit la décision finale.
Reste, que TikTok ferme ou soit revendu, le basculement qu’il symbolise vers un internet de vidéos courtes, lui, est là pour rester. Internet est TikTok désormais, rappelle Hana Kiros, même si TikTok disparaît. C’est-à-dire que toutes les grandes plateformes intègrent désormais des vidéos courtes, partout. Tout le monde s’ingéniant à copier le haut niveau d’engagement que le format vidéo qu’à imposé TikTok a produit.
Mais cette transformation n’est pas sans conséquence.
La vidéo plutôt que l’écrit, le charisme plutôt que les faits“La part des adultes lisant des articles d’actualité en ligne aux États-Unis est passée de 70 à 50 % depuis 2013. La part des Britanniques et des Américains qui ne consomment plus aucun média d’information conventionnel est passée de 8% à environ 30 %. Si le déclin de la presse écrite a surtout été un problème pour les résultats financiers des journaux, le déclin de la consommation de l’information en général est un problème pour la société”, rappelle John Burn-Murdoch pour le Financial Times. Aujourd’hui, les adultes américains de moins de 50 ans sont plus susceptibles de s’informer directement à partir des flux sociaux vidéo que d’un article d’actualité, selon le dernier Digital News Report du Reuters Institute for the Study of Journalism. Des tendances qui sont assez similaires au-delà des seuls Etats-Unis d’ailleurs. Dans un entretien avec le sociologue Dominique Cardon dans le second numéro de la revue de SciencesPo, Comprendre son temps, l’économiste Julia Cagé, rappelait que les bulles de filtres de médias sociaux, ne consistait pas seulement à enfermer les publics à droite ou à gauche, « mais à séparer les publics qui s’intéressent à l’information de ceux qui ne s’y intéressent pas« et à renforcer ainsi le désintérêt de la vie publique des deniers.
Nous sommes passés d’articles à leurs commentaires en 280 caractères, au détriment du compromis, de la subtilité et de la complexité. Désormais, nous sommes en train de passer aux vidéos courtes, qui prennent le pas sur ce qu’il restait de textes sur les réseaux sociaux, rappelle Burn-Murdoch. Ce pivot ne relègue pas seulement le texte, mais change également la chronologie et le rapport à l’information. Être le premier sur l’actu est devenu bien moins important qu’être engageant. Le charisme risque de prendre le pas sur les faits, s’alarme le Financial Times.
Si les médias sociaux ont cannibalisé les sites d’information, les comptes d’information les plus importants sur ceux-ci étaient encore ceux de journalistes ou d’organes de presse grand public, rappelle-t-il. Dans le monde de la vidéo, ce n’est plus le cas, même pour l’information. Or, le monde de l’influence n’est pas neutre, au contraire. D’autant que les influenceurs ont tendance à être plus de droite et sont globalement anti-établissement. Le développement de l’écoute privée, depuis un podcast plutôt que sur la radio par exemple, a tendance à produire des propos plus fragmentés, plus controversés. Le paysage médiatique de 2025 est très différent de celui de 2004. Il y a fort à parier qu’il ait des impacts sur la politique, estime John Burn-Murdoch, qui voit dans le passage de l’écrit à la vidéo un risque de renforcer le populisme.
S’inspirer des recettes des influenceurs pour rétablir la confiance dans l’information ?Charlie Warzel pour The Atlantic dresse un peu le même constat désabusé. Mais plutôt que de désespérer, il convoque en entrevue la journaliste Julia Angwin qui vient de publier un rapport après avoir passé un an à étudier la crise de confiance du journalisme en observant comment les influenceurs produisent de l’information.
Pour la journaliste, la confiance dans les influenceurs repose sur le fait qu’ils doivent convaincre leur public de leurs capacités, de leur bonne foi et de leur intégrité (même si ces qualités ne sont pas toujours là) quand les médias tiennent cette confiance pour acquise. Ce positionnement différent à un impact sur la façon même de produire du contenu. Les influenceurs vont vous dire qu’ils ont testé 7 fards à paupière pour trouver le meilleur, quand les journalistes disent tout de suite qu’ils ont trouvé le meilleur fard à paupière. “Les créateurs de contenu commencent par la question : lequel est le meilleur ? Et puis ils font leur démonstration aux gens, en énumérant les preuves. Ils ne tirent pas toujours de conclusion, et parfois c’est plus engageant pour un public. Cela renforce la crédibilité.” C’est une sorte de journalisme inversé, semblable à une plaidoirie d’avocat ou à une démonstration scientifique. Sur YouTube, les titres des vidéos comportent souvent des points d’interrogation, relève Angwin. “Ils posent une question, ils n’y répondent pas. Et c’est exactement le contraire de la plupart des titres des rédactions.”
“Je pense que poser des questions et cadrer le travail de cette façon ouvre en fait un espace pour plus d’engagement avec le public. Cela lui permet de participer à la découverte.” Autre point, les influenceurs sont souvent plus en contact avec leurs publics que les journalistes qui ne sont pas encouragés à le faire. Pour Angwin, “le journalisme a placé de nombreux marqueurs de confiance dans des processus institutionnels qui sont opaques pour le public, tandis que les créateurs tentent d’intégrer ces marqueurs de confiance directement dans leurs interactions avec le public”, par exemple en passant du temps à réagir aux premiers commentaires. Les micro-entreprises des influenceurs semblent plus sympathiques que les conglomérats médiatiques. Les fans apprécient les parrainages de marques, pour autant qu’ils soient transparents.
Pour Angwin, le public doit pouvoir comprendre les éléments de confiance qui lui sont proposés, par exemple de comprendre d’où vous parlez ou quelle hypothèse vous explorez et ces éléments doivent être accessibles dans l’article ou la vidéo postée, pas seulement dans la marque. La confiance ne repose pas tant sur la neutralité que sur la transparence, rappelle-t-elle. Soit, mais cette explication de gagner la confiance par la forme n’est pas pleinement convaincante. D’autant que la norme de qualité des contenus que produisent les influenceurs est bien plus abaissée qu’élevée par rapport à celle du journalisme traditionnel.
La technologie n’améliore pas la production d’information de qualité« Le journalisme lutte pour sa survie dans une démocratie post-alphabétisée« , disait récemment le journaliste Matt Pearce. La vérité disparaît pour des raisons macro-économiques, rappelle-t-il. « Le travail de récolte et de vérification des faits présente un désavantage économique majeur par rapport à la production de conneries, et cela ne fait qu’empirer ». « Les nouvelles technologies continuent de faire baisser le coût de la production de conneries alors que le coût d’obtention d’informations de qualité ne fait qu’augmenter. Il devient de plus en plus coûteux de produire de bonnes informations, et ces dernières doivent rivaliser avec de plus en plus de déchets une fois qu’elles sont sur le marché ». La technologie n’améliore pas la production de l’information de qualité. C’est ce qu’on appelle la loi de Baumol ou maladie des coûts. Dans certains secteurs, malgré une absence de croissance de la productivité, les salaires et les coûts augmentent. Cela s’explique par la hausse de la productivité dans les autres secteurs, qui tirent l’ensemble des coûts vers le haut.
Les consommateurs eux-mêmes sont devenus assez tolérants aux conneries. « Ils exigent des médias d’information traditionnels des normes de comportement éthique et précis bien plus élevées que pratiquement toutes les autres sources d’information qu’ils rencontrent, même lorsqu’ils ont commencé à s’appuyer sur ces autres sources d’information plutôt que sur les médias d’information. C’est une bonne chose que les consommateurs exigent du journalisme des normes élevées. Le problème ici est que la barre est abaissée, et non relevée, pour tout le reste. »
Enfin, et surtout, le journalisme écrit notamment périclite et les plateformes elles-mêmes rendent l’écrit de plus en plus difficile à monétiser. Elles y sont même devenu hostiles, que ce soit en valorisant d’autres types de contenus et d’autres types de publication comme les vidéos courtes bien sûr, en dégradant les hyperliens, en multipliant les contenus de remplissages synthétiques ou en s’appuyant sur les contenus générés par les utilisateurs. « Le temps que vous passez à lire un article de magazine est du temps que vous ne passez pas sur les produits Meta à regarder des publicités numériques et à enrichir Mark Zuckerberg ». L’information devient plus chère : pour quelques dollars par mois vous vous abonnez à une lettre sur Substack pour le prix d’un accès à un média avec plusieurs centaines de journalistes. Enfin, bien sûr, les préférences des consommateurs à lire se dégradent. « La destruction de la patience est l’un des changements culturels les plus spectaculaires que nous connaîtrons probablement de notre vie, et il imprègne tout ». Un professeur d’étude cinématographique se désolait même que ses étudiants ne regardent plus vraiment les films. Et ce n’est d’ailleurs pas qu’un phénomène générationnel, précise Pearce : nous passons tous plus de temps sur les plateformes en concurrence avec d’autres formes médiatiques. Le journaliste Vincent Bevins qui évoquait ses efforts pour retrouver le goût de lire, le résumait parfaitement : « les gens qui arrivent dans un café et posent ensuite un téléphone et un livre ensemble sur la table essaient de battre Satan dans un jeu qu’il a conçu. Il est peut-être possible de gagner, mais je n’ai jamais vu cela se produire ».
Coincés dans le populisme des plateformesLe résultat de tout cela, conclut Pearce, « c’est une aliénation croissante des consommateurs (…) un retour à une sorte de société de contes populaires mûre pour la manipulation par des démagogues qui promettent la simplicité dans un monde de plus en plus complexe« .
La raison de l’aliénation populiste, elle, semble, claire, explique l’historien Brian Merchant. Quand Elon Musk fait un salut nazi en direct à la télévision, c’est une démonstration de puissance et un signal. Alors que le geste est parfaitement lisible par tous, les médias sont nombreux à être dans l’embarras pour le traiter et ont tous tendance à l’édulcorer pesamment. Et c’est cet embarras même qui est la première victoire de Musk et Trump. Les médias traditionnels sont morts, répète sans cesse Elon Musk sur X, « ce véhicule de propagande qui élimine la presse ». Et effectivement, la presse est exsangue. Les grandes entreprises technologiques se sont appropriées ses revenus publicitaires, dictent les conditions de distribution… Le journalisme lutte pour sa survie, comme l’expliquait Pearce, mais sans armes. Celles-ci sont dans les mains des oligarques de la Tech qui étaient tous au premier rang, lors de l’investiture de Trump. Ils ont gagné. Zuckerberg peut mettre au placard sa politique de modération et Google peut générer autant de déchets synthétique qu’il veut. « Il est difficile d’imaginer une agence Trump sévir si une IA ordonne à quelqu’un de manger un champignon vénéneux ». « L’oligarchie technologique est là, et si satisfaite de son étranglement des médias qu’elle peut, sans honte, pavaner dans sa loyauté affichée à Trump ». « Musk possède la plateforme qui dicte sa propre réalité. Il a à peine eu à se défendre, il l’a à peine nié. Il le fera probablement à nouveau. Qui va l’arrêter ? »
Mais est-ce tant Musk aujourd’hui qu’il faut arrêter que les plateformes et leurs modalités d’amplification devenues problématiques qui donnent aux pires idées une audience qu’elles ne devraient pas avoir ?, comme nous le disions plus tôt. Le journaliste David Dufresne a fait un petit test en tentant de créer un nouveau compte sur X : on a l’impression de s’enregistrer sur une plateforme de propagande.
Au prétexte de maximaliser leurs modèles économiques, les plateformes sont en train de basculer vers le pire. Il est effectivement temps de les fuir et ce d’autant plus que c’est bien leur modèle d’engagement et d’amplification qui les conduit à ces extrémités. Et les micro-vidéo promettent surtout une accélération du populisme des plateformes que leur atténuation.
-
7:04
L’âge des Fake Tech
sur Dans les algorithmesCela fait au moins dix ans que les bonds technologiques sont censés être imminents, rappelle le journaliste Christophe Le Boucher dans sa nouvelle newsletter, Fake Tech : mais rien n’est advenu. « La ligne séparant les pyramides de Ponzi propres aux cryptomonnaies d’une entreprise à la pointe de l’innovation comme OpenAI apparait plus floue que voudrait nous le faire croire le récit médiatique dominant. Volontairement provocateur, mon concept de “Fake Tech” permet de faire la jonction entre une entreprise frauduleuse dont le modèle économique repose sur le vernis de l’innovation avec le cas d’une technologie ayant simplement échoué à tenir ses promesses, qu’elles eût été fausses ou sincères. Le terme peut être compris à plusieurs niveaux : celui de “fausse technologie” visant à tromper le consommateur et l’investisseur sur ses capacités réelles et celui de “failed tech” ou produit n’ayant pas fonctionné. »
« Le concept de Fake Tech ne s’applique pas uniquement à des innovations et technologies spécifiques, mais à un système tout entier. (…) L’avènement de l’informatique, suivie par celui d’Internet et de l’Intelligence artificielle, n’a pas généré de gain de productivité significatif. C’est la première fois qu’une révolution industrielle s’avère sans effet notable sur l’indicateur principal de progrès économique, à savoir la richesse produite par heure de travail humain fourni. »
-
7:01
Choix binaires
sur Dans les algorithmesChoix mortifères. La planète ou l’IA. Le capitalisme ou la démocratie…
-
7:00
IA nazie
sur Dans les algorithmes« Peu lui importe le contexte, c’est-à-dire le monde auquel ce geste appartient et se réfère, seul compte l’automatisation de la ressemblance. Finalement, avec un tel traitement de l’information, le logiciel serait capable de générer une image attribuant un salut nazi à n’importe qui, neutraliserait par là même la portée significative d’un tel geste en le diluant dans l’infinité des images générées ». Gregory Chatonsky.
-
7:00
La désinformation est terminée !
sur Dans les algorithmesLa panique morale de la désinformation sur les réseaux sociaux serait-elle terminée ? C’est ce que suggère Politico. En 2016, quand Trump a emporté l’élection présidentielle américaine ou quand le Brexit l’a emporté au Royaume-Uni, tout le monde a accusé la désinformation et les réseaux sociaux. “S’en est suivi près d’une décennie d’inquiétude face à la désinformation, les législateurs se demandant quelles idées les plateformes de réseaux sociaux devraient autoriser à se propager et se désolant de voir que tout ce débat rongeait irrémédiablement les fondements de la société”. Pour Kelly McBride, chercheuse en éthique des médias au Poynter Institute, cette fois-ci, “personne n’a été trompé en votant pour Trump” – même si c’est peut-être un peu plus compliqué que cela, la différence de 250 000 voix entre Trump et Harris, pouvant aussi s’expliquer par la grande différence d’amplification des discours conservateurs, comme ceux de Musk et Trump par rapport à Harris. La panique de la désinformation a culminé avec le Covid et l’insurrection du 6 janvier 2021 au Capitole. Depuis 10 ans, la désinformation est devenue une obsession des médias et des élites politiques… Mais ce domaine d’études qui s’est démultiplié ces dernières années, est entré également en crise estime un article de la revue de Harvard consacrée au sujet : désinformés sur la désinformation.
De la difficulté à mesurer la désinformationAprès 10 années de travaux, on a l’impression que l’étude de la désinformation n’arrive toujours pas à répondre à la question fondamentale des impacts réels de la désinformation, comme de ses effets sur les élections ou ses liens avec l’extrémisme et la radicalisation, cinglent les chercheuses, Irene Pasquetto, Gabrielle Lim et Samantha Bradshaw. Une question aussi fondamentale que la définition de la désinformation fait toujours débat et le rôle que joue celle-ci sur la société génère des conversations extrêmement polarisantes. Même la question de savoir si Facebook, X, ou l’ingérence russe ont influencé de manière significative les résultats des élections de 2016 n’est toujours pas tranchée. Pour Kathleen Hall Jamieson, auteure de Cyberwar : How Russian Hackers and Trolls Helped Elect a President: What We Don’t, Can’t, and Do Know (2018), le différentiel de voix dans les Etats clefs entre Clinton et Trump n’était que de 80 000 voix, une différence très faible qui plaide pour que certains messages aient conduits les électeurs démocrates à rester chez eux plutôt que d’aller voter. Pour Thomas Rid, auteur de Active Measures : the secret story of disinformation and political warfare (Mac Millan, 2020), il est peu probable que l’ingérence russe ait eut un effet sur le vote américain. L’étude la plus récente, montre plutôt que l’exposition aux comptes de désinformation russes était fortement concentrée : seulement 1 % des utilisateurs représentaient 70 % des expositions. Que cette concentration a surtout agit sur des comptes républicains que démocrates et que l’exposition aux campagnes d’ingérences russe ne montre pas de changement d’attitude du comportement électoral. Nous serions finalement plus têtus que crédules, comme le disait Hugo Mercier.
Depuis le début la désinformation repose sur le fait que des acteurs malveillants diffuseraient des informations fausses que les gens absorberaient sans le savoir ce qui ferait évoluer leurs croyances et comportements. Depuis le début, l’antidote s’est concentré à corriger les informations, en exerçant une pression sur les médias sociaux pour qu’ils suppriment, signalent ou dépriorisent ces contenus problématiques – sans là non plus apporter beaucoup de preuves que la vérification des faits fonctionne, comme le pointait Nature, en faisant le bilan du fact-checking à l’heure où les plateformes envisagent de l’abandonner (voire également la synthèse qu’en livre le Conseil national du numérique). Le problème était nouveau parce que l’influence des réseaux sociaux était nouveau, explique clairement Politico. Le cœur de la désinformation provenant d’acteurs hostiles, souvent étrangers, polluant le discours public. Les études ont pourtant fini par montrer que la désinformation la plus flagrante n’est généralement consommée que par un petit groupe de personnes très investies et encline au conspirationnisme. La désinformation la plus puissante n’est pas tant diffusée par des trolls anonymes sur Internet, mais provient plus souvent d’acteurs nationaux établis. Enfin, la grande majorité de cette désinformation tient plutôt de bribes de vérité décontextualisées de manière trompeuse et provient bien plus de débats télévisés ou de rassemblements publics que des médias sociaux.
L’absence de modération oriente les discours vers la droiteEn fait, explique Politico, les recherches ont donné peu à peu raison aux plus sceptiques sur l’impact de la désinformation. Aux Etats-Unis enfin, les études sur le sujet ont aussi été la cible de poursuites judiciaires nourries, notamment du camp Républicain. Et les grandes plateformes ont peu à peu changé de politique. Alors qu’en 2021 Meta a suspendu le compte de Trump, en 2023, l’entreprise a cessé de supprimer les publications qui reprenaient les déclarations de Trump, avant de rétablir discrètement son profil. En août, Zuckerberg a envoyé une lettre aux Républicains du Congrès exprimant ses regrets que Meta ait cédé à la pression de l’administration Biden pour censurer les contenus liés au Covid-19. “Le dédain d’Elon Musk pour la modération du contenu sur X a également accéléré le changement des normes du secteur et a contribué à ce que d’autres plateformes réduisent la surveillance du contenu.” Tant et si bien que désormais, les rumeurs sans fondements, comme le fait que les immigrants mangeraient des chats, peuvent s’exprimer sans contraintes. “Le discours public du pays s’est déplacé vers la droite, de sorte qu’il n’est plus nécessaire de regarder les espaces marginaux pour entendre des sentiments anti-immigrés, anti-féministes, anti-trans, anti-LGBTQ”, constate Alice Marwick, la directrice de Data & Society. Et le fait de savoir si ce déplacement est dû au réseaux sociaux reste une question ouverte…
A se demander si, plus que d’avoir été résolues, la désinformation et la polarisation ne sont pas devenues plus communes. Déterminer l’impact de la désinformation sur les comportements politiques est une tâche trop ardue, qui ne peut peut-être pas être quantifiée, explique la chercheuse. Pour Marwick, la criminalité des immigrés ou les diffamation sur les femmes qui couchent pour arriver sont des récits qui persistent depuis des millénaires. “Beaucoup de ces choses persistent, non pas parce que l’information elle-même est vraie ou fausse, mais parce qu’elles correspondent à la compréhension commune des gens sur le fonctionnement du monde”. En 2016, l’analyse se concentrait sur les bots russes et la technologie, explique le professeur de journalisme Reece Peck. La persuasion tient bien plus du charisme, estime-t-il après avoir étudié l’impact des médias alternatifs. Le célèbre podcasteur américain Joe Rogan ne peut pas être battu par la qualité de l’information qu’on pourrait lui opposer. L’idée selon laquelle la qualité de l’information et des faits permet de mettre à mal la désinformation ne fonctionne pas.
Sur Tech Policy Press, la jeune chercheuse Sydney Demets, tente de comprendre pourquoi les podcasts conservateurs sont devenus si persuasifs. La voix, la proximité, la confidence, l’authenticité… génèrent une forme d’intimité et de confiance avec les animateurs. Leur longueur permet également de répéter et d’infuser les convictions des animateurs au public, de plaisanter, sur un ton intime et personnel qui paraît plus authentique que les échanges impersonnels et plus courts que l’on trouve à la radio. Même les blagues racistes permettent de donner l’impression d’être plus authentique que les propos policés des médias traditionnels. Malgré les politiques des plateformes, comme Apple ou Spotify, même les podcasts connus pour leur rhétorique violente ne sont pas modérés. En fait, les propos problématiques n’ont aucune répercussions. Le succès des podcasts s’explique certainement bien plus par le fait qu’ils sont un espace où la modération ne s’applique pas. On comprend alors que toutes les autres plateformes oeuvrent à la limiter, pour bénéficier d’une amplification sans frein et des revenus qui vont avec.
Ce n’est pas la désinformation qui est terminée, mais bien les modalités de sa contention. Peut-être qu’en cherchant la vérité à tout crin, nous nous sommes trompés de cible ? La réponse à la question tient peut-être bien plus à limiter l’amplification que produisent les plateformes qu’à contrôler la vérité ! Mais là non plus, nous n’avons pas encore trouvé les éléments pour limiter l’amplification, contraints par des modèles économiques qui ne cessent de la sublimer. De l’amplification des propos les plus polémiques à la fortune des milliardaires, on a décidément beaucoup de mal à limiter la démesure.
Ajout du 24/01/2025 :
« Les technologies à travers lesquelles nous voyons le public façonnent ce que nous pensons qu’il est »Dans son excellente newsletter, Henry Farrell propose une explication éclairante sur la désinformation dans les médias sociaux. Pour lui, nous avons tendance à penser la démocratie comme un phénomène qui dépend des connaissances et des capacités individuelles des citoyens quand il s’agit avant d’un problème collectif. Nous voulons des citoyens sages, bien informés et disposés à réfléchir au bien collectif. Mais les citoyens individuellement sont partiaux et peu informés, ce qui donne du crédit à une thèse élitiste et anti-démocratique, qui valorise les élites bien informées sur tous les autres, alors qu’ils sont tout aussi partiaux que les autres. Aider les individus à voir les angles morts de leurs raisonnements individuels ne suffira pas. « Ce dont nous avons besoin, ce sont de meilleurs moyens de penser collectivement », comme le défendaient Hugo Mercier, Melissa Schwartzberg et Henry Farrell dans un article de recherche, qui rappelle qu’une grande partie des travaux sur les biais cognitifs humains suggère que les gens peuvent en fait penser beaucoup mieux collectivement qu’individuellement et qui invite à s’intéresser « aux publics démocratiques ». Le problème, c’est que nous ne savons pas ce que tous les citoyens veulent ou croient. D’où le fait que nous ayons recours à des technologies représentatives plus ou moins efficaces, du vote aux sondages. Mais, ces systèmes ne sont pas que des mesures passives : ils rétroagissent sur les publics, c’est-à-dire que les publics sont aussi façonnés par les technologies qui les représentent. « Les technologies à travers lesquelles nous voyons le public façonnent ce que nous pensons qu’il est » et en retour cela façonne notre comportement et notre orientation politique. X ou Facebook sont profondément des outils pour façonner les publics et nos regards sur ceux-ci.
Pour le comprendre, Farrell donne un exemple éclairant. Dans un article de 2019 de Logic Mag, Gustavo Turner évoquait la pornographie sur internet. Il y expliquait que la présentation et la perception que nous avons de la pornographie est façonnée par les algorithmes, mais que ceux-ci sont plus orientés pour valoriser ce pour quoi les publics sont prêts à payer que ce que les gens veulent voir. Les entreprises de pornographie se concentrent sur leurs clients plus que sur le public, et ce sont les goûts des clients qui façonnent les plateformes. Cela a pour résultat de sur-représenter certaines pratiques sur d’autres, non pas parce qu’elles sont les plus populaires auprès des consommateurs, mais parce qu’elles sont plus susceptibles de convertir le public en clients payants. Ce qui, en retour, à des effets sur le public, par exemple les adolescents, leur apportant une vision très déformée de ce qu’on peut considérer comme des pratiques sexuelles communes. Ce qui produit une vision très déformée de leur réalité. L’exemple permet de comprendre que les perspectives collectives qui émergent des médias sociaux – notre compréhension de ce que le public est et veut – sont façonnées de la même manière par des algorithmes qui sélectionnent certains aspects du public tout en en mettant de côté d’autres. « Le changement le plus important concerne nos croyances sur ce que pensent les autres, que nous mettons constamment à jour en fonction de l’observation sociale que nous faisons ». Musk déforme X pour qu’il serve ses intérêts. « Le résultat est que X/Twitter est un Pornhub où tout est tordu autour des défauts particuliers d’un individu spécifique et visiblement perturbé ». Rien de tout cela n’est un lavage de cerveau du public, explique Farrell. Mais on comprend bien comment les orientations économiques façonnent l’amplification.
De même, on peut se demander si la polarisation croissante de genre que l’on constate en France comme ailleurs, n’est pas – aussi – un effet de l’exploitation du genre par les plateformes sociaux-publicitaires, comme le suggérait très pertinemment Melkom Boghossian pour la Fondation Jean Jaurès. « La demande de masculinité et de féminité est extrêmement facile à stimuler une fois qu’elle a été ciblée chez les individus. Elle devient une source inépuisable de suggestions de contenus, de formation de l’image du monde et, à terme, de redéfinition des comportements ». Avec le risque est celui d’un renforcement des représentations de genres à l’heure où beaucoup souhaiteraient s’en libérer, c’est-à-dire qu’il devienne impossible de se libérer des contraintes de genres à mesure que nos outils les exploitent et les renforcent.
-
7:00
L’IA sera-elle la tronçonneuse des libertariens ?
sur Dans les algorithmesPour TechPolicy Press, Kevin De Liban de TechTonic Justice et Alice Marwick de Data & Society soulignent que l’IA s’apprête à être la tronçonneuse de Musk au département de l’efficacité gouvernementale, puisque c’est grâce à elle que devrait être trouvé les 2000 milliards d’économies promises. C’est l’IA qui doit permettre d’identifier le personnel à licencier pour dégraisser la bureaucratie et c’est elle qui sera chargée d’effectuer leurs tâches une fois le personnel parti (MAJ du 24/01/2025 : Dans le Monde, Pascal Riché souligne très bien que réduire les dépenses américaines n’est pas tant réduire les services publics, quand les 2/3 des dépenses fédérales sont consacrés aux retraites, à la santé et à la Défense).
Bien évidemment, l’IA va surtout réduire la capacité des services publics à accomplir leurs missions, ce qui va éroder la confiance, conduisant à de nouvelles coupes budgétaires… L’IA permet de promettre des solutions rapides à des problèmes complexes. Mais c’est oublier que l’IA a un bilan désastreux dans les utilisations gouvernementales à enjeux élevés, comme le pointait le récent rapport de TechTonic. Opaque, difficile à contester, biaisée et erronée, l’IA dans les services publics n’a pas fait les preuves de ses qualités, au contraire. Même dans le secteur privé, l’impact de l’IA sur la productivité est resté marginal, rappelait récemment The Economist, qui soulignait que l’adoption reste faible, que beaucoup d’entreprises qui s’y sont mises ont mis au rencart leurs projets pilotes. Que la productivité des travailleurs est restée stable et que les marchés du travail n’ont pas connu de bouleversements. « L’IA n’a eu pratiquement aucun impact sur l’économie américaine, le chômage restant très bas et la croissance de la productivité faible ». En fait, l’usage de l’IA en entreprise progresse peu. « Les dépenses d’investissement dans les pays riches restent assez faibles, ce qui suggère que les entreprises n’investissent pas dans les outils qui permettraient à l’IA de leur donner un gros coup de pouce en matière de productivité. La question pour l’année à venir est de savoir combien de temps cette déconnexion entre les marchés financiers et l’économie réelle sur l’utilité de l’IA peut perdurer ».
L’utilisation de l’IA par le secteur privé suggère qu’il est peu probable qu’elle atteigne une efficacité à grande échelle, rappellent De Liban et Marwick. Et l’intégration de l’IA dans le gouvernement ne ferait que rendre le secteur public plus dépendant des riches entreprises technologiques qui la possèdent. « Compte tenu des dommages que l’IA inflige aux communautés les plus vulnérables, utiliser « l’efficacité gouvernementale » comme excuse pour remplacer les décideurs humains par des systèmes mal conçus ne fera qu’aggraver ces dommages, rendant des verdicts opaques et incontestables qui auront un impact profond sur la vie des gens. Pour quiconque croit que les institutions publiques devraient réellement servir le public, il s’agit d’un leurre inacceptable ».
-
6:00
L’ubérisation de la santé
sur Dans les algorithmesLe Roosevelt Institute vient de publier un rapport sur l’ubérisation dans le secteur du soin infirmier. Les applications de travail à la demande proposent désormais aux infirmières et aides-soignantes de postuler aux tarifs les plus bas – plusieurs applications proposent même des enchères inversées pour renforcer la compétition entre les infirmières postulantes. Les prises de postes sont souvent annulées au dernier moment, sans dédommagement et les heures imprévues ne sont pas payées. Toutes les plateformes facturent des frais aux infirmières à chaque prise de poste et ont parfois des frais pour encaissement immédiat des sommes dues. Les infirmières y sont évaluées selon des processus opaques. Les travailleurs du soin rejoignent des établissements à la demande, sans formation ni accompagnement aucun, au risque de défaillances dans la continuité des soins.
Dans The Guardian, Katie Wells du collectif Ground Work Collaborative et co-autrice du rapport, explique que c’est parce que nous ne payons pas bien ces travailleurs qu’ils se tournent vers l’économie du travail à la tâche, pour prendre un semblant de contrôle sur leur propre vie, qu’ils n’ont pas autrement. « Qu’une personne qui ne connaît pas un hôpital, ses patients, ses antécédents médicaux ou ses structures de gestion puisse simplement arriver un jour et reprendre le travail du travailleur précédent qui a terminé son quart de travail aurait été inimaginable il y a seulement quelques années », affirme le rapport. Jacobin dénonce des plateformes créées pour résoudre une pénurie d’infirmières qui n’existe pas vraiment. « La seule pénurie, c’est celle des bons emplois d’infirmières ».
-
7:00
L’ogre logistique
sur Dans les algorithmesSur la place, deux grands hangars blancs ont été montés pour accueillir le marché de Noël. Mais les marchés sont fermés et la place est plongée dans la nuit. Il faut patauger dans la boue pour atteindre la MJC Fernand Léger de Corbeil-Essonne en ce soir décembre, à la veille des vacances.
Les militants sont déjà là. Dans l’amphithéâtre, ils préparent la sono, mettent une banderole. A l’entrée, un libraire est venu avec quelques livres. Les gens se connaissent, comme un réseau d’acteurs qui se retrouve. A côté de l’entrée, on entend des élèves suivre un cours de guitare. La salle se remplit peu à peu.
Le dernier RER pour Paris est à 21h55 nous prévient-on d’entrée. Le militant qui fait l’introduction ressemble un peu à Marcel Mouloudji. Il explique que la soirée est consacrée à présenter les impacts sociaux et écologiques des entrepôts logistiques qui se déploient partout en France et notamment ici, en Essonne. Ces entrepôts, conséquences directes des modes de production et de consommation génèrent de la pollution, de l’artificialisation des sols… et surtout de la précarité et de la pénibilité pour les centaines de milliers de travailleurs qui s’y épuisent. Ici, le développement des entrepôts a des conséquences concrètes, bien au-delà du travail, et permet d’inter-relier des luttes, locales comme globales, sociales comme politiques, en interrogeant la question du transport et du fret, la transformation de la Seine comme la lutte des travailleurs sans papiers…
Rapidement, la parole est donnée au jeune chercheur David Gaborieau venu évoquer avec simplicité ce que le développement de la logistique, ici, transforme. La logistique n’est plus un secteur invisible, attaque-t-il. On en parle désormais beaucoup et on en a beaucoup parlé, notamment durant la pandémie. On a longtemps pensé qu’Amazon n’était qu’un site internet. Depuis les gens ont découvert que ses entrepôts, eux, n’avaient rien de numérique. Mais si le secteur est mieux connu, nul ne sait ce qu’il se passe à l’intérieur. David Gaborieau a interviewé nombre d’ouvriers du flux, comme on les appelle. Manutentionnaires, préparateurs de commandes, pickers, injecteurs (ceux qui alimentent les tapis roulants), agents de quai, caristes… Selon leurs qualifications, ce sont là les principaux métiers des entrepôts logistiques. Le chercheur explique qu’il a aussi fait de l’intérim dans ces entrepôts pour comprendre ce travail de l’intérieur, pour bien saisir l’objet de ses recherches.
La révolution logistique, infrastructure de la globalisationSi Amazon est l’emblème du secteur, la logistique va bien au-delà. Carrefour a plus d’entrepôts qu’Amazon, rappelle-t-il… et si le e-commerce a transformé le secteur ces dernières années, la grande distribution et l’industrie sont d’importants moteurs de son développement qui se concentre autour des axes de circulation à proximité des grandes métropoles. On parle d’ailleurs de « révolution logistique » pour dire « qu’elle transforme l’économie contemporaine comme la révolution industrielle a transformé l’économie du XIXe siècle ». La logistique est née avec l’émergence de la grande distribution après la seconde guerre mondiale. D’abord utile au stockage, dans les années 80, elle va progressivement servir la délocalisation de la production, c’est-à-dire qu’elle va permettre « l’accroissement de la distance entre les lieux de production et de consommation ». Efficace et peu coûteuse, elle s’impose comme « l’infrastructure de la globalisation ». « Elle ne sert pas qu’à transporter et stocker des produits, elle gère la distance entre les différents lieux de production ». Un iPhone par exemple passe par plus de 40 unités productives avant d’arriver dans les mains de son propriétaire : il a fait 20 fois le tour du monde avant qu’on ne l’achète ! On comprend alors que cette révolution logistique transforme les systèmes de production, notamment en renforçant la délocalisation et la sous-traitance dont elle est à la fois le moteur et le carburant. La logistique est synonyme d’externalisation : on produit dans un réseau de sous-traitance et la logistique permet de gérer la distance entre tous les points de sous-traitance, lui permettant de s’étendre et se renforcer. Ce qui a bien sûr des impacts politiques, rappelle le chercheur : les grandes usines productives d’autrefois sont désormais éclatées entre sites qui se font concurrence, faisant disparaitre les bastions ouvriers d’antan.
« Avant on disait toujours que la sphère de production était au cœur de l’économie, désormais, elle est bousculée par la sphère de la circulation qui est devenu le cœur de la création de valeur économique »… Tant et si bien que quand un porte-conteneur obstrue le canal de Panama en 2021, c’est toute l’économie mondiale qui ralentie.
Ces transformations ont également des conséquences sur l’emploi. Un quart des ouvriers en France relèvent de la logistique et du transport. Les métiers ouvriers de la chimie, du textile ou de la métallurgie ont diminué au profit de ceux du transport, de la logistique et du déchet. Les ouvriers n’appartiennent plus au monde de l’industrie, mais sont désormais majoritairement des ouvriers du tertiaire : « 50% des ouvriers en France sont des ouvriers du secteur tertiaire ». Ainsi, d’anciens caristes des usines Renault le sont désormais dans des entrepôts logistiques. Ils font le même métier, mais ne relèvent plus du même secteur. « Dans les entrepôts de la logistique, 80% de l’emploi est ouvrier. A l’inverse, dans le secteur automobile, il n’y a plus que 40% d’ouvrier, tout le reste sont des cadres et ingénieurs ». La logistique est devenu le bastion d’un monde ouvrier qui a profondément muté.
Enfin, le secteur de la logistique est particulièrement concentré en Île-de-France, notamment autour de Roissy, d’Orly et de Marne-la-Vallée. « Sur 1 million de personnes qui travaillent dans la logistique en France, l’Île-de-France concentre 350 000 employés ».
Dans les usines à colisDans les « usines à colis », on trouve beaucoup de nouvelles technologies qui servent à faire du taylorisme moderne. Gaborieau s’est beaucoup intéressé à la commande vocale (comme l’illustrait une enquête de Cash Investigation de 2017), qui indique aux préparateurs de commande où se rendre dans l’entrepôt pour prendre chaque éléments d’une commande à assembler. Une voix numérique leur donne des indications en continue à laquelle ils doivent obéir en validant d’un OK, plusieurs centaine de fois par jour. « La machine ordonne et les humains continuent de porter les produits à la force des bras ». La manutention s’est moins mécanisée qu’on le pense.
La commande vocale est apparue au début des années 2000, rappelle le sociologue. Elle est très présente dans la grande distribution, alors que le secteur du e-commerce repose lui, plus souvent, sur le Pad, une tablette que les employés portent au bras ou au poignet. Ces outils sont très normatifs. Ils renforcent les cadences. Font perdre beaucoup de savoir-faire ouvriers et individualisent le travail. Pour bien faire son travail, il faut suivre les ordres de la machine. Cela a pour conséquence première d’avoir intensifié le travail. Selon l’INRS, les cadences aurait progressé de 10 à 15% dans le secteur. Une intensification soutenue également par des primes : ceux qui suivent les cadences, qui tiennent les objectifs des machines, reçoivent des primes conséquentes. 250 à 300 euros de primes sur un Smic relève d’une forte incitation. Enfin, ces déploiements techniques produisent un très fort contrôle de l’activité. On sait en continue où sont les ouvriers, leur rythme de travail… « tant et si bien que les cadres se plaignent parfois de n’avoir plus rien à faire », rapporte le sociologue. Il y a d’autres modalités de contrôle dans la logistique, comme le GPS des camions ou désormais le développement des tapis roulants. « La commande vocale a fabriqué les ouvriers spécialisés (OS) des colis ». Mais ceux-ci se déplacent encore. Avec le retour des convoyeurs, on revient aux Temps Modernes de Chaplin, avec un travail posté, très répétitif. Quel que soit ses formes, le travail d’OS est en plein essor dans le secteur.
« Si le secteur parle beaucoup d’automatisation, celle-ci révèle bien plus d’un mirage qu’autre chose », explique David Gaborieau… Un mirage sans cesse répété et renouvelé depuis le début de l’industrialisation. La promesse de la disparition du travail physique n’est pas nouvelle, dans le secteur textile au XIXe siècle, on l’envisageait déjà. Dans la réalité, il y a très peu d’entrepôts entièrement automatisés. L’automatisation coûte chère et ne fonctionne pas toujours très bien. En réalité, la logistique concentre surtout une forte présence du travail manuel, très contrôlé. Et ce n’est pas amené à changer radicalement à l’avenir, estime le sociologue. Derrière les convoyeurs où circulent les colis, il y a d’abord des masses de travailleurs qui travaillent à la chaîne. Qui coûtent bien moins chers que des robots qui tombent trop souvent en panne.
En matière d’emploi, la logistique est l’un des secteurs qui a le plus recours à l’intérim. Le sociologue Lucas Tranchant parle d’ailleurs d’intérim de masse. On compte 25% d’intérimaires dans le secteur, contre 7% il y a 20 ans. L’intérim est structurel et fonctionne comme un système de déqualification. « En fait, quel que soit le temps que vous passez en entrepôt, celui-ci ne permet pas d’évoluer ou de se qualifier. C’est un secteur où il n’y a pas d’évolution professionnelle, pas de formation. Les 80% d’ouvriers du secteur ne peuvent pas accéder aux 20% de postes d’encadrement ». Quant à la dégradation de l’emploi, elle n’est pas très bien répartie. Les femmes sont très minoritaires dans le secteur, mais subissent les emplois les plus dégradés, comme les ouvriers d’origine étrangère. C’est également un secteur qui se masculinise fortement (80% des employés sont des hommes).
« Comment les ouvriers perçoivent-ils tout cela ? », interroge le chercheur. « Ils disent tous à la fois, qu’ils sont devenus des robots et qu’ils ne sont pas des robots. Ce terme est un moyen de désigner la perte d’autonomie et le risque de déshumanisation qu’ils vivent ». « Mais ils ont des problèmes de santé que n’auraient pas les robots ». Les problèmes de santé dans la logistique apparaissent très rapidement quand on est manutentionnaire. Ils apparaissent plus rapidement que dans le secteur automobile par exemple. Dès 4 à 5 ans de travail dans le secteur, contre 8 années dans l’automobile. L’usure accélérée des corps se caractérise par des troubles musculo–squelettiques (TMS) et des lombalgies notamment. Ces problèmes de santé spécifiques arrivent dans d’autres mondes ouvriers. Dans le secteur automobile, les ouvriers peuvent parfois évoluer vers des postes un peu plus protecteurs. Mais dans les entrepôts de la grande distribution alimentaire, où 65% des postes sont des postes de préparateurs de commande, il n’y a pas d’autres fonctions disponibles. Cela explique que, les perspectives professionnelles des OS de la logistique, « c’est d’en sortir », de ne pas rester trop longtemps pour ne pas s’abimer la santé.
Les ouvriers de la logistique n’en ont pas moins une forte contre-culture ouvrière. Dans les entretiens menés, on constate une forte distinction entre « nous et eux », distinguant le monde ouvrier du monde de l’encadrement. Dans les entrepôts, on voit beaucoup de scènes de solidarité, de micro-résistances conflictuelles… On bouscule le chef d’équipe, on se moque de la commande vocale… On trouve même une part importante de vol, relativement tolérée, rapporte le chercheur.
La logistique contre les territoiresLe développement de la logistique a été beaucoup présentée comme une opportunité pour des territoires où les usines disparaissent. Le problème, c’est que les entrepôts du tertiaire sont plus coûteux socialement que les usines. L’emploi y est plus dégradé. Les entrepôts ont un coût plus élevé pour les territoires en termes d’infrastructures routières, de coûts environnementaux, mais également de coûts sociaux et de santé. Mais surtout, « les activités logistiques sont très labiles : elles se déplacent très vites ». Si le cours du pétrole évolue, on peut déplacer un entrepôt bien plus rapidement qu’une usine.
Les entrepôts sont un terrain de lutte très convoité, rappelle Gaborieau. Les Gilets jaunes en ont beaucoup bloqué pour tenter de bloquer les flux. Pour autant, le secteur n’est pas très syndiqué (le taux de syndication est de 4%, contre 10% dans l’ensemble du monde ouvrier) notamment parce que les établissements sont souvent petits, et que la précarité et l’intérim rendent la syndicalisation difficile. D’autant que les syndicats sont parfois à cheval à plusieurs secteurs (commerce, logistique, transport). Reste que la syndicalisation progresse. Les conflits aussi. « Ce secteur est une cocotte-minute qui pourrait déborder à un moment ou autre ». D’autant que les luttes des ouvriers du secteur, viennent en croiser d’autres, écologiques notamment, contre le développement routier et autoroutier, et contre les projets de développement des entrepôts eux-mêmes. Les citoyens se mettent à réfléchir à l’utilité sociale des entrepôts, à l’image de l’opposition contre le projet Greendock qui se présente comme le nouveau corridor logistique sur la Seine. Ces contestations citoyennes et sociales se développent avec le développement de l’emprise urbaine des entrepôts. Chaque année, on construit 2 millions de m2 d’entrepôts en France : autant que de surface de bureaux.
Dans les luttes, un faux paradoxe apparaît, celui de l’emploi. Les entrepôts prennent beaucoup de place mais proposent, proportionnellement, peu d’emploi. L’emploi est d’ailleurs souvent le prétexte que mobilisent élus, promoteurs et responsables d’entreprises pour pousser à leur développement. En vérité, les entrepôts bougent beaucoup. Non seulement ils participent à créer des friches, mais également des dégâts sociaux, car ces déplacements ont un impact sur les ouvriers. La durée de vie d’un entrepôt est assez basse, à Marseille, l’entrepôt ID logistics implanté dans les quartiers Nord, a été déplacé à 135 kilomètres à peine 3 ans après son ouverture. Enfin, ces entrepôts ne sont pas que des usines à colis, ils sont surtout des « usines à camion ». Le fret ferroviaire ou fluvial pourrait paraître comme une solution, mais tant que le fret routier restera si peu cher et disponible, rien ne changera (et ce, alors que le fret ferroviaire est en plein démembrement). Au Havre, le développement du fret ferroviaire volontariste n’a pas pris. « Les coûts logistiques sont si bas qu’ils rendent difficiles de penser la relocalisation à moins de l’encadrer plus sérieusement qu’elle n’est ». Dans les rapprochements entre luttes écologiques et sociales, on voit naître des contre-projets promouvant une logistique utile, comme le contre-projet à Greendock ou le contre-projet à l’A69. Reste que l’Île-de-France ne peut pas se passer d’approvisionnement. Seuls les ouvriers de ces secteurs peuvent aider à créer et penser des contre-projets, conclut le chercheur.
La convergence des luttes par l’exempleL’un des militants sur scène, rappelle qu’en Essonne, l’emprise logistique s’est accélérée. L’urbanisation galopante à fait fleurir une France moche. Les entrepôts, après avoir conquis le péri-urbain, colonisent désormais le Sud de l’Essonne rurale. Dans son livre, Nos lieux communs, l’écrivain Michel Bussi, dépeint le développement incontrôlé du capitalisme sur les territoires, plus subit qu’accéléré par les responsables politiques locaux. Partout, on bétonne. Partout, on bitume… dans un non-sens écologique qui aggrave les conflits d’usages à toutes les échelles. Avec les agriculteurs comme avec les riverains, avec les salariés, comme avec les écologistes.
Pour Julien conducteur de train et responsable à l’Union syndicale des transports, le démantèlement du fret ferroviaire ne va pas améliorer la situation. Pour lui, il est essentiel de lutter pour améliorer les conditions de travail des travailleurs et défendre la notion de service public pour le transport de marchandise comme de voyageurs. « Nous devrions lutter pour un grand service public des transports et de la distribution multimodale, afin de sortir la logistique de sa logique de profits délétère et répondre aux enjeux écologiques auxquels le capitalisme ne sait pas répondre ».
Anne, de Solidaires Sud Emploi, rappelle que dans le secteur de la logistique, « on voit de moins en moins des emplois. Seulement du travail ». Contrairement à ce qu’on entend, la mécanisation recule et la manutention explose. Le secteur, désormais, recrute via des sociétés d’insertion des gens qui n’ont jamais travaillé. « Ce n’est plus de l’insertion par l’emploi, mais de l’insertion par le travail ». Ils filent à l’entrepôt comme on allait à la mine, sans formation. Les contrats sont très courts. Le secteur abuse des carences, pour permettre aux ouvriers épuisés de se remettre de leurs problèmes de santé entre deux contrats. Les demande de travail handicapé augmentent. Le travail logistique casse physiquement ses salariés et pose la question collective de ce que nous ferons d’eux quand ils ne pourront plus faire ce métier.
Une personne dans le public vient prendre la parole pour l’association des « Vergers vivants de Lieusaint », une association pour défendre les vergers agricoles en Essonne. Longtemps, le Sud de l’Essonne a été considéré comme un territoire vide. Désormais, c’est un territoire qu’il faut valoriser. En 2020 à Saint-Pierre-du-Peray, on a récupéré un verger sans gestionnaire qu’on a tenté d’exploiter avec des bénévoles. Face à des projets de bureaux, nous sommes allés envahir le siège de l’établissement public d’aménagement, explique le défenseur du verger. Pour l’instant, le verger est toujours là du fait de notre résistance locale. Mais fasse au rouleur compresseur de « l’aménagement économique », pour combien de temps ?
Un travailleur de la logistique sans papier témoigne à son tour. Il rappelle que les conditions de travail sont très précaires et très dures : les colis sont bien souvent plus lourds qu’on ne pense. Pour lui, ce secteur ressemble à l’esclavage. On y menace les gens, notamment les plus précaires qui craignent de ne plus pouvoir travailler s’ils défendent leurs droits. Il rigole en évoquant les robots. Pendant un an, ils ont tenté de les mettre dans l’entrepôt où il travaillait : « ça n’a jamais marché ! » Olivier pour la CGT évoque lui aussi l’esclavage en évoquant les conditions de travail du secteur. En 2022, il y aurait eu 1700 déclarations d’accident de travail pour le seul entrepôt d’Amazon à Bretigny-sur-Orge, « même si, Amazon, socialement, c’est peut-être le moins pire ». Le turnover s’envole. Les syndicats n’ont pas même le temps d’installer les choses que tout est à recommencer. A Amazon, l’intérim, n’est plus à 26%, mais à 33% désormais. « Du boulot de merde, il y en a », rappelle le syndicaliste. Et le pire est que bien des gens en ont besoin.
Joseph, salarié d’Amazon et représentant syndical explique que oui, la logistique créé des emplois. « Quand l’entrepôt d’Amazon à ouvert à Bretigny en août 2020, il y avait 600 salariés en CDI. En 2024, ils sont 4700 ». Le reste (soit plus de 2300), ce sont des intérimaires. Le site fonctionne avec 5 équipes qui se relaient 24h/24, semaine et week-end compris. Le Conseil départemental dans son soutien au développement du secteur ne regarde que la création d’emplois, pas ce qu’il se passe à l’intérieur. Amazon a réalisé 4 milliards de bénéfices. La logistique génère beaucoup de richesses, mais pas pour ses ouvriers. Un autre militant évoque le développement d’une formation dédiée, lancée par Amazon, en apprentissage. Mais il est difficile d’envoyer de « la chair à patron » dans ces formations d’exécutants. Comme le rappelait le reportage du magazine Complément d’enquête sur les formations déployées par les grandes enseignes : bien souvent, la formation y est inexistante.
Un représentant de « La voie du village », association d’habitants d’Evry pour améliorer la qualité de vie, rappelle que la Vallée de la Seine est un territoire très convoité, en très forte densification, où l’aménagement est souvent imposé sans concertation. Il dénonce le risque de transformer la Seine en autoroute fluviale, pour acheminer des conteneurs et du vrac depuis Rouen ou Le Havre. « Les bords de Seine ne sont plus considérés comme des espaces naturels, mais des opportunités de dessertes, au détriment du bien-être des habitants ». Pourtant, rappelle-t-il, l’État joue un rôle très important dans ces aménagements, notamment via les établissements publics qu’il met en place pour prélever le foncier tout le long du fleuve. « Les bords de Seine qui sont un endroit gratuit et accessibles à tous, sont menacés de devenir bientôt inaccessibles aux habitants ». Un autre habitant témoigne à son tour : « une politique publique alternative est à construire ». Le problème, c’est que nous n’en prenons pas le chemin. Le démantèlement du fret ferroviaire, la spéculation sur les zones de triage très convoitées pourraient bien durablement interdire toute perspective d’alternative au tout routier.
La grande diversité des témoignages, rappelait la complexité des enjeux. Derrière l’ogre logistique, ce sont nos lieux de vies qui sont menacés. Contrairement à ce que l’on pense souvent, le sort des ouvriers du flux est profondément lié à celui des bourgeois qui vivent sur les bords de Seine. Le développement du territoire impacte la vie de tous.
Hubert Guillaud
-
7:00
Spotify, la machine à humeur
sur Dans les algorithmesCela fait des années que la journaliste indépendante Liz Pelly observe Spotify. Son essai, Mood Machine: The Rise of Spotify and the Costs of the Perfect Playlist (Simon & Schuster, 2025) estime que la musique est devenue un utilitaire plus qu’un art. Pour les fans de musique, le streaming est, malheureusement, un « produit spectaculaire » : « un jukebox universel et infini ». Pour les musiciens cependant, Spotify a été une menace plus existentielle que la révolution du partage de fichiers qui l’a précédée, car le streaming, lui, a reçu le vernis de la légitimité, explique le Washington Post dans sa critique du livre. Mais Spotify a surtout détourné les bénéfices de la musique a son profit, tout en préparant le terrain pour remplacer les musiciens par de la musique générée par l’IA. Le secteur d’ailleurs s’y prépare : un récent rapport de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac) annonce la chute de la rémunération des artistes et le déferlement à venir de la musique générée par IA
La musique, une activité purement fonctionnelleLiz Pelly rappelle que les origines de Spotify plongent directement dans The Pirate Bay, l’emblème du téléchargement illégal de musique du début des années 2000, notamment parce que le service était une réponse au comportement des gens et à l’envolée du téléchargement illégal. Pour le fondateur de Spotify, la musique a été considérée comme Amazon a considéré les livres : un cheval de Troie pour exploiter les clients. La recette de la suprématie auditive de Spotify a surtout reposé sur les playlists, spécifiques, homogènes et de plus en plus automatisées, descendant monotone de la radio commerciale et des musiques d’ambiance. Nos habitudes d’écoute culturelles ont été peu à peu déformées par la domination de Spotify. « Les auditeurs ont été encouragés à aborder la musique comme une activité purement fonctionnelle – pour dormir, étudier ou meubler un lieu public – sans avoir à fournir aucun investissement particulier dans des artistes individuels et identifiables ». En fait, Spotify vise avant tout à maintenir ses clients dans leur zone de confort. Spotify incarne « un modèle de créativité axé sur le service client qui conduit à une stagnation esthétique », explique Pelly. Le « son Spotify » ressemble à la décoration des appartements sur Airbnb, partout identique.
« À quel moment un système de recommandation cesse-t-il de recommander des chansons et commence-t-il à recommander une idée complète de la culture ? » demande Pelly. Spotify préfère que vous vous engagiez de la manière la plus passive et la plus distraite possible. Comme en politique, les superstructures panoptiques fonctionnent mieux lorsque leurs sujets ne leur accordent pas trop d’attention. Comme l’aurait dit un jour Daniel Ek, le fondateur de Spotify, « notre seul concurrent est le silence ». Dans le New Yorker, le prof de littérature Hua Hsu qui discute du même livre, parle d’un syndrome Spotify comme d’un syndrome de Stockholm. « Tout comme nous entraînons l’algorithme de Spotify avec nos goûts et nos dégoûts, la plateforme semble, elle, nous entraîner à devenir des auditeurs 24 heures sur 24 ». Pelly soutient, en fait, que la plus grande innovation de Spotify a été sa compréhension de l’affect, de la façon dont nous nous tournons vers la musique pour nous remonter le moral ou nous calmer, nous aider à nous concentrer sur nos devoirs ou simplement nous dissocier. Contrairement aux maisons de disque, son but n’était pas de nous vendre un tube dont on se lasse, mais de nous vendre un environnement sonore permanent. Quand on écoutait MTV ou la radio, nous pouvions parfois tomber sur quelque chose de différent ou d’inconnu. Désormais, la personnalisation « laisse présager d’un avenir sans risque, dans lequel nous ne serons jamais exposés à quoi que ce soit que nous ne voudrions pas entendre ». Sur Spotify, « les sons flottent en grande partie sans contexte ni filiation ». Les artistes y sont finalement assez invisibles. La musique décontextualisée de son histoire.
Internet était censé libérer les artistes de la monoculture, en offrant les conditions pour que la musique circule de manière démocratique et décentralisée. Certes, elle circule plus que jamais, mais la monoculture, elle, s’est terriblement renforcée.
Spotify, une ubérisation comme les autresDans les bonnes feuilles du livre que publie Harpers, Pelly évoque une autre dimension des transformations qu’a produit la plateforme, non pas sur les utilisateurs et clients, mais sur la musique et les musiciens eux-mêmes. Elle décrit les artistes fantômes de la plateforme, une polémique où les playlists populaires de Spotify semblaient se peupler de musiques de stock et d’artistes qui n’existaient pas. Pelly montre que Spotify avait en fait, malgré ses longues dénégations, bel et bien des accords avec des sociétés de productions pour produire des flux de musique moins chers. Ce programme, baptisé Perfect Fit Content (PFC, que l’on peut traduire par « contenu parfaitement adapté »), offrait des conditions de rémunération moindre et visait clairement à réduire les droits payés par Spotify aux artistes, normalisant des titres bons marchés pour remplir les playlists. « Au milieu des années 2010, le service s’est activement repositionné pour devenir une plateforme neutre, une méritocratie axée sur les données qui réécrivait les règles de l’industrie musicale avec ses playlists et ses algorithmes ». En se rendant compte que de nombreux abonnés écoutaient de la musique en fond sonore, Spotify a opté pour une solution qui lui permettait de réduire les dividendes qu’elle versait au majors (représentant quelques 70% de ses revenus) afin de devenir bénéficiaire. Pour cela, elle a misé sur les recommandations par playlists d’humeur qui se sont peu à peu peuplées de titres PFC – et ce alors que Spotify se défend de faire des placements de chansons dans ses playlists.
De nombreuses entreprises fournissent désormais Spotify en musique libre de droits à petits budgets, au détriment d’artistes indépendants. Loin d’être la plateforme de la méritocratie musicale qu’elle prétend être, Spotify, comme bien des entreprises, « manipule secrètement la programmation pour favoriser le contenu qui améliore ses marges ». Pour les musiciens précarisés qui produisent ces musiques, cela ressemble surtout à une ubérisation à marche forcée, avec des enregistrements à la chaîne et des musiques écrites sur un coin de table pour correspondre à un style précis, qui signent des contrats avec des droits réduits. « La musique de fond est à certains égards similaire à la musique de production, un son produit en masse sur la base d’un travail à la demande, qui est souvent entièrement détenu par des sociétés de production qui le rendent facilement disponible pour la publicité, la sonorisation de magasin, la production de films… » Ce que l’on appelle « la musique de production » est d’ailleurs en plein essor actuellement, explique Pelly, notamment pour créer des fonds sonores aux micro-contenus vidéo de Youtube, Insta ou TikTok, afin d’éviter des accords de licences compliqués voire la suppression de contenus lié à la violation du droit d’auteur. Pour ces entreprises qui produisent de la musique à la chaîne, comme Epidemic Sound, la musique n’est rien d’autre qu’une « activité de données », aplanissant les différences entre les musiques, produisant un brouillage des frontières esthétiques.
Les musiciens de l’Ivors Academy, une organisation britannique de défense des auteurs-compositeurs, affirment que les « frictions » que des entreprises comme Epidemic cherchent à aplanir sont en fait des protections industrielles et de droit d’auteur durement gagnées. Nous sommes entrés dans une course au moins disant, explique un producteur. Quand ces morceaux décollent en audience, ils génèrent bien plus de revenus pour Spotity et les labels fantômes que pour leurs auteurs, par contrat. « Ce traitement de la musique comme rien d’autre que des sons de fond – comme des pistes interchangeables de playlists génériques et étiquetées en fonction de l’ambiance – est au cœur de la dévalorisation de la musique à l’ère du streaming. Il est dans l’intérêt financier des services de streaming de décourager une culture musicale critique parmi les utilisateurs, de continuer à éroder les liens entre les artistes et les auditeurs, afin de faire passer plus facilement de la musique à prix réduits, améliorant ainsi leurs marges bénéficiaires. Il n’est pas difficile d’imaginer un avenir dans lequel l’effilochage continu de ces liens érode complètement le rôle de l’artiste, jetant les bases pour que les utilisateurs acceptent la musique créée à l’aide de logiciels d’IA générative. » Epidemic Sound a déjà prévu d’autoriser ses auteurs à utiliser les outils d’IA pour générer des pistes musicales. Et Spotify, pour sa part, a fait part ouvertement de sa volonté d’autoriser la musique générée par l’IA sur la plateforme.
L’exploitation de l’IA par Spotify ne s’arrête pas là. Elle est toujours corrélée à des initiatives pour réduire les coûts, rappelle Pelly, en évoquant par exemple le Discovery Mode, un programme de promotion automatique où les artistes qui acceptent d’y participer acceptent également une redevance inférieure. Bien sûr, Discovery Mode a attiré l’attention des artistes, des organisateurs et des législateurs et il est probable que PFC attise également les critiques… Mais « les protestations pour des taux de redevance plus élevés sont plus difficiles quand les playlists sont remplies d’artistes fantômes ».
La couverture du livre de Liz Pelly, Mood Machine.
MAJ du 27/01/2025 : Liz Pelly est en interview dans le Monde.
-
7:00
Ralentir la traduction ?
sur Dans les algorithmesDans un passionnant article pour la revue Traduire, la traductrice indépendante Laura Hurot explique comment le secteur de la traduction a changé ces dernières années, sous la forme d’une ubérisation silencieuse.
Nombre d’agences de traduction imposent de travailler sur des plateformes dotées d’un système de chronométrage intégré qui évalue la productivité des traductrices et traducteurs. Mais cette accélération n’affecte pas seulement la phase traductionnelle : des agences recourent également à des systèmes de révision et de contrôle qualité en partie automatisés reposant sur des outils de catégorisation des erreurs. Ces changements conduisent à une accélération de la productivité et à une perte d’autonomie, des savoir-faire et du bien-être des traducteurs indépendants plateformisés. D’ailleurs, on ne parle plus de traduction, mais de post-édition, pour désigner une correction de traduction automatique, dont la conséquence première est de lisser les tarifs de traduction vers le bas.
Dans un article plus récent de la même revue, le collectif en chair et en os, qui défend une traduction humaine contre la généralisation des machines, souligne que dans l’édition, la traduction automatique touche d’abord certains genres littéraires dont la langue n’est pas plus facile à prendre en charge par la machine, mais des genres qui sont périphériques dans la hiérarchie culturelle et où la précarité est depuis longtemps plus forte (les secteurs de la romance, des livres pratiques, des livres pour les jeunes ou des sciences humaines sociales sont également des secteurs où les rémunérations sont moindres et les statuts plus précaires… et ils se sont précarisés avec la forte féminisation du secteur depuis les années 80). Et les auteurs de rappeler qu’“un outil développé puis déployé à des fins d’économie n’est pas qu’un outil : il est l’élément d’un système”. Et de rappeler que la traduction automatique n’a pas été conçue à des fins professionnelles mais pour produire une traduction moins chère et suffisante. Pour les acteurs de la tech, traduire un texte consiste en effet à le transposer en miroir, dans une vision purement mathématique, en remplaçant simplement un mot par un autre mot, même si désormais ces agencements sont largement statistiques. Ce n’est pourtant pas si simple, surtout quand les textes sont complexes et les langues rares, comme le pointent les limites à l’utilisation croissante d’outils de traduction automatiques pour accomplir des tâches trop complexes pour eux, comme pour remplir des formulaires de demandes d’asiles sans maîtrise de la langue, conduisant à des erreurs multiples et aux rejets massives des demandes.
Il n’y a pas que la traduction depuis des langues rares qui se révèle complexe, dans leur numéro de décembre, les Cahiers du Cinéma revenaient, à la suite d’une tribune de l’Association des traducteurs et adaptateurs de l’audiovisuel (Ataa), sur la perte de qualité des sous-titres des films, trop souvent réalisés automatiquement. Le problème n’est pas seulement économique et lié au fait que le sous-titrage ou le doublage viennent en bout de chaîne de la production, qui échappe souvent à la production, que de savoir à qui elle incombe : producteur, distributeur, diffuseur… Un conflit de responsabilité qui permet de justifier la perte de qualité. Le plus fascinant pourtant est de constater combien la traduction automatique échoue sur des phrases assez simples, même depuis l’anglais. Ainsi cet « How’s my room? » traduit par « Comment va ma chambre? » au lieu de « Où en est ma chambre?« , nous montrant toutes les limites de l’approche de la traduction statistique, qui se révèle bien moins performante qu’on ne le pense souvent.
L’observatoire de la traduction automatique rappelait récemment que sa tribune de 2023 demandant la transparence réelle des données d’entraînements de l’IA générative, la possibilité de refuser que le travail de traduction serve à l’entraînement des machines qui détruisent le métier, que les aides publiques soient exclusivement réservées aux créations humaines ou que les produits culturels créés avec de l’IA soient obligatoirement signalés… n’avait toujours reçu aucune réponse des autorités.
Signalons enfin que le 10e numéro de la revue Contrepoint, la revue du Conseil européen des associations de traducteurs littéraires, est entièrement consacré à la question de la traduction sous IA. Pour Damien Hansen, qui rappelle que la traduction automatique reste incapable de comprendre le texte, “le problème n’est pas tant l’outil en soi que le fait qu’on l’impose aux professionnels et qu’on l’emploie pour des raisons purement économiques”. Plutôt que de venir aider et soutenir le traducteur, la traduction automatique est produite pour le contraindre voire le faire disparaître. L’utilisation de l’IA comme outil de contrôle montre à nouveau que leur orientation vers des outils de contrainte plutôt que d’assistance, contrairement à ce qui nous est asséné, risque de devenir une limite forte à son développement.
Dans son article, Laura Hurot, rappelle, à la suite du livre du spécialiste de la cognition, Olivier Houdé, L’intelligence humaine n’est pas un algorithme (Odile Jacob, 2019), que la clé de l’intelligence réside certainement bien plus dans le ralentissement de la pensée plutôt que dans son accélération. A l’heure où la vitesse est une idole indétrônable, il faudrait pouvoir mieux mesurer ce qu’elle nous fait perdre.
MAJ du 26/01/2025 : Dans un passionnant article sur un secteur assez proche, le Monde revient sur les transformations du secteur du doublage et le péril imminent de l’IA. Le journal rappelle qu’aux Etats-Unis, la grève des acteurs et scénaristes de l’automne 2023 a négocié des contreparties financières en cas d’utilisation de leur image ou de leurs œuvres par une IA générative, mais pas pour le doublage vocal, qui est resté l’angle mort des négociations.En France, les doubleurs s’inquiètent, explique l’association de défense de la profession, Les Voix. Les acteurs s’interrogent : « l’IA risque de dénaturer totalement l’énergie du jeu, née de la proximité de plusieurs comédiens dans une même pièce », lors du doublage. « Le risque économique lié à l’avènement de l’IA dans le doublage concerne directement 15 000 personnes dans l’Hexagone, dont 5 000 comédiens, le personnel de 110 studios de doublage, donc des ingénieurs du son, des assistants de production, ainsi que 2 500 auteurs-adaptateurs ». Les syndicats réclament des protections pour interdire l’utilisation du travail de doublage pour entraîner les systèmes. Mais, « pour l’heure, rien n’empêche les studios étrangers, notamment américains, de proposer des films doublés directement en français grâce à l’IA, en clonant, par exemple, les voix des acteurs américains ». L’article rappelle enfin que les protections juridiques existent… mais seront-elles suffisantes face aux contraintes économiques qu’imposent les studios ?
-
7:01
Moraliser les machines
sur Dans les algorithmes« L’éthique de l’IA, à l’image de l’IA, ne peut se réduire à une application de règles et de principes, elle doit se confronter aux situations vécues », rappellent les chercheurs Carlo Andrea Tassinari, Sara De Martino et Yann Ferguson dans un article de recherche sur les limites de la moralisation des machines. Les chercheurs observent les questionnements éthiques que posent des développements concrets de l’IA et montrent qu’ils sont très éloignés des enjeux universalistes et moraux que l’on retrouve le plus souvent dans les préconisations éthiques. Ils sont au contraire situés et discutés.
Comme le soulignaient déjà Antoinette Rouvroy et Manuel Zacklad dans leur article sur l’éthique située, c’est la possibilité de contester les décisions des machines qui est seule à même d’assurer leur robustesse et leur légitimité. La valeur morale n’est pas tant immanente que située et nécessite un public pour la discuter. « Une démarche éthique doit s’assurer de contribuer à la puissance d’agir des communautés concernées, c’est-à-dire garantir les modalités de leur participation aux décisions techniques qui sont aussi toujours des décisions politiques – qui les concernent », comme le dit Joëlle Zask à la suite de John Dewey. « La transcription ou l’enregistrement de la réalité sociale sous forme de données numériques ne la purge bien évidemment pas des inégalités mais les « naturalise », faisant passer les données pour des « faits » en faisant oublier que les « faits » sont toujours produits, et que les données ne traduisent jamais que les « effets » des rapports de force et des phénomènes de domination », rappellent Rouvroy et Zacklad. Les problèmes de qualité des données et d’explicabilité sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. Quant aux valeurs, les décisions à fort impact humain et social ne peuvent être réduites à des principes sous-traités à des dispositifs. Pour Rouvroy et Zacklad, l’éthique ne devrait pas viser pas à atténuer l’impact d’une technologie, mais consiste à remettre en cause les présupposés de scientificité qui justifient le recours à la technologie, par et avec le public. -
7:00
Re-centralisation
sur Dans les algorithmes« L’IA est un projet idéologique visant à déplacer l’autorité et l’autonomie des individus vers des structures de pouvoir centralisées ». Ali Alkhatib
-
7:00
Nous avons besoin de bases partagées de ce que les modèles censurent
sur Dans les algorithmesLe nom du professeur de droit Jonathan Zittrain fait partie des quelques noms qui sont censurés de ChatGPT. Pour The Atlantic, Zittrain explique que cette exclusion, grossière, pour laquelle il n’a pas reçu d’explication convaincante d’OpenAI, permet de saisir les enjeux du contrôle des modèles. Les interventions et les réglages de modération des modèles devraient être accessibles, car ils peuvent « représenter des jugements sociaux et moraux plutôt que de simples jugements techniques ». Nous pourrions pour se faire nous fonder sur ce qui se pratique déjà comme La base de données Lumen du Berkman Klein Center qui sert depuis longtemps de référentiel unique en temps quasi réel des modifications apportées à Google Search en raison d’exigences juridiques en matière de droits d’auteur et autres. Ou encore comme PhotoDNA , la base de données d’images pédopornographiques initiée par Microsoft en 2009 et gérée par le Centre national pour les enfants disparus et exploités (NCMEC)… Ou encore la base de données de contenus terroristes créée en 2016 par Microsoft, Youtube, Facebook et Twitter pour les identifier et faciliter leurs pratiques de modération automatisée et gérée par le Global Internet Forum to Counter Terrorism.
Si un chatbot ne dit rien de ce qu’il s’est passé sur la place Tiananmen en 1989, nous devons pouvoir comprendre pourquoi, défend Zittrain. « Ceux qui construisent des modèles ne peuvent pas être les arbitres silencieux de la vérité des modèles. »
-
7:00
Vers un internet plein de vide ?
sur Dans les algorithmesSur la plupart des réseaux sociaux vous avez déjà du tomber sur ces contenus génératifs, pas nécessairement des choses très évoluées, mais des contenus étranges, qui n’ont rien à dire, qui hésitent entre développement personnel creux, blague ratée ou contenu sexy. Des vidéos qui ânonnent des textes qui ne veulent rien dire. Les spécialistes parlent de slop, de contenus de remplissages, de résidus qui peu à peu envahissent les plateformes dans l’espoir de générer des revenus. A l’image des contenus philosophiques générés par l’IA que décortique en vidéo Monsieur Phi.
IA slop : de la publicité générative à l’internet zombiePour l’instant, ces contenus semblent anecdotiques, peu vus et peu visibles, hormis quand l’un d’entre eux perce quelque part, et en entraîne d’autres dans son flux de recommandation, selon la logique autophagique des systèmes de recommandation. Pour l’analyste Ben Thompson, l’IA générative est un parfait moteur pour produire de la publicité – et ces slops sont-ils autre chose que des contenus à la recherche de revenus ? Comme le dit le philosophe Rob Horning : « le rêve de longue date d’une quantité infinie de publicités inondant le monde n’a jamais semblé aussi proche ». Pour Jason Koebler de 404 Media, qui a enquêté toute l’année sur l’origine de ce spam IA, celui-ci est profondément relié au modèle économique des réseaux sociaux qui rémunèrent selon l’audience que les créateurs réalisent, ce qui motive d’innombrables utilisateurs à chercher à en tirer profit. Koebler parle d’ailleurs d’internet zombie pour qualifier autant cette génération de contenu automatisée que les engagements tout aussi automatisés qu’elle génère. Désormais, ce ne sont d’ailleurs plus les contenus qui sont colonisés par ce spam, que les influenceurs eux-mêmes, notamment par le biais de mannequins en maillots de bains générés par l’IA. A terme, s’inquiète Koebler, les médias sociaux pourraient ne plus rien avoir de sociaux et devenir des espaces « où le contenu généré par l’IA éclipse celui des humains », d’autant que la visibilité de ces comptes se fait au détriment de ceux pilotés par des humains. Des sortes de régies publicitaires sous stéroïdes. Comme l’explique une créatrice de contenus adultes dont l’audience a chuté depuis l’explosion des mannequins artificiels : « je suis en concurrence avec quelque chose qui n’est pas naturel ».
Ces contenus qui sont en train de coloniser les réseaux sociaux n’ont pas l’air d’inquiéter les barons de la tech, pointait très récemment Koebler en rapportant les propose de Mark Zuckerberg. D’autant que ces contenus génératifs semblent produire ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes Meta utilisent déjà l’IA générative. Et Meta prévoit des outils pour démultiplier les utilisateurs synthétiques. Le slop a également envahi la plateforme de blogs Medium, explique Wired, mais ces contenus pour l’instant demeurent assez invisibles, notamment parce que la plateforme parvient à limiter leur portée. Un endiguement qui pourrait ne pas résister au temps. A terme, les contenus produits par les humains pourraient devenir de plus en plus difficile à trouver sur des plateformes submergées par l’IA.
On voudrait croire que les réseaux sociaux puissent finir par s’effondrer du désintérêt que ces contenus démultiplient. Il semble que ce soit l’inverse, l’internet zombie est en plein boom. Tant et si bien qu’on peut se demander, un an après le constat de l’effondrement de l’information, si nous ne sommes pas en train de voir apparaître l’effondrement de tout le reste ?
Les enjeux du remplissage par le videDans sa newsletter personnelle, le chercheur et artiste Eryk Salvaggio revient à son tour sur le remplissage par l’IA, dans trois longs billets en tout point passionnants. Il souligne d’abord que ce remplissage sait parfaitement s’adapter aux algorithmes des médias sociaux. Sur Linked-in, les contenus rédigés par des LLM seraient déjà majoritaires. Même le moteur de recherche de Google valorise déjà les images et les textes générés par IA. Pour Salvaggio, avec l’IA générative toute information devient du bruit. Mais surtout, en se jouant parfaitement des filtres algorithmiques, celle-ci se révèle parfaitement efficace pour nous submerger.
Jesus Schrimp, image symbolique des eaux troubles de l’IA produisant son propre vide.
Salvaggio propose d’abandonner l’idée de définir l’IA comme une technologie. Elle est devenue un projet idéologique, c’est-à-dire que « c’est une façon d’imaginer le monde qui devient un raccourci pour expliquer le monde ». Et elle est d’autant plus idéologique selon les endroits où elle se déploie, notamment quand c’est pour gérer des questions sociales ou culturelles. « L’optimisation de la capacité d’un système à affirmer son autorité est une promesse utopique brillante des technologies d’automatisation ». « L’un des aspects de l’IA en tant qu’idéologie est donc la stérilisation scientifique de la variété et de l’imprévisibilité au nom de comportements fiables et prévisibles. L’IA, pour cette raison, offre peu et nuit beaucoup au dynamisme des systèmes socioculturels ». Les gens participent à l’idéologie de l’IA en évangélisant ses produits, en diffusant ses résultats et en soutenant ses avancées pour s’identifier au groupe dominant qui l’a produit.
La production par l’IA de contenus de remplissage nécessite de se demander à qui profite ce remplissage abscons ? Pour Salvaggio, le remplissage est un symptôme qui émerge de l’infrastructure même de l’IA qui est elle-même le résultat de l’idéologie de l’IA. Pourquoi les médias algorithmiques récompensent-ils la circulation de ces contenus ? Des productions sensibles, virales, qui jouent de l’émotion sans égard pour la vérité. Les productions de remplissage permettent de produire un monde tel qu’il est imaginé. Elles permettent de contourner tout désir de comprendre le monde car elle nous offre la satisfaction immédiate d’avoir un « sentiment sur le monde ». « L’AI Slop est un signal vide et consommé passivement, un symptôme de « l’ère du bruit », dans lequel il y a tellement de « vérité » provenant de tant de positions que l’évaluation de la réalité semble sans espoir. »
Notre désorientation par le videEryk Salvaggio se demande même si le but de l’IA n’est pas justement de produire ce remplissage. Un remplissage « équipé », « armé », qui permet d’essaimer quelque chose qui le dépasse, comme quand l’IA est utilisée pour inonder les réseaux de contenus sexuels pour mieux essaimer le regard masculin. Les productions de l’IA permettent de produire une perspective, un « regard en essaim » qui permet de manipuler les symboles, de les détourner. « Les images générées par l’IA offrent le pouvoir de façonner le sens dans un monde où les gens craignent l’impuissance et l’absence de sens en les invitant à rendre les autres aussi impuissants et dénués de sens qu’eux ». Ces images « diminuent la valeur de la réalité », suggère brillamment Salvaggio. Elles créent « une esthétisation », c’est-à-dire rend la représentation conforme à un idéal. La fonction politique de ce remplissage va bien au-delà des seules représentations et des symboles, suggère-t-il encore. L’IA appliquée aux services gouvernementaux, comme les services sociaux, les transforme à leur tour « en exercice esthétique ». Notre éligibilité à une assurance maladie ou à une couverture sociale n’est pas différente de l’IA Slop. C’est cette même infrastructure vide de sens qui est pointée du doigt par ceux qui s’opposent à l’algorithmisation de l’Etat que ceux qui fuient les boucles de rétroactions délétères des médias sociaux.
Le projet DOGE d’Elon Musk, ce département de l’efficacité gouvernementale qui devrait proposer un tableau de bord permettant aux internautes de voter pour éliminer les dépenses publiques les plus inutiles, semble lui-même une forme de fusion de médias sociaux, d’idéologie de l’IA et de pouvoir pour exploiter le regard en essaim de la population et le diriger pour harceler les fonctionnaires, réduire l’État providence autour d’une acception de l’efficacité ultra-réductrice. Au final, cela produit une forme de politique qui traite le gouvernement comme une interface de médias sociaux, conçue pour amplifier l’indignation, intimider ceux qui ne sont pas d’accord et rendre tout dialogue constructif impossible. Bienvenue à la « momusocratie« , le gouvernement des trolls, de la raillerie, explique Salvaggio, cette Tyrannie des bouffons chère à l’essayiste Christian Salmon.
Mais encore, défend Salvaggio, le déversement de contenus produit par l’IA générative promet un épuisement du public par une pollution informationnelle sans précédent, permettant de perturber les canaux d’organisation, de réflexion et de connexion. « Contrôlez le filtre permet de l’orienter dans le sens que vous voulez ». Mais plus que lui donner un sens, la pollution de l’information permet de la saturer pour mieux désorienter tout le monde. Cette saturation est un excellent moyen de garantir « qu’aucun consensus, aucun compromis, ou simplement aucune compréhension mutuelle ne se produise ». Cette saturation ne vise rien d’autre que de promouvoir « la division par l’épuisement ». « Le remplissage est un pouvoir ».
« L’idéologie de l’IA fonctionne comme une croyance apolitique trompeuse selon laquelle les algorithmes sont une solution à la politique » qui suppose que les calculs peuvent prendre les décisions au profit de tous alors que leurs décisions ne sont qu’au profit de certains, en filtrant les données, les idées, les gens qui contredisent les résultats attendus. Alors que l’élection de Trump éloigne les enjeux de transparence et de régulation, l’IA va surtout permettre de renforcer l’opacité qui lui assure sa domination.
Vers un monde sans intérêt en boucle sur lui-mêmeDans la dernière partie de sa réflexion, Salvaggio estime que le remplissage est un symptôme, mais qui va produire des effets très concrets, des « expériences désintéressées », c’est-à-dire des « expériences sans intérêt et incapables de s’intéresser à quoi que ce soit ». C’est le rêve de machines rationnelles et impartiales, omniscientes, désintéressées et qui justement ne sont capables de s’intéresser à rien. Un monde où l’on confie les enfants à des tuteurs virtuels par soucis d’efficacité, sans être capable de comprendre tout ce que cette absence d’humanité charrie de délétère.
L’IA s’est construite sur l’excès d’information… dans le but d’en produire encore davantage. Les médias sociaux ayant été une grande source de données pour l’IA, on comprend que les contenus de remplissage de l’IA soient optimisés pour ceux-ci. « Entraînée sur du contenu viral, l’IA produit du contenu qui coche toutes les cases pour l’amplification. Le slop de l’IA est donc le reflet de ce que voient nos filtres de médias sociaux. Et lorsque les algorithmes des médias sociaux en reçoivent les résultats, il les reconnaît comme plus susceptibles de stimuler l’engagement et les renforce vers vers les flux (générant plus d’engagement encore). » Dans le tonneaux des Danaïdes de l’amplification, l’IA slop est le fluidifiant ultime, le contenu absurde qui fait tourner la machine sans fin.
Combattre ce remplissage par l’IA n’est une priorité ni pour les entreprises d’IA qui y trouvent des débouchés, ni pour les entreprises de médias sociaux, puisqu’il ne leur porte aucun préjudice. « Les contenus de remplissage de l’IA sont en fait la manifestation esthétique de la culture à médiation algorithmique » : « ils sont stylisés à travers plus d’une décennie d’algorithmes d’optimisation qui apprennent ce qui pousse les gens à s’engager ».
Face à ces contenus « optimisés pour performer », les artistes comme les individus qui ont tenté de partager leur travail sur les plateformes sociales ces dernières années ne peuvent pas entrer en concurrence. Ceux qui ont essayé s’y sont vite épuisés, puisqu’il faut tenir d’abord le rythme de publication infernal et infatigable que ces systèmes sont capables de produire.
Dépouiller les symboles de leur relation à la réalité« Les images générées par l’IA peuvent être interprétées comme de l’art populaire pour servir le populisme de l’IA ». Elles visent à « dépouiller les symboles de leur relation à la réalité » pour les réorganiser librement. Les gens ne connaissent pas les films mais ont vu les mèmes. Le résultat de ces images est souvent critiqué comme étant sans âme. Et en effet, le texte et les images générés par l’IA souffrent de l’absence du poids du réel, dû à l’absence de logique qui préside à leur production.
« L’ère de l’information est arrivée à son terme, et avec elle vient la fin de toute définition « objective » et « neutre » possible de la « vérité ». » L’esthétique du remplissage par l’IA n’est pas aléatoire, mais stochastique, c’est-à-dire qu’elle repose sur une variété infinie limitée par un ensemble de règles étroites et cohérentes. Cela limite notre capacité à découvrir ou à inventer de nouvelles formes de culture, puisque celle-ci est d’abord invitée à se reproduire sans cesse, à se moyenniser, à s’imiter elle-même. Les images comme les textes de l’IA reflètent le pouvoir de systèmes que nous avons encore du mal à percevoir. Ils produisent des formes de vérités universalisées, moyennisées qui nous y enferment. Comme dans une forme d’exploitation sans fin de nos représentations, alors qu’on voudrait pouvoir en sortir, comme l’expliquait dans une note pour la fondation Jean Jaurès, Melkom Boghossian, en cherchant à comprendre en quoi les algorithmes accentuent les clivages de genre. Comme s’il devenait impossible de se libérer des contraintes de genres à mesure que nos outils les exploitent et les renforcent. Cet internet de contenus absurde n’est pas vide, il est plein de sens qui nous échappent et nous y engluent. Il est plein d’un monde saturé de lui-même.
A mesure que l’IA étend son emprise sur la toile, on se demande s’il restera encore des endroits où nous en serons préservés, où nous pourrons être mis en relation avec d’autres humains, sans que tout ce qui encode les systèmes ne nous déforment.
Du remplissage à la fin de la connaissanceDans une tribune pour PubliBooks, la sociologue Janet Vertesi estime que les recherches en ligne sont devenues tellement chaotiques et irrationnelles, qu’elle a désormais recours aux dictionnaires et encyclopédies papier. « Google qui a fait fortune en nous aidant à nous frayer un chemin sur Internet se noie désormais dans ses propres absurdités générées par elle-même ». Nous voici confrontés à un problème d’épistémologie, c’est-à-dire de connaissance, pour savoir ce qui est réel et ce qui ne l’est pas. Au XXe siècle, les philosophes ont définis la connaissance comme une croyance vraie justifiée. La méthode scientifique était le moyen pour distinguer la bonne science de la mauvaise, la vérité du mensonge. Mais cette approche suppose souvent qu’il n’y aurait qu’une seule bonne réponse que nous pourrions connaître si nous adoptons les bonnes méthodes et les bons outils. C’est oublier pourtant que la connaissance ne sont pas toujours indépendantes de l’expérience. Ludwig Wittgenstein a utilisé la figure du canard-lapin pour montrer comment des personnes rationnelles pouvaient en venir à avoir des points de vue irréconciliablement différents sur une même réalité. Les épistémologues se sont appuyés sur cette idée pour montrer que les personnes, selon leurs positions sociales, ont des expériences différentes de la réalité et que la connaissance objective ne pouvait naître que de la cartographie de ces multiples positions. Les sociologues de la connaissance, eux, examinent comment différents groupes sociaux en viennent à légitimer différentes manières de comprendre, souvent à l’exclusion des autres. Cela permet de comprendre comment différents faits sociaux circulent, s’affrontent ou se font concurrence, et pourquoi, dans les luttes pour la vérité, ceux qui détiennent le pouvoir l’emportent si souvent… Imposant leur vérités sur les autres.
Mais ces questions ne faisaient pas partie des préoccupations de ceux qui ont construit internet, ni des systèmes d’IA générative qui s’en nourrissent. Depuis l’origine, internet traite toutes les informations de manière égale. Le réseau ne consiste qu’à acheminer des paquets d’informations parfaitement égaux entre eux, rappelle la sociologue. A cette neutralité de l’information s’est ajoutée une autre métaphore : celle du marché des idées, où chaque idée se dispute à égalité notre attention. Comme dans le mythe du libre marché, on a pu penser naïvement que les meilleures idées l’emporteraient. Mais ce régime épistémique a surtout été le reflet des croyances de l’Amérique contemporaine : un système de connaissance gouverné par une main invisible du marché et entretenue par des conservateurs pour leur permettre de générer une marge bénéficiaire.
« Pourtant, la connaissance n’est pas une marchandise. La « croyance vraie justifiée » ne résulte pas non plus d’une fonction d’optimisation. La connaissance peut être affinée par le questionnement ou la falsification, mais elle ne s’améliore pas en entrant en compétition avec la non-connaissance intentionnelle. Au contraire, face à la non-connaissance, la connaissance perd. » L’interrogation du monde par des mécanismes organisés, méthodiques et significatifs – comme la méthode scientifique – peut également tomber dans le piège des modes de connaissance fantômes et des impostures méthodologiques. « Lorsque toute information est plate – technologiquement et épistémologiquement – il n’y a aucun moyen d’interroger sa profondeur, ses contours ou leur absence ». En fait, « au lieu d’être organisé autour de l’information, l’Internet contemporain est organisé autour du contenu : des paquets échangeables, non pondérés par la véracité de leur substance. Contrairement à la connaissance, tout contenu est plat. Aucun n’est plus ou moins justifié pour déterminer la vraie croyance. Rien de tout cela, au fond, n’est de l’information. »
« En conséquence, nos vies sont consumées par la consommation de contenu, mais nous ne reconnaissons plus la vérité lorsque nous la voyons. Et lorsque nous ne savons pas comment peser différentes vérités, ou coordonner différentes expériences du monde réel pour regarder derrière le voile, il y a soit une cacophonie, soit un seul vainqueur : la voix la plus forte qui l’emporte. »
Contrairement à Wikipédia, encore relativement organisé, le reste du Web est devenu la proie de l’optimisation des moteurs de recherche, des technologies de classement et de l’amplification algorithmique, qui n’ont fait que promouvoir le plus promouvable, le plus rentable, le plus scandaleux. « Mais aucun de ces superlatifs n’est synonyme de connaissance ». Les systèmes qui nous fournissent nos informations ne peuvent ni mesurer ni optimiser ce qui est vrai. Ils ne s’intéressent qu’à ce sur quoi nous cliquons. Et le clou dans le cercueil est enfoncé par l’intelligence artificielle qui « inonde Internet de contenu automatisé plus rapidement que l’on ne peut licencier une rédaction ». Dans ce paysage sous stéroïdes, aucun système n’est capable de distinguer la désinformation de l’information. Les deux sont réduits à des paquets de même poids cherchant leur optimisation sur le marché libre des idées. Et les deux sont ingérés par une grande machinerie statistique qui ne pèse que notre incapacité à les distinguer.
Aucun système fondé sur ces hypothèses ne peut espérer distinguer la « désinformation » de « l’information » : les deux sont réduites à des paquets de contenu de même valeur, cherchant simplement une fonction d’optimisation dans un marché libre des idées. Et les deux sont également ingérées dans une grande machinerie statistique, qui ne pèse que notre incapacité à les discerner. Le résultat ne promet rien d’autre qu’un torrent indistinct et sans fin, « où la connaissance n’a jamais été un facteur et d’où la connaissance ne peut donc jamais émerger légitimement ». « Sans topologie de l’information, nous sommes à la dérive dans le contenu, essayant en vain de naviguer dans une cascade d’absurdités sans boussole ».
« Il est grand temps de revenir à ces méthodes et à ces questions, aux milliers d’années de gestion de l’information et d’échange de connaissances qui ont transmis non seulement des faits ou du contenu, mais aussi une appréciation de ce qu’il faut pour faire émerger des vérités », plaide Vertesi. « Il n’est pas nécessaire que ce soit un projet colonial ou réductionniste. Les connaissances d’aujourd’hui sont plurielles, distribuées, issues de nombreux lieux et peuples, chacun avec des méthodes et des forces d’ancrage uniques. Cela ne signifie pas non plus que tout est permis. Le défi consiste à s’écouter les uns les autres et à intégrer des perspectives conflictuelles avec grâce et attention, et non à crier plus fort que les autres ».
« Alors que nos vies sont de plus en plus infectées par des systèmes d’IA maladroits et pilleurs et leurs flux hallucinatoires, nous devons apprendre à évaluer plutôt qu’à accepter, à synthétiser plutôt qu’à résumer, à apprécier plutôt qu’à accepter, à considérer plutôt qu’à consommer ».
« Notre paysage technologique contemporain exige de toute urgence que nous revenions à une autre des plus anciennes questions de toutes : « Qu’est-ce qui est vraiment réel ? » »