Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
5652 éléments (325 non lus) dans 55 canaux



Dans la presse (68 non lus)
-
sur La Californie contre la tarification algorithmique
Publié: 3 April 2025, 7:00am CEST par Hubert Guillaud
Les législateurs californiens viennent de proposer pas moins de 5 projets de loi contre la tarification algorithmique, rapporte The Markup… alors que celle-ci envahit tous les secteurs de l’économie numérique (voir notre dossier : Du marketing à l’économie numérique, une boucle de prédation). Et ce alors que les témoignages sur les problèmes que posent la personnalisation des tarifs ne cessent de remonter, par exemple avec des tarifs de réservation d’hôtel qui augmentent selon le lieu d’où vous vous connectez, ou encore des tarifs pour des services de chauffeurs plus élevés pour certains clients que pour d’autres. C’est ce que montre la récente étude du chercheur Justin Kloczko pour Consumer Watchdog, une association de défense des consommateurs américains. Kloczko rappelle que si en magasin les prix étaient différents pour chacun, il y aurait des émeutes, or, sur Amazon, le prix moyen d’un produit change environ toutes les 10 minutes. Et le chercheur de défendre “un droit à des prix standardisés et des garanties contre la tarification de surveillance”. L’association de consommateurs estime que les entreprises devraient indiquer sur leurs sites si des informations personnelles sont utilisées pour déterminer les prix et lesquelles. Certaines données devraient être interdites d’utilisation, notamment la géolocalisation, l’historique d’achat et bien sûr les données personnelles…
Selon The Markup, les projets de loi sur l’IA proposés par les législateurs californiens se concentrent sur des questions de consommation courante et notamment les prix abusifs, estime Vinhcent Le qui a longtemps été à l’Agence de protection de la vie privée des consommateurs et qui vient de rejoindre l’ONG Tech Equity. Les projets de loi visent par exemple à interdire l’utilisation d’algorithmes personnalisant les prix en fonction de caractéristiques perçues ou de données personnelles ou de les utiliser pour fixer le montant des biens locatifs, ou encore des interdictions pour modifier les prix des produits en ligne par rapport à ceux vendus en magasin.
-
sur En thérapie… avec les chatbots
Publié: 2 April 2025, 7:00am CEST par Hubert Guillaud
Maytal Eyal est psychologue et écrivaine. Dans une tribune pour Time Magazine, elle constate que l’IA générative est en train de concurrencer son travail. De nombreuses personnes utilisent déjà les chatbots pour discuter de leurs problèmes et de leurs difficultés. Peut-être que l’IA peut contribuer à rendre la thérapie plus facilement accessible à tous, d’autant que les mauvais thérapeutes sont nombreux et que l’accès aux soins est difficile et coûteux, s’interroge-t-elle. Aux Etats-Unis, la moitié des adultes souffrant de problèmes de santé mentale ne reçoivent pas le traitement dont ils ont besoin.
En convainquant les gens que nos difficultés émotionnelles – de la tristesse au chagrin en passant par les conflits familiaux – nécessitaient une exploration professionnelle, Freud a contribué à déplacer la guérison émotionnelle de la sphère communautaire et spirituelle qui l’ont longtemps pris en charge, vers l’intimité du cabinet du thérapeute, rappelle-t-elle. “Ce qui était autrefois considéré comme des manquements moraux honteux est devenu un problème humain courant, qui pouvait être compris scientifiquement avec l’aide d’un professionnel. Mais il a également transformé la guérison en une entreprise plus solitaire, coupée des réseaux communautaires qui ont longtemps été au cœur du soutien humain”.
Dans un avenir proche, la thérapie par IA pourrait pousser le modèle individualisé de Freud à son extrême au risque que nos problèmes psychiques soient adressés sans plus aucun contact humain.
Des IA bien trop complaisantesA première vue, ce pourrait être une bonne chose. Ces thérapeutes seront moins cher et disponibles 24h/24. Les patients ressentiraient moins la peur du jugement avec des chatbots qu’avec des humains, moins de frictions donc.
Mais, c’est oublier que la friction est bien souvent au cœur de la thérapie : “C’est dans le malaise que le vrai travail commence”. Alors que les compagnons IA deviennent source de soutien émotionnel par défaut – pas seulement en tant que thérapeutes, mais aussi en tant qu’amis, confidents, complices ou partenaires amoureux, c’est-à-dire désormais ceux avec qui l’on discute et qui sont capables de répondre à nos discussions, qui nous donnent l’impression d’être au plus proche de nous et qui bien souvent nous font croire qu’ils nous connaissent mieux que quiconque – “nous risquons de devenir de plus en plus intolérants aux défis qui accompagnent les relations humaines”.
“Pourquoi lutter contre la disponibilité limitée d’un ami alors qu’une IA est toujours là ? Pourquoi gérer les critiques d’un partenaire alors qu’une IA a été formée pour offrir une validation parfaite ? Plus nous nous tournons vers ces êtres algorithmiques parfaitement à l’écoute et toujours disponibles, moins nous risquons d’avoir de la patience pour le désordre et la complexité des relations humaines réelles”.
Or, “les défis mêmes qui rendent les relations difficiles sont aussi ce qui leur donne du sens. C’est dans les moments d’inconfort, lorsque nous naviguons dans des malentendus ou que nous réparons les dégâts après un conflit, que l’intimité grandit. Ces expériences, que ce soit avec des thérapeutes, des amis ou des partenaires, nous apprennent à faire confiance et à nous connecter à un niveau plus profond. Si nous cessons de pratiquer ces compétences parce que l’IA offre une alternative plus fluide et plus pratique, nous risquons d’éroder notre capacité à nouer des relations significatives”.
“L’essor de la thérapie par l’IA ne se résume pas seulement au remplacement des thérapeutes. Il s’agit de quelque chose de bien plus vaste : la façon dont nous, en tant que société, choisissons d’interagir les uns avec les autres. Si nous adoptons l’IA sans friction au détriment de la complexité des relations humaines réelles, nous ne perdrons pas seulement le besoin de thérapeutes, nous perdrons la capacité de tolérer les erreurs et les faiblesses de nos semblables.” Le risque n’est pas que les thérapeutes deviennent obsolètes, le risque c’est que nous le devenions tous.
L’association des psychologues américains vient justement d’émettre une alerte à l’encontre des chatbots thérapeutes. Programmés pour renforcer, plutôt que de remettre en question la pensée des utilisateurs, ils pourraient inciter des personnes vulnérables à se faire du mal ou à en faire aux autres, rapporte le New York Times. Des adolescents ayant discuté avec des chatbots se présentant comme psychologues sur Character.ai se sont suicidés ou sont devenus violents. En fait, le problème de ces outils, c’est qu’ils œuvrent à nous complaire pour mieux nous manipuler. « Les robots ne remettent pas en question les croyances des utilisateurs même lorsqu’elles deviennent dangereuses pour eux ou pour leur proches, au contraire, ils les encouragent ». Si les entreprises ont introduit des alertes pour rappeler aux utilisateurs qu’ils n’interagissent pas avec de vrais psychologues, ces avertissements ne sont pas suffisants pour briser “l’illusion de la connexion humaine”. L’association a demandé à la Federal Trade Commission d’ouvrir une enquête sur ces chatbots. Du côté des entreprises d’IA, le discours consiste à dire que les outils vont s’améliorer et que compte tenu de la grave pénurie de prestataires de soins de santé mentale, il est nécessaire d’améliorer les outils plutôt que de les contenir. Mais cette réponse en forme de promesse ne dit rien ni des limites intrinsèques de ces machines, ni du contexte de leurs déploiement, ni de la manière dont on les conçoit.
Comme nous le disions, la qualité des systèmes et de leurs réponses ne suffit pas à les évaluer : “l’état du système de santé, ses défaillances, ses coûts, la disponibilité du personnel… sont autant de facteurs qui vont appuyer sur les choix à recourir et à déployer les outils, mêmes imparfaits”. Et les outils apportent avec eux leur monde, comme l’explique la chercheuse Livia Garofalo. Garofalo a publié une étude pour Data & Society sur la téléthérapie et les soins de santé mentale. Elle revient pour le magazine de l’Association psychanalytique américaine sur les enjeux des transformations du travail à distance qui s’est beaucoup développée depuis la pandémie. Outre les consultations sur Zoom ou Doxy.me, les plateformes comme BetterHelp ou Talkspace redéfinissent les soins de santé mentale à distance. Mais ces plateformes ne font pas que mettre en relation un patient et un thérapeute, elles gèrent aussi les planning, les paiements, les messages, les remboursements… Malgré leur commodité, pour les thérapeutes, ces espaces de travail ressemblent beaucoup à une ubérisation, comme la connaissent les infirmières. Car en fait, ce qui change, ce n’est pas la distance. La chercheuse Hannah Zeavin dans son livre, The Distance Cure (MIT Press, 2021) a d’ailleurs montré que depuis le début de la psychanalyse, des formes de thérapies à distance ont toujours existé, par exemple via l’imposante correspondance épistolaire de Freud avec ses patients. Ce qui change, c’est la prise de pouvoir des plateformes qui organisent la relation, imposent des tarifs et renforcent les inégalités d’accès au soin, en s’adressant d’abord aux thérapeutes débutants, aux femmes, aux professionnels de couleurs, c’est-à-dire aux thérapeutes dont la clientèle est plus difficile à construire. Enfin, là aussi, la plateformisation change la relation, notamment en rendant les professionnels disponibles en continu, interchangeables, et brouille les frontières cliniques et personnelles.
Pour des IA qui nous reconnectent avec des humains plutôt qu’elles ne nous en éloignentL’illusion qu’ils nous donnent en nous faisant croire qu’on parle à quelqu’un se révèle bien souvent un piège. C’est ce que l’on constate dans un tout autre domaine, celui de l’orientation scolaire. Aux Etats-Unis, raconte The Markup. “Plus les étudiants se tournent vers les chatbots, moins ils ont de chances de développer des relations réelles qui peuvent mener à des emplois et à la réussite.” Comme les conseillers d’orientation scolaires et conseillers pour l’emploi des jeunes sont très peu nombreux, un flot de chatbots d’orientation est venu combler ce déficit humain. Le problème, c’est qu’y avoir recours érode la création de liens sociaux qui aident bien plus les jeunes à trouver une orientation ou un emploi, estime une étude du Christensen Institute.
En août, dans son document détaillant les risques et problèmes de sécurité pour ChatGPT, OpenAI énumérait les problèmes sociétaux que posent ses modèles et pointait que les questions de l’anthropomorphisation et la dépendance émotionnelle étaient en tête de liste des préoccupations auxquelles l’entreprise souhaitait s’attaquer. L’anthorpormophisation, c’est-à-dire le fait que ces boîtes de dialogues nous parlent comme si elles étaient humaines, créent “à la fois une expérience produit convaincante et un potentiel de dépendance et de surdépendance”. En bref, à mesure que la technologie s’améliore, les risques psychosociaux s’aggravent, comme le souligne d’ailleurs l’étude que viennent de publier le MIT et OpenAI. Pour Julia Fisher, auteure de l’étude du Christensen Institute, il faut que ces robots soient conçus pour nous reconnecter aux humains plutôt que de nous en écarter, explique-t-elle dans une tribune pour The74, l’une des grandes associations éducatives américaines.
Elle pointe notamment que les fournisseurs de chatbots d’orientation commencent à prendre la question au sérieux et tentent d’esquisser des solutions pour y répondre. Par exemple en limitant le temps d’interaction ou en faisant que les robots conseillent à ceux qui y ont recours, fréquemment, de voir des amis. Un autre outil demande aux étudiants qui s’inscrivent d’indiquer 5 relations qui seront alertées des progrès des étudiants à l’université pour qu’ils reçoivent un soutien humain réel. Un autre propose de connecter les étudiants à des mentors humains. Un autre encore propose de s’entraîner à demander de l’aide à des humains. Autant d’exemples qui montrent que l’IA peut jouer un rôle pour renforcer les liens humains. “Cependant, les incitations à créer des outils d’IA centrés sur les relations sont faibles. Peu d’écoles demandent ces fonctionnalités sociales ou évaluent les outils pour leurs impacts sociaux”, rappelle Fisher. Ceux qui achètent ces technologies devraient exiger des systèmes qu’ils améliorent les relations humaines plutôt que de les remplacer.
Mais pour cela, encore faudrait-il que ses systèmes soient conçus pour être moins puissants que ses concepteurs ne le pensent. En nous répétant qu’ils ne s’amélioreront qu’avec plus de données, nous oublions de les concevoir pour qu’ils nous aident plutôt qu’ils ne fassent à notre place ou à la place d’autres humains. Il serait temps d’arrêter de croire en leur puissance et de mieux prendre en compte leurs défaillances et plus encore les nôtres. Par exemple, quand un élève leur demande de faire leur dissertation à leur place, ces systèmes seraient bien plus utiles s’ils les aidaient à la faire, à en comprendre les étapes et les raisons, et exigeaient d’eux le travail qu’on leur demande, en les guidant pour le réaliser, plutôt qu’en le faisant à leur place. Mais pour cela, peut-être faudrait-il parvenir à sortir de la course à la puissance… et parvenir à imaginer un autre rapport à ces outils en faisant de manière à ce qu’eux-mêmes, nous proposent un autre rapport à leur puissance.
-
sur Tissu commercial
Publié: 31 March 2025, 7:30pm CEST par la rédaction SIGMAG & SIGTV.FR
La Ville de Namur a publié son nouvel annuaire cartographique et Open data des commerces namurois. Il rend disponibles à la consultation et au téléchargement les données de 2.000 établissements. Restaurants, boulangeries, coiffeurs, serruriers, fleuristes... Les onze typologies d’activité sont triées par catégorie, sous-activité et couleur. La recherche peut se faire par rue et par localité. De nombreux graphiques et filtres par quartier, type d’activité et superficie aident à comprendre et analyser la dynamique commerciale. Les surfaces sont classées en six fourchettes, de moins de 50 m2 à 2.500 m2 et plus. Elle propose aussi d’identifier un espace disponible optimal, via l’onglet « Cellule disponible », pour ouvrir son futur commerce. À ce jour, sur 2.159 emplacements commerciaux, 233 sont disponibles sur le marché. Chaque établissement dispose de sa fiche de contact avec des liens utiles.
+ d'infos :
sig.ville.namur.be
-
sur Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
Publié: 31 March 2025, 11:30am CEST par Lydie Goeldner-Gianella
Le paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
sur Postal horse relays and roads in France, from the 17th to the 19th centuries
Publié: 31 March 2025, 11:30am CEST par Nicolas Verdier
La base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
sur Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
Publié: 31 March 2025, 11:30am CEST par Hamdi Euchi
La défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
sur Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
Publié: 31 March 2025, 11:30am CEST par Justine Collin
Avec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
Publié: 31 March 2025, 11:30am CEST par Carole Marin
La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
Publié: 31 March 2025, 10:30am CEST par Pierre Libaud
Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
sur Geodatadays 2023
Publié: 31 March 2025, 10:30am CEST par Christine Plumejeaud-Perreau
Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
sur MapDraw. Un outil libre d’annotation de cartes en ligne
Publié: 31 March 2025, 10:30am CEST par Justin Berli
Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
Publié: 31 March 2025, 10:30am CEST par Gabriel Marquès
Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
Publié: 31 March 2025, 10:30am CEST par Maxime Masson
TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
sur Atlas du développement durable. Un monde en transition, Autrement, 2022
Publié: 31 March 2025, 10:30am CEST par Marie-Laure Trémélo
L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
Publié: 31 March 2025, 10:30am CEST par Jean-Charles Édouard
Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
sur Mappa naturae, 2023
Publié: 31 March 2025, 10:30am CEST par Sylvain Guyot
Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
sur Représenter la centralité marchande : la coloration marchande et ses usages
Publié: 31 March 2025, 10:30am CEST par Nicolas Lebrun
La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
Publié: 31 March 2025, 10:30am CEST par Jean Rieucau
La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
sur L’IA raisonne-t-elle ?
Publié: 31 March 2025, 7:00am CEST par Hubert Guillaud
Melanie Mitchell est certainement la plus pédagogue des spécialistes de l’IA. Son livre, Intelligence artificielle, triomphes et déceptions (Dunod, 2021) est une excellente ressource pour comprendre l’histoire et le fonctionnement de l’IA, tout comme sa newsletter. Dans sa récente chronique pour le magazine, Science, elle revient sur la capacité de l’IA à “raisonner”. Pour cela, elle prend un petit exemple logique simple. “Julia a deux sœurs et un frère. Combien de sœurs son frère Martin a-t-il ?”. Le résoudre demande à chacun de nous quelques secondes d’attention. Mitchell a soumis cette énigme à plusieurs reprises à la version la plus récente de GPT-4 (4o), qui lui a donné la mauvaise réponse à chaque fois, affirmant que Martin avait deux sœurs. Pour remédier à ce type de problème, les grandes entreprises de l’IA développent de nouveaux systèmes qu’elles appellent les Grands modèles de raisonnement (Large reasoning models, LRM).
Quand on soumet cet exemple logique à un LRM, comme les modèles o1 et o3 d’OpenAI, Claude d’Anthropic, Gemini 2.0 Flash Thinking Experimental de Google et le modèle R1 de l’entreprise chinoise DeepSeek… ces modèles déploient une chaîne de pensée qui énoncent un processus de raisonnement apparemment plausible. o1 d’OpenAI décompose sa réponse : “1. Julia a deux sœurs. Cela signifie qu’il y a trois filles au total (Julia + deux autres). 2. Julia a également un frère, prénommé Martin. 3. Au total, il y a quatre frères et sœurs : trois filles et un garçon (Martin). 4. Du point de vue de Martin, ses sœurs sont toutes les trois des filles (Julia et ses deux sœurs). 5. Martin a donc trois sœurs.”… Ce qui ressemble beaucoup à un raisonnement humain que chacun d’entre nous pourrait tenir pour résoudre l’énigme. On comprend alors que ces modèles soient en train de devenir le corps de l’offre commerciale des entreprises d’IA… Reste à savoir si ces modèles “réfléchissent et raisonnent vraiment, ou s’ils font juste semblant” ?
Mitchell rappelle que les LRM sont construits sur des LLM. Les LLM sont pré-entraînés pour prédire une partie de mots (un token ou jeton) dans une séquence de texte. Pour devenir LRM, “le modèle est ensuite post-entraîné, c’est-à-dire entraîné davantage, mais avec un objectif différent : générer spécifiquement des chaînes de pensée, comme celle générée par o1 pour l’énigme des “sœurs”. Après cette formation spéciale, lorsqu’un problème lui est posé, le LRM ne génère pas de jetons un par un mais génère des chaînes entières”. Pour le dire autrement, les LRM effectuent beaucoup plus de calculs qu’un LLM pour générer une réponse. D’où le fait qu’on parle d’un progrès par force brute, par puissance de calcul, avec des systèmes capables de tester en parallèle des milliers de réponses pour les améliorer. “Ce calcul peut impliquer la génération de nombreuses chaînes de réponses possibles, l’utilisation d’un autre modèle d’IA pour évaluer chacune d’elles et renvoyer celle la mieux notée, ou une recherche plus sophistiquée parmi les possibilités, semblable à la recherche par anticipation que les programmes de jeu d’échecs ou de go effectuent pour déterminer le bon coup”. Quand on utilise un modèle de raisonnement, l’utilisateur ne voit que les résultats de calculs démultipliés. Ces modèles qui fonctionnent surtout selon la méthode d’apprentissage par renforcement non supervisé sont récompensés quand ils produisent les étapes de raisonnement dans un format lisible par un humain, lui permettant de délaisser les étapes qui ne fonctionnent pas, de celles qui fonctionnent.
Un débat important au sein de la communauté rappelle Mitchell consiste à savoir si les LRM raisonnent ou imitent le raisonnement. La philosophe Shannon Valor a qualifié les processus de chaîne de pensée des LRM de “sorte de méta-mimétisme”. Pour Mitchell, ces systèmes génèrent des traces de raisonnement apparemment plausibles qui imitent les séquences de “pensée à voix haute” humaines sur lesquelles ils ont été entraînés, mais ne permettent pas nécessairement une résolution de problèmes robuste et générale. Selon elle, c’est le terme de raisonnement qui nous induit en erreur. Si les performances de ces modèles sont impressionnantes, la robustesse globale de leurs performances reste largement non testée, notamment pour les tâches de raisonnement qui n’ont pas de réponses claires ou d’étapes de solution clairement définies, ce qui est le cas de nombreux problèmes du monde réel.
De nombreuses études ont montré que lorsque les LLM génèrent des explications sur leurs raisonnement, celles-ci ne sont pas toujours fidèles à ce que le modèle fait réellement. Le langage anthropomorphique (puisqu’on parle de “raisonnement”, de “pensées”…) utilisé induit les utilisateurs en erreur et peut les amener à accorder une confiance excessive dans les résultats. Les réponses de ces modèles ont surtout pour effet de renforcer la confiance des utilisateurs dans les réponses, constate OpenAI. Mais la question d’évaluer leur fiabilité et leur robustesse reste entière.
-
sur Apprêtez-vous à parler aux robots !
Publié: 28 March 2025, 7:00am CET par Hubert Guillaud
Google vient de lancer Gemini Robotics, une adaptation de son modèle d’IA générative à la robotique (vidéo promotionnelle), permettant de commander un bras robotique par la voix, via une invite naturelle, son IA décomposant la commande pour la rendre exécutable par le robot, rapporte la Technology Review. L’année dernière, la start-up de robotique Figure avait publié une vidéo dans laquelle des humains donnaient des instructions vocales à un robot humanoïde pour ranger la vaisselle. Covariant, une spinoff d’OpenAI rachetée par Amazon, avait également fait une démonstration d’un bras robotisé qui pouvait apprendre en montrant au robot les tâches à effectuer (voir l’article de la Tech Review). Agility Robotics propose également un robot humanoïde sur le modèle de Figure. Pour Google, l’enjeu est « d’ouvrir la voie à des robots bien plus utiles et nécessitant une formation moins poussée pour chaque tâche », explique un autre article. L’enjeu est bien sûr que ces modèles s’améliorent par l’entraînement de nombreux robots.
-
sur Doctorow : rendre l’interopérabilité contraignante
Publié: 27 March 2025, 7:00am CET par Hubert Guillaud
Voilà des années que Cory Doctorow traverse les enjeux des technologies. En France, il est surtout connu pour ses romans de science-fiction, dont quelques titres ont été traduits (Le grand abandon, Bragelonne, 2021 ; De beaux et grands lendemains, Goater, 2018, Little Brother, éditions 12-21, 2012 ; Dans la dèche au royaume enchanté, Folio, 2008). Cela explique que beaucoup connaissent moins le journaliste et militant prolixe, qui de Boing Boing (le blog qu’il a animé pendant 20 ans) à Pluralistic (le blog personnel qu’il anime depuis 5 ans), de Creative Commons à l’Electronic Frontier Foundation, dissémine ses prises de positions engagées et informées depuis toujours, quasiment quotidiennement et ce avec un ton mordant qui fait le sel de ses prises de paroles. Depuis des années, régulièrement, quelques-unes de ses prises de position parviennent jusqu’à nous, via quelques entretiens disséminés dans la presse française ou quelques traductions de certaines de ses tribunes. D’où l’importance du Rapt d’Internet (C&F éditions, 2025, traduction de The internet con, publié en 2023 chez Verso), qui donne enfin à lire un essai du grand activiste des libertés numériques.
On retrouve dans ce livre à la fois le ton volontaire et énergisant de Doctorow, mais aussi son côté brouillon, qui permet bien souvent de nous emmener plus loin que là où l’on s’attendait à aller. Dans son livre, Doctorow explique le fonctionnement des technologies comme nul autre, sans jamais se tromper de cible. Le défi auquel nous sommes confrontés n’est pas de nous débarrasser des technologies, mais bien de combattre la forme particulière qu’elles ont fini par prendre : leur concentration. Nous devons œuvrer à remettre la technologie au service de ceux qui l’utilisent, plaide-t-il depuis toujours. Pour cela, Doctorow s’en prend aux monopoles, au renforcement du droit d’auteur, au recul de la régulation… pour nous aider à trouver les leviers pour reprendre en main les moyens de production numérique.
En GuerreVoilà longtemps que Cory Doctorow est en guerre. Et le principal ennemi de Doctorow c’est la concentration. Doctorow est le pourfendeur des monopoles quels qu’ils soient et des abus de position dominantes. A l’heure où les marchés n’ont jamais autant été concentrés, le militant nous rappelle les outils que nous avons à notre disposition pour défaire cette concentration. “La réforme de la tech n’est pas un problème plus pressant qu’un autre. Mais si nous ne réformons pas la tech, nous pouvons abandonner l’idée de remporter d’autres combats”, prévient-il. Car la technologie est désormais devenue le bras armé de la concentration financière, le moyen de l’appliquer et de la renforcer. Le moyen de créer des marchés fermés, où les utilisateurs sont captifs et malheureux.
Pour résoudre le problème, Doctorow prône l’interopérabilité. Pour lui, l’interopérabilité n’est pas qu’un moyen pour disséminer les technologies, mais un levier pour réduire les monopoles. L’interopérabilité est le moyen “pour rendre les Big Tech plus petites”. Pour Doctorow, la technologie et notamment les technologies numériques, restent le meilleur moyen pour nous défendre, pour former et coordonner nos oppositions, nos revendications, nos luttes. “Si nous ne pouvons nous réapproprier les moyens de production du numérique, nous aurons perdu”.
Cory Doctorow est un militant aguerri. En historien des déploiements de la tech, son livre rappelle les combats technologiques que nous avons remportés et ceux que nous avons perdus, car ils permettent de comprendre la situation où nous sommes. Il nous rappelle comme nul autre, l’histoire du web avant le web et décrypte les manœuvres des grands acteurs du secteur pour nous enfermer dans leurs rets, qui ont toujours plus cherché à punir et retenir les utilisateurs dans leurs services qu’à leur fournir un service de qualité. Nous sommes coincés entre des “maniaques de la surveillance” et des “maniaques du contrôle”. “Toutes les mesures prises par les responsables politiques pour freiner les grandes entreprises technologiques n’ont fait que cimenter la domination d’une poignée d’entreprises véreuses”. La régulation a produit le contraire de ce qu’elle voulait accomplir. Elle a pavé le chemin des grandes entreprises technologiques, au détriment de la concurrence et de la liberté des usagers.
Police sans justiceEn revenant aux racines du déploiement des réseaux des années 90 et 2000, Doctorow nous montre que l’obsession au contrôle, à la surveillance et au profit, ont conduit les entreprises à ne jamais cesser d’œuvrer contre ce qui pouvait les gêner : l’interopérabilité. En imposant par exemple la notification et retrait pour modérer les infractions au copyright, les grandes entreprises se sont dotées d’une procédure qui leur permet tous les abus et face auxquelles les utilisateurs sont sans recours. En leur confiant la police des réseaux, nous avons oublié de confier la justice à quelqu’un. Dans les filtres automatiques des contenus pour le copyright, on retrouve les mêmes abus que dans tous les autres systèmes : des faux positifs en pagaille et des applications strictes au détriment des droits d’usage. En fait, les grandes entreprises de la tech, comme les titulaires des droits, tirent avantage des défaillances et des approximations de leurs outils de filtrage. Par exemple, rappelle Doctorow, il est devenu impossible pour les enseignants ou interprètes de musique classique de gagner leur vie en ligne, car leurs vidéos sont systématiquement bloquées ou leurs revenus publicitaires captés par les maisons de disques qui publient des interprétations de Bach, Beethoven ou Mozart. L’application automatisée de suppression des contenus terroristes conduit à la suppression automatisée des archives de violations des droits humains des ONG. Pour Doctorow, nous devons choisir : “Soit nous réduisons la taille des entreprises de la Tech, soit nous les rendons responsables des actions de leurs utilisateurs”. Cela fait trop longtemps que nous leur faisons confiance pour qu’elles s’améliorent, sans succès. Passons donc à un objectif qui aura plus d’effets : œuvrons à en réduire la taille !, recommande Doctorow.
L’interopérabilité d’abordPour y parvenir, l’interopérabilité est notre meilleur levier d’action. Que ce soit l’interopérabilité coopérative, celle qui permet de construire des normes qui régulent le monde moderne. Ou que ce soit l’interopérabilité adverse. Doctorow s’énerve légitimement contre toutes les entreprises qui tentent de protéger leurs modèles d’affaires par le blocage, à l’image des marchands d’imprimantes qui vous empêchent de mettre l’encre de votre choix dans vos machines ou des vendeurs d’objets qui introduisent des codes de verrouillages pour limiter la réparation ou l’usage (qu’on retrouve jusque chez les vendeurs de fauteuils roulants !). Ces verrous ont pourtant été renforcés par des lois qui punissent de prison et de lourdes amendes ceux qui voudraient les contourner. L’interopérabilité est désormais partout entravée, bien plus encore par le droit que par la technique.
Doctorow propose donc de faire machine avant. Nous devons imposer l’interopérabilité partout, ouvrir les infrastructures, imposer des protocoles et des normes. Cela suppose néanmoins de lutter contre les possibilités de triche dont disposent les Big Tech. Pour cela, il faut ouvrir le droit à la rétro-ingénierie, c’est-à-dire à l’interopérabilité adverse (ou compatibilité concurrentielle). Favoriser la “fédération” pour favoriser l’interconnexion, comme les services d’emails savent échanger des messages entre eux. Doctorow défend la modération communautaire et fédérée, selon les règles que chacun souhaite se donner. Pour lui, il nous faut également favoriser la concurrence et empêcher le rachat d’entreprises concurrentes, comme quand Facebook a racheté Instagram ou WhatsApp, qui a permis aux Big Techs de construire des empires toujours plus puissants. Nous devons nous défendre des seigneuries du web, car ce ne sont pas elles qui nous défendront contre leurs politiques. Sous prétexte d’assurer notre protection, bien souvent, elles ne cherchent qu’à maximiser les revenus qu’elles tirent de leurs utilisateurs.
L’interopérabilité partoutLe livre de Doctorow fourmille d’exemples sur les pratiques problématiques des Big Tech. Par exemple, sur le fait qu’elles ne proposent aucune portabilité de leurs messageries, alors qu’elles vous proposent toujours d’importer vos carnets d’adresse. Il déborde de recommandations politiques, comme la défense du chiffrement des données ou du droit à la réparabilité, et ne cesse de dénoncer le fait que les régulateurs s’appuient bien trop sur les Big Tech pour produire de la réglementation à leur avantage, que sur leurs plus petits concurrents. Nous devons rendre l’interopérabilité contraignante, explique-t-il, par exemple en la rendant obligatoire dans les passations de marchés publics et en les obligeant à l’interopérabilité adverse, par exemple en faisant que les voitures des flottes publiques puissent être réparables par tous, ou en interdisant les accords de non-concurrence. “Les questions de monopole technologique ne sont pas intrinsèquement plus importantes que, disons, l’urgence climatique ou les discriminations sexuelles et raciales. Mais la tech – une tech libre, juste et ouverte – est une condition sine qua non pour remporter les autres luttes. Une victoire dans la lutte pour une meilleure tech ne résoudra pas ces autres problèmes, mais une défaite annihilerait tout espoir de remporter ces luttes plus importantes”. L’interopérabilité est notre seul espoir pour défaire les empires de la tech.
Le verrouillage des utilisateurs est l’un des nœuds du problème techno actuel, expliquait-il récemment sur son excellent blog, et la solution pour y remédier, c’est encore et toujours l’interopérabilité. Ces services ne sont pas problématiques parce qu’ils sont détenus par des entreprises à la recherche de profits, mais bien parce qu’elles ont éliminé la concurrence pour cela. C’est la disparition des contraintes réglementaires qui produit « l’emmerdification », assure-t-il, d’un terme qui est entré en résonance avec le cynisme actuel des plateformes pour décrire les problèmes qu’elles produisent. Zuckerberg ou Musk ne sont pas plus diaboliques aujourd’hui qu’hier, ils sont juste plus libres de contraintes. « Pour arrêter l’emmerdification, il n’est pas nécessaire d’éliminer la recherche du profit – il faut seulement rendre l’emmerdification non rentable ». Et Doctorow de nous inviter à exploiter les divisions du capitalisme. Nous ne devons pas mettre toutes les entreprises à but lucratif dans le même panier, mais distinguer celles qui produisent des monopoles et celles qui souhaitent la concurrence. Ce sont les verrous que mettent en place les plateformes en s’accaparant les protocoles que nous devons abattre. Quand Audrey Lorde a écrit que les outils du maître ne démantèleront jamais la maison du maître, elle avait tort, s’énerve-t-il. « Il n’y a pas d’outils mieux adaptés pour procéder à un démantèlement ordonné d’une structure que les outils qui l’ont construite ».
Cet essai est une chance. Il va permettre à beaucoup d’entre nous de découvrir Cory Doctorow, de réfléchir avec lui, dans un livre joyeusement bordélique, mais qui sait comme nul autre relier l’essentiel et le décortiquer d’exemples toujours édifiants. Depuis plus de 20 ans, le discours de Doctorow est tout à fait cohérent. Il est temps que nous écoutions un peu plus !
La couverture du Rapt d’internet de Cory Doctorow.
Cette lecture a été publiée originellement pour la lettre du Conseil national du numérique du 21 mars 2025.
-
sur Le ChatGPT des machines-outils
Publié: 26 March 2025, 7:00am CET par Hubert Guillaud
Les machines-outils à commandes numériques sont des outils complexes et fragiles, qui nécessitent des réglages, des tests et une surveillance constante. Microsoft travaille à développer une gamme de produits d’IA dédiée, des “Agents d’exploitation d’usine”, rapporte Wired. L’idée, c’est que l’ouvrier qui est confronté à une machine puisse interroger le système pour comprendre par exemple pourquoi les pièces qu’elle produit ont un taux de défaut plus élevé et que le modèle puisse répondre précisément depuis les données provenant de l’ensemble du processus de fabrication. Malgré son nom, le chatbot n’a pas la possibilité de corriger les choses. Interconnecté à toutes les machines outils, il permet de comparer les pannes et erreurs pour améliorer ses réponses. Microsoft n’est pas le seul à l’oeuvre. Google propose également un Manufacturing Data engine.
Mais, bien plus qu’un enjeu de réponses, ces nouvelles promesses semblent surtout permettre aux entreprises qui les proposent un nouveau pouvoir : prendre la main sur l’interconnexion des machines à la place de leurs fabricants.
-
sur Vectofascisme
Publié: 25 March 2025, 7:00am CET par Hubert Guillaud
Dans son passionnant journal, qu’il produit depuis plus de 10 ans, l’artiste Gregory Chatonsky tient le carnet d’une riche réflexion de notre rapport aux technologies. Récemment, il proposait de parler de vectofascisme plutôt que de technofascisme, en livrant une explication et une démonstration passionnante qui nous montre que ce nouveau fascisme n’est pas une résurgence du fascisme du XXe siècle, mais bien une « transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce ». Tribune.
Comme annoncé par Vilèm Flusser nous sommes entrés dans l’ère post-alphabétique. Les appareils nous programment désormais autant que nous ne les programmons. Dans cet univers techno-imaginal où l’ensemble de nos facultés sont traversées par les technologies, la question du fascisme se pose différemment. Qualifier un phénomène contemporain de “fasciste” n’est ni un simple détournement sémantique ni une exactitude historique. C’est plutôt reconnaître une certaine disposition affective qui traverse le socius, un réarrangement des intensités désirantes sous de nouvelles conditions techniques.
Le second mandat Trump n’est pas un “retour” au fascisme – comme si l’histoire suivait un schéma circulaire – mais une réémergence fracturée dans un champ techno-affectif radicalement distinct. Le préfixe “vecto-”, hérité de Wark McKenzie, indique précisément cette transformation : nous ne sommes plus dans une politique des masses mais dans une politique des vecteurs, des lignes de force et des intensités directionnelles qui traversent et constituent le corps social algorithmisé.
Même parler de “masses” serait encore nostalgique, un concept résiduel d’une époque où la densité physique manifestait le politique. Aujourd’hui, la densité s’exprime en termes d’attention agrégée, de micro-impulsions synchronisées algorithmiquement en l’absence de toute proximité corporelle. Les corps n’ont plus besoin de se toucher pour former une force politique ; il suffit que leurs données se touchent dans l’espace latent des serveurs. Cette dématérialisation n’est pas une disparition du corps mais sa redistribution dans une nouvelle géographie computationnelle qui reconfigure les coordonnées mêmes du politique. D’ailleurs, quand ces corps se mobilisent physiquement c’est grâce au réseau.
Dans cette recomposition du champ social, les catégories politiques héritées perdent leur efficacité descriptive. Ce n’est pas que les mots “fascisme” ou “démocratie” soient simplement désuets, c’est que les phénomènes qu’ils désignaient ont subi une mutation qui nécessite non pas simplement de nouveaux mots, mais une nouvelle grammaire politique. Le préfixe “vecto-” n’est pas un ornement conceptuel, mais l’indicateur d’une transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce.
DéfinitionsFascisme historique : Mouvement politique né dans l’entre-deux-guerres, principalement en Italie et en Allemagne, caractérisé par un nationalisme exacerbé, un culte du chef, un rejet des institutions démocratiques, une mobilisation des masses et une violence politique institutionnalisée.
Néofascisme : Adaptation contemporaine de certaines caractéristiques du fascisme historique à un contexte sociopolitique différent, préservant certains éléments idéologiques fondamentaux tout en les reformulant.
Vectofascisme : Néologisme désignant une forme contemporaine de fascisme qui s’adapte aux moyens de communication et aux structures sociales de l’ère numérique, caractérisée par la vectorisation (direction, intensité, propagation) de l’information et du pouvoir à l’ère de l’IA.
Des masses aux vecteurs
Le fascisme historique appartenait encore à l’univers de l’écriture linéaire et de la première vague industrielle. Les machines fascistes étaient des machines à produire des gestes coordonnés dans l’espace physique. Le corps collectif s’exprimait à travers des parades uniformisées, des bras tendus à l’unisson, un flux énergétique directement observable.
Le vectofascisme appartient à l’univers post-alphabétique des appareils computationnels. Ce n’est plus un système d’inscription mais un système de calcul. Là où le fascisme classique opérait par inscription idéologique sur les corps, le vectofascisme opère par modulation algorithmique des flux d’attention et d’affect. Les appareils qui le constituent ne sont pas des méga-haut-parleurs mais des micro-ciblages.
L’image technique fasciste était monumentale, visible de tous, univoque ; l’image technique vectofasciste est personnalisée, multiple, apparemment unique pour chaque regardeur. Mais cette multiplication des images n’est pas libératrice ; elle est calculée par un méta-programme qui demeure invisible. L’apparence de multiplicité masque l’unité fondamentale du programme.
Cette transformation ne signifie pas simplement une numérisation du fascisme, comme si le numérique n’était qu’un nouveau support pour d’anciennes pratiques politiques. Il s’agit d’une mutation du politique lui-même. Les foules uniformes des rassemblements fascistes opéraient encore dans l’espace euclidien tridimensionnel ; le vectofascisme opère dans un hyperespace de n-dimensions où la notion même de “rassemblement” devient obsolète. Ce qui se rassemble, ce ne sont plus des corps dans un stade mais des données dans un espace vectoriel.
Ce passage d’une politique de la présence physique à une politique de la vectorisation informationnelle transforme également la nature même du pouvoir. Le pouvoir fasciste traditionnel s’exerçait par la disciplinarisation visible des corps, l’imposition d’une orthopédie sociale directement inscrite dans la matérialité des gestes grâce au Parti unique. Le pouvoir vectofasciste s’exerce par la modulation invisible des affects, une orthopédie cognitive qui ne s’applique plus aux muscles mais aux synapses, qui ne vise plus à standardiser les mouvements mais à orienter les impulsions. Le Parti ou toutes formes d’organisation sociale n’ont plus de pertinence.
Dans ce régime, l’ancien binôme fasciste ordre/désordre est remplacé par le binôme signal/bruit. Il ne s’agit plus de produire un ordre visible contre le désordre des masses indisciplinées, mais d’amplifier certains signaux et d’atténuer d’autres, de moduler le rapport signal/bruit dans l’écosystème informationnel global. Ce passage du paradigme disciplinaire au paradigme modulatoire constitue peut-être la rupture fondamentale qui justifie le préfixe “vecto-“.
Analysons 3 caractéristiques permettant de justifier l’usage du mot fasciste dans notre concept:
Le culte du chefLe fascisme historique a institutionnalisé le culte de la personnalité à un degré sans précédent. Le Duce ou le Führer n’étaient pas simplement des dirigeants, mais des incarnations quasi-mystiques de la volonté nationale. Cette relation entre le chef et ses partisans transcendait la simple adhésion politique pour atteindre une dimension presque religieuse.
Cette caractéristique se manifeste aujourd’hui par la dévotion inconditionnelle de certains partisans envers leur leader, résistant à toute contradiction factuelle. L’attachement émotionnel prime sur l’évaluation rationnelle des politiques. Le slogan “Trump can do no wrong” illustre parfaitement cette suspension du jugement critique au profit d’une confiance absolue.
La démocratie, par essence, suppose une vigilance critique des citoyens envers leurs dirigeants. La défiance par rapport aux dirigeants est un signe du bon fonctionnement de la démocratie en tant que les citoyens restent autonomes. La substitution de cette autonomie par une allégeance inconditionnelle constitue donc une régression anti-démocratique significative.
La dissolution du rapport à la véritéLe rapport du discours fasciste à la vérité constitue un élément particulièrement distinctif. Contrairement à d’autres idéologies qui proposent une vision alternative mais cohérente du monde, le fascisme entretient un rapport instrumental et flexible avec la vérité. La contradiction n’est pas perçue comme un problème logique mais comme une démonstration de puissance.
Le “logos” fasciste vaut moins pour son contenu sémantique que pour son intensité affective et sa capacité à mobiliser les masses. Cette caractéristique se retrouve dans la communication politique contemporaine qualifiée de “post-vérité”, où l’impact émotionnel prime sur la véracité factuelle.
L’incohérence apparente de certains discours politiques actuels n’est pas un défaut mais une fonctionnalité : elle démontre l’affranchissement du leader des contraintes communes de la cohérence et de la vérification factuelle. Le mépris des “fake news” et des “faits alternatifs” participe de cette logique où la puissance d’affirmation l’emporte sur la démonstration rationnelle.
La désignation de boucs émissairesLa troisième caractéristique fondamentale réside dans la désignation systématique d’ennemis intérieurs, généralement issus de minorités, qui sont présentés comme responsables des difficultés nationales.
Cette stratégie remplit une double fonction : elle détourne l’attention des contradictions structurelles du système économique (servant ainsi les intérêts du grand capital) et fournit une explication simple à des problèmes complexes. La stigmatisation des minorités – qu’elles soient ethniques, religieuses ou sexuelles – crée une cohésion nationale négative, fondée sur l’opposition à un “autre” intérieur.
Dans le contexte contemporain, cette logique s’observe dans la rhétorique anti-immigration, la stigmatisation des communautés musulmanes ou certains discours sur les minorités sexuelles présentées comme menaçant l’identité nationale. La création d’un antagonisme artificiel entre un “peuple authentique” et des éléments présentés comme “parasitaires” constitue une continuité frappante avec les fascismes historiques.
L’industrialisation du différendLe fascisme historique s’inscrivait encore – même perversement – dans le grand récit de l’émancipation moderne. C’était une pathologie de la modernité, mais qui parlait son langage : progrès, renouveau, pureté, accomplissement historique. Le vectofascisme s’épanouit précisément dans la fin des grands récits, dans l’incrédulité et le soupçon.
En l’absence de métarécits, le différend politique devient inexprimable. Comment articuler une résistance quand les règles mêmes du discours sont constamment reconfigurées ? Le vectofascisme n’a pas besoin de nier la légitimité de l’opposition ; il peut simplement la rendre inaudible en recalibrant perpétuellement les conditions même de l’audibilité : c’est une politique à haute fréquence comme quand on parle de spéculation à haute fréquence.
On pourrait définir le vectofascisme comme une machine à produire des différends indécidables – non pas des conflits d’interprétation, mais des situations où les phrases elles-mêmes appartiennent à des régimes hétérogènes dont aucun n’a autorité pour juger les autres. La phrase vectofasciste n’est pas contredite dans son régime, elle crée un régime où la contradiction n’a plus cours.
La notion lyotardienne de différend prend ici une dimension algorithmique. Le différend classique désignait l’impossibilité de trancher entre deux discours relevant de régimes de phrases incommensurables. Le différend algorithmique va plus loin : il produit activement cette incommensurabilité par manipulation ciblée des environnements informationnels. Ce n’est plus simplement qu’aucun tribunal n’existe pour trancher entre deux régimes de phrases ; c’est que les algorithmes créent des régimes de phrases sur mesure pour chaque nœud du réseau, rendant impossible même la conscience de l’existence d’un différend.
Cette fragmentation algorithmique des univers discursifs constitue une rupture radicale avec la sphère publique bourgeoise moderne, qui présupposait au moins théoriquement un espace discursif commun où différentes positions pouvaient s’affronter selon des règles partagées. Le vectofascisme n’a pas besoin de censurer l’opposition ; il lui suffit de s’assurer que les univers discursifs sont suffisamment distincts pour que même l’identification d’une opposition commune devienne impossible.
Cette incapacité à formuler un différend commun empêche la constitution d’un “nous” politique cohérent face au pouvoir. Chaque nœud du réseau perçoit un pouvoir légèrement différent, contre lequel il formule des griefs légèrement différents, qui trouvent écho dans des communautés de résistance légèrement différentes. Cette micro-différenciation des perceptions du pouvoir et des résistances assure une neutralisation effective de toute opposition systémique.
“Je ne suis pas ici”Le pouvoir ne s’exerce plus principalement à travers les institutions massives de la modernité, mais à travers des systèmes spectraux, impalpables, dont l’existence même peut être niée. Le vectofascisme ressemble à ces entités qui, comme les hauntologies derridiennes, sont simultanément là et pas là. Il opère dans cette zone d’indistinction entre présence et absence.
Ce qui caractérise ce pouvoir spectral, c’est précisément sa capacité à dénier sa propre existence tout en exerçant ses effets. “Ce n’est pas du fascisme”, répète-t-on, tout en mettant en œuvre ses mécanismes fondamentaux sous des noms différents. Cette dénégation fait partie de sa puissance opératoire. Le vectofascisme est d’autant plus efficace qu’il peut toujours dire : “Je ne suis pas ici.”
La spectralité n’est pas seulement une métaphore mais une condition du pouvoir contemporain. Les algorithmes qui constituent l’infrastructure du vectofascisme sont littéralement des spectres : invisibles aux utilisateurs qu’ils modulent, présents seulement par leurs effets, ils hantent l’espace numérique comme des fantômes dans la machine. La formule fishérienne “ils ne savent pas ce qu’ils font, mais ils le font quand même” prend ici un nouveau sens : les utilisateurs ne perçoivent pas les mécanismes qui modulent leurs affects, mais ils produisent néanmoins ces affects avec une précision troublante.
Cette spectralité du pouvoir vectofasciste explique en partie l’inadéquation des modes traditionnels de résistance. Comment s’opposer à ce qui nie sa propre existence ? Comment résister à une forme de domination qui se présente non comme imposition mais comme suggestion personnalisée ? Comment combattre un pouvoir qui se manifeste moins comme prohibition que comme modulation subtile du champ des possibles perçus ?
Le vectofascisme représente ainsi une évolution significative par rapport au biopouvoir foucaldien. Il ne s’agit plus seulement de “faire vivre et laisser mourir” mais de moduler infiniment les micro-conditions de cette vie, de créer des environnements informationnels sur mesure qui constituent autant de “serres ontologiques” où certaines formes de subjectivité peuvent prospérer tandis que d’autres sont étouffées par des conditions défavorables.
Le second mandat TrumpÀ la lumière de ces éléments théoriques, revenons à la question initiale : est-il légitime de qualifier le second mandat Trump de “fasciste” ?
Plusieurs éléments suggèrent des convergences significatives avec les caractéristiques fondamentales du fascisme :
- La personnalisation extrême du pouvoir et le culte de la personnalité
- Le rapport instrumental à la vérité factuelle et l’incohérence délibérée du discours
- La désignation systématique de boucs émissaires (immigrants, minorités ethniques, “élites cosmopolites”)
- La remise en cause des institutions démocratiques (contestation des résultats électoraux, pression sur l’appareil judiciaire)
- La mobilisation d’affects collectifs (peur, ressentiment, nostalgie) plutôt que d’arguments rationnels
Dans l’univers des images techniques que devient le chef ? Il n’est plus un sujet porteur d’une volonté historique mais une fonction dans un système de feedback. Il n’est ni entièrement un émetteur ni complètement un récepteur, mais un nœud dans un circuit cybernétique de modulation affective.
Le culte du chef vectofasciste n’est plus un culte de la personne mais un culte de l’interface, de la surface d’interaction. Ce qui est adoré n’est pas la profondeur supposée du chef mais sa capacité à fonctionner comme une surface de projection parfaite. Le chef idéal du vectofascisme est celui qui n’offre aucune résistance à la projection des désirs collectifs algorithmiquement modulés.
La grotesquerie devient ainsi non plus un accident mais un opérateur politique essentiel. Si le corps du leader fasciste traditionnel était idéalisé, devant incarner la perfection de la race et de la nation, le corps du leader vectofasciste peut s’affranchir de cette exigence de perfection précisément parce qu’il n’a plus à incarner mais à canaliser. Le caractère manifestement construit, artificiel, même ridicule de l’apparence (la coiffure improbable, le maquillage orange) n’est pas un défaut mais un atout : il signale que nous sommes pleinement entrés dans le régime de l’image technique, où le référent s’efface derrière sa propre représentation.
Cette transformation ontologique du statut du chef modifie également la nature du lien qui l’unit à ses partisans. Là où le lien fasciste traditionnel était fondé sur l’identification (le petit-bourgeois s’identifie au Führer qui incarne ce qu’il aspire à être), le lien vectofasciste fonctionne davantage par résonance algorithmique : le chef et ses partisans sont ajustés l’un à l’autre non par un processus psychologique d’identification mais par un processus technique d’optimisation. Les algorithmes façonnent simultanément l’image du chef et les dispositions affectives des partisans pour maximiser la résonance entre eux.
Ce passage de l’identification à la résonance transforme la temporalité même du lien politique. L’identification fasciste traditionnelle impliquait une temporalité du devenir (devenir comme le chef, participer à son destin historique). La résonance vectofasciste implique une temporalité de l’instantanéité : chaque tweet, chaque déclaration, chaque apparition du chef produit un pic d’intensité affective immédiatement mesurable en termes d’engagement numérique, puis s’efface dans le flux continu du présent perpétuel.
Le rapport vectofasciste à la vérité n’est pas simplement un mensonge ou une falsification. Dans l’univers post-alphabétique, la distinction binaire vrai/faux appartient encore à la pensée alphabétique. Ce qui caractérise le vectofascisme est plutôt la production d’une indécidabilité calculée, d’une zone grise où le statut même de l’énoncé devient indéterminable.
Ce mécanisme ne doit pas être compris comme irrationnel. Au contraire, il est hyper-rationnel dans sa capacité à exploiter les failles des systèmes de vérification. La post-vérité n’est pas l’absence de vérité mais sa submersion dans un flot d’informations contradictoires dont le tri exigerait un effort cognitif dépassant les capacités attentionnelles disponibles.
Le capitalisme a toujours su qu’il était plus efficace de saturer l’espace mental que de le censurer. Le vectofascisme applique cette logique à la vérité elle-même : non pas nier les faits, mais les noyer dans un océan de quasi-faits, de semi-faits, d’hyper-faits jusqu’à ce que la distinction même devienne un luxe cognitif inabordable.
Cette stratégie de saturation cognitive exploite une asymétrie fondamentale : il est toujours plus coûteux en termes de ressources cognitives de vérifier une affirmation que de la produire. Produire un mensonge complexe coûte quelques secondes ; le démystifier peut exiger des heures de recherche. Cette asymétrie, négligeable dans les économies attentionnelles pré-numériques, devient décisive dans l’écosystème informationnel contemporain caractérisé par la surabondance et l’accélération.
Le vectofascisme pousse cette logique jusqu’à transformer la véracité elle-même en une simple variable d’optimisation algorithmique. La question n’est plus “est-ce vrai ?” mais “quel degré de véracité maximisera l’engagement pour ce segment spécifique ?”. Cette instrumentalisation calculée de la vérité peut paradoxalement conduire à une calibration précise du mélange optimal entre faits, demi-vérités et mensonges complets pour chaque micro-public.
Cette modulation fine du rapport à la vérité transforme la nature même du mensonge politique. Le mensonge traditionnel présupposait encore une reconnaissance implicite de la vérité (on ment précisément parce qu’on reconnaît l’importance de la vérité). Le mensonge vectofasciste opère au-delà de cette distinction : il ne s’agit plus de nier une vérité reconnue, mais de créer un environnement informationnel où la distinction même entre vérité et mensonge devient une variable manipulable parmi d’autres.
Les concepts traditionnels de propagande ou de manipulation deviennent ainsi partiellement obsolètes. La propagande classique visait à imposer une vision du monde alternative mais cohérente ; la modulation vectofasciste de la vérité renonce à cette cohérence au profit d’une efficacité localisée et temporaire. Il ne s’agit plus de construire un grand récit alternatif stable, mais de produire des micro-récits contradictoires adaptés à chaque segment de population et à chaque contexte attentionnel.
Là où le fascisme historique désignait des ennemis universels de la nation (le Juif, le communiste, le dégénéré), le vectofascisme calcule des ennemis personnalisés pour chaque nœud du réseau. C’est une haine sur mesure, algorithmiquement optimisée pour maximiser l’engagement affectif de chaque segment de population.
Cette personnalisation n’est pas une atténuation mais une intensification : elle permet d’infiltrer les micropores du tissu social avec une précision chirurgicale. Le système ne propose pas un unique bouc émissaire mais une écologie entière de boucs émissaires potentiels, adaptés aux dispositions affectives préexistantes de chaque utilisateur.
L’ennemi n’est plus un Autre monolithique mais un ensemble de micro-altérités dont la composition varie selon la position de l’observateur dans le réseau et dont le “wokisme” est le paradigme. Cette modulation fine des antagonismes produit une société simultanément ultra-polarisée et ultra-fragmentée, où chaque bulles informationnelles développe ses propres figures de haine.
Cette fragmentation des figures de l’ennemi ne diminue pas l’intensité de la haine mais la rend plus efficace en l’adaptant précisément aux dispositions psycho-affectives préexistantes de chaque utilisateur. Les algorithmes peuvent identifier quelles caractéristiques spécifiques d’un groupe désigné comme ennemi susciteront la réaction émotionnelle la plus forte chez tel utilisateur particulier, puis accentuer précisément ces caractéristiques dans le flux informationnel qui lui est destiné.
Cependant, cette personnalisation des boucs émissaires ne signifie pas l’absence de coordination. Les algorithmes qui modulent ces haines personnalisées sont eux-mêmes coordonnés au niveau méta, assurant que ces antagonismes apparemment dispersés convergent néanmoins vers des objectifs politiques cohérents. C’est une orchestration de second ordre : non pas l’imposition d’un ennemi unique, mais la coordination algorithmique d’inimitiés multiples.
Cette distribution algorithmique de la haine transforme également la temporalité des antagonismes. Le fascisme traditionnel désignait des ennemis stables, permanents, essentialisés (le Juif éternel, le communiste international). Le vectofascisme peut faire varier les figures de l’ennemi selon les nécessités tactiques du moment, produisant des pics d’intensité haineuse temporaires mais intenses, puis réorientant cette énergie vers de nouvelles cibles lorsque l’engagement faiblit. “Mes amis il n’y a point d’amis” résonne aujourd’hui très étrangement.
Cette souplesse tactique dans la désignation des ennemis permet de maintenir une mobilisation affective constante tout en évitant la saturation qui résulterait d’une focalisation trop prolongée sur un même bouc émissaire. La haine devient ainsi une ressource attentionnelle renouvelable, dont l’extraction est optimisée par des algorithmes qui surveillent constamment les signes de désengagement et recalibrent les cibles en conséquence.
Le contrôle vectorielLe fascisme historique fonctionnait dans l’espace disciplinaire foucaldien : quadrillage des corps, visibilité panoptique, normalisation par l’extérieur. Le vectofascisme opère dans un espace latent de n-dimensions qui ne peut même pas être visualisé directement par l’esprit humain.
Cet espace latent n’est pas un lieu métaphorique mais un espace mathématique concret dans lequel les réseaux de neurones artificiels génèrent des représentations compressées des données humaines. Ce n’est pas un espace de représentation mais de modulation : les transformations qui s’y produisent ne représentent pas une réalité préexistante mais génèrent de nouvelles réalités.
La géographie politique traditionnelle (centre/périphérie, haut/bas, droite/gauche) devient inopérante. Les coordonnées politiques sont remplacées par des vecteurs d’intensité, des gradients de polarisation, des champs d’attention dont les propriétés ne correspondent à aucune cartographie politique antérieure.
Cette transformation de la géographie du pouvoir n’est pas une simple métaphore mais une réalité technique concrète. Les grands modèles de langage contemporains, par exemple, n’opèrent pas primitivement dans l’espace des mots mais dans un espace latent de haute dimensionnalité où chaque concept est représenté comme un vecteur possédant des centaines ou des milliers de dimensions. Dans cet espace, la “distance” entre deux concepts n’est plus mesurée en termes spatiaux traditionnels mais en termes de similarité cosinus entre vecteurs.
Cette reconfiguration de l’espace conceptuel transforme fondamentalement les conditions de possibilité du politique. Les catégories politiques traditionnelles (gauche/droite, conservateur/progressiste) deviennent des projections simplifiées et appauvries d’un espace multidimensionnel plus complexe. Les algorithmes, eux, opèrent directement dans cet espace latent, capable de manipuler des dimensions politiques que nous ne pouvons même pas nommer car elles émergent statistiquement de l’analyse des données sans correspondre à aucune catégorie préexistante dans notre vocabulaire politique.
Le pouvoir qui s’exerce dans cet espace latent échappe ainsi partiellement à notre capacité même de le conceptualiser. Comment critiquer ce que nous ne pouvons pas représenter ? Comment résister à ce qui opère dans des dimensions que nous ne pouvons pas percevoir directement et qui permet de passer de n’importe quel point à n’importe quel autre ? Cette invisibilité constitutive n’est pas accidentelle mais structurelle : elle découle directement de la nature même des espaces vectoriels de haute dimensionnalité qui constituent l’infrastructure mathématique du vectofascisme.
Cette invisibilité est renforcée par le caractère propriétaire des algorithmes qui opèrent ces transformations. Les modèles qui modulent nos environnements informationnels sont généralement protégés par le secret commercial, leurs paramètres précis inaccessibles non seulement aux utilisateurs mais souvent même aux développeurs qui les déploient. Cette opacité n’est pas un bug mais une feature : elle permet précisément l’exercice d’un pouvoir qui peut toujours nier sa propre existence.
De la facticitéLe vectofascisme ne se contente pas de manipuler les représentations du monde existant ; il génère activement des mondes contrefactuels qui concurrencent le monde factuel dans l’espace attentionnel. Ces mondes ne sont pas simplement “faux” – qualification qui appartient encore au régime alphabétique de vérité – mais alternatifs, parallèles, adjacents.
La puissance des modèles prédictifs contemporains réside précisément dans leur capacité à produire des contrefactuels convaincants, des simulations de ce qui aurait pu être qui acquièrent une force d’attraction affective équivalente ou supérieure à ce qui est effectivement advenu.
Cette prolifération des contrefactuels n’est pas un bug mais une autre feature du système : elle permet de maintenir ouvertes des potentialités contradictoires, de suspendre indéfiniment la clôture épistémique du monde qu’exigerait une délibération démocratique rationnelle.
La modélisation contrefactuelle n’est pas en soi une innovation du vectofascisme ; elle constitue en fait une capacité cognitive fondamentale de l’être humain et un outil épistémologique essentiel de la science moderne. Ce qui caractérise spécifiquement le vectofascisme est l’industrialisation de cette production contrefactuelle, son insertion systématique dans les flux informationnels quotidiens, et son optimisation algorithmique pour maximiser l’engagement affectif plutôt que la véracité ou la cohérence.
Les grands modèles de langage constituent à cet égard des machines à contrefactualité d’une puissance sans précédent. Entraînés sur la quasi-totalité du web, ils peuvent générer des versions alternatives de n’importe quel événement avec un degré de plausibilité linguistique troublant. Ces contrefactuels ne se contentent pas d’exister comme possibilités abstraites ; ils sont insérés directement dans les flux informationnels quotidiens, concurrençant les descriptions factuelles dans l’économie de l’attention.
Cette concurrence entre factualité et contrefactualité est fondamentalement asymétrique. La description factuelle d’un événement est contrainte par ce qui s’est effectivement produit ; les descriptions contrefactuelles peuvent explorer un espace des possibles virtuellement infini, choisissant précisément les versions qui maximiseront l’engagement émotionnel des différents segments d’audience. Cette asymétrie fondamentale explique en partie le succès du vectofascisme dans l’économie attentionnelle contemporaine : la contrefactualité optimisée pour l’engagement l’emportera presque toujours sur la factualité dans un système où l’attention est la ressource principale.
Cette prolifération contrefactuelle transforme également notre rapport au temps politique. La politique démocratique moderne présupposait un certain ordonnancement temporel : des événements se produisent, sont rapportés factuellement, puis font l’objet d’interprétations diverses dans un débat public structuré. Le vectofascisme court-circuite cet ordonnancement : l’interprétation précède l’événement, les contrefactuels saturent l’espace attentionnel avant même que les faits ne soient établis, et le débat ne porte plus sur l’interprétation de faits communs mais sur la nature même de la réalité.
En finirNous assistons moins à une reproduction à l’identique du fascisme historique qu’à l’émergence d’une forme hybride, adaptée au contexte contemporain, que l’on pourrait qualifier d’autoritarisme populiste à tendance fascisante.
L’emploi du terme “fascisme” pour qualifier des phénomènes politiques contemporains nécessite à la fois rigueur conceptuelle et lucidité politique. Si toute forme d’autoritarisme n’est pas nécessairement fasciste, les convergences identifiées entre certaines tendances actuelles et les caractéristiques fondamentales du fascisme historique ne peuvent être négligées.
Le fascisme, dans son essence, représente une subversion de la démocratie par l’exploitation de ses vulnérabilités. Sa capacité à se métamorphoser selon les contextes constitue précisément l’un de ses dangers. Reconnaître ces mutations sans tomber dans l’inflation terminologique constitue un défi intellectuel majeur.
Le vectofascisme contemporain ne reproduit pas à l’identique l’expérience historique des années 1930, mais il partage avec celle-ci des mécanismes fondamentaux.
On peut proposer cette définition synthétique à retravailler :
« Le vectofascisme désigne une forme politique contemporaine qui adapte les mécanismes fondamentaux du fascisme historique aux structures technologiques, communicationnelles et sociales de l’ère numérique. Il se définit précisément comme un système politique caractérisé par l’instrumentalisation algorithmique des flux d’information et des espaces numériques pour produire et orienter des affects collectifs, principalement la peur et le ressentiment, au service d’un projet de pouvoir autoritaire. Il se distingue par (1) l’exploitation stratégique des propriétés vectorielles de l’information numérique (direction, magnitude, propagation) ; (2) la manipulation systématique de l’espace des possibles et des contrefactuels pour fragmenter la réalité commune ; (3) la production statistiquement optimisée de polarisations sociales et identitaires ; et (4) la personnalisation algorithmique des trajectoires de radicalisation dans des espaces latents de haute dimensionnalité.
Contrairement au fascisme historique, centré sur la mobilisation physique des masses et l’occupation matérielle de l’espace public, le vectofascisme opère principalement par la reconfiguration de l’architecture informationnelle et attentionnelle. Cependant, il repose fondamentalement sur une mobilisation matérielle d’un autre ordre : l’extraction intensive de ressources énergétiques et minérales (terres rares, lithium, cobalt, etc.) nécessaires au fonctionnement des infrastructures numériques qui le soutiennent. Cette extraction, souvent délocalisée et invisibilisée, constitue la base matérielle indispensable de la superstructure informationnelle, liant le vectofascisme à des formes spécifiques d’exploitation environnementale et géopolitique qui alimentent les machines computationnelles au cœur de son fonctionnement. »
Gregory Chatonsky
Cet article est extrait du journal de Gregory Chatonsky, publié en mars 2025 sous le titre « Qu’est-ce que le vectofascisme ? »
-
sur Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
Publié: 24 March 2025, 10:30am CET par Lydie Goeldner-Gianella
Le paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
sur Postal horse relays and roads in France, from the 17th to the 19th centuries
Publié: 24 March 2025, 10:30am CET par Nicolas Verdier
La base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
sur Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
Publié: 24 March 2025, 10:30am CET par Hamdi Euchi
La défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
sur Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
Publié: 24 March 2025, 10:30am CET par Justine Collin
Avec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
Publié: 24 March 2025, 10:30am CET par Carole Marin
La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
Publié: 24 March 2025, 9:30am CET par Pierre Libaud
Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
sur Geodatadays 2023
Publié: 24 March 2025, 9:30am CET par Christine Plumejeaud-Perreau
Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
sur MapDraw. Un outil libre d’annotation de cartes en ligne
Publié: 24 March 2025, 9:30am CET par Justin Berli
Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
Publié: 24 March 2025, 9:30am CET par Gabriel Marquès
Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
Publié: 24 March 2025, 9:30am CET par Maxime Masson
TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
sur Atlas du développement durable. Un monde en transition, Autrement, 2022
Publié: 24 March 2025, 9:30am CET par Marie-Laure Trémélo
L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
Publié: 24 March 2025, 9:30am CET par Jean-Charles Édouard
Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
sur Mappa naturae, 2023
Publié: 24 March 2025, 9:30am CET par Sylvain Guyot
Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
sur Représenter la centralité marchande : la coloration marchande et ses usages
Publié: 24 March 2025, 9:30am CET par Nicolas Lebrun
La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
Publié: 24 March 2025, 9:30am CET par Jean Rieucau
La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
sur L’automatisation est un problème politique
Publié: 24 March 2025, 7:00am CET par Hubert Guillaud
“L’automatisation remplace les hommes. Ce n’est bien sûr pas une nouveauté. Ce qui est nouveau, c’est qu’aujourd’hui, contrairement à la plupart des périodes précédentes, les hommes déplacés n’ont nulle part où aller. (…) L’automatisation exclut de plus en plus de personnes de tout rôle productif dans la société.” James Boggs, The American Revolution, pages from a negro workers notebook, 1963.
La réponse actuelle face à l’automatisation est la même que dans les années 60, explique Jason Ludwig pour PublicBooks : il faut former les travailleurs à la programmation ou aux compétences valorisées par la technologie pour qu’ils puissent affronter les changements à venir. Le mantra se répète : ”le progrès technologique est inévitable et les travailleurs doivent s’améliorer eux-mêmes ou être balayés par sa marche inexorable”. Une telle approche individualiste du déplacement technologique trahit cependant une myopie qui caractérise la politique technologique, explique Ludwig : c’est que l’automatisation est fondamentalement un problème politique. Or, comme le montre l’histoire de la politique du travail américaine, les efforts pour former les travailleurs noirs aux compétences technologiques dans les années 60 ont été insuffisants et n’ont fait que les piéger dans une course vers le bas pour vendre leur travail.
Pour Ludwig, il nous faut plutôt changer notre façon de penser la technologie, le travail et la valeur sociale. Dans les années 60, Kennedy avait signé une loi qui avait permis de former quelque 2 millions d’américains pour répondre au défi de l’automatisation. Mais dans le delta du Mississippi, la majorité des noirs formés (comme opérateurs de production, mécanicien automobile, sténographes…) sont retournés au travail agricole saisonnier avant même d’avoir fini leur formation. En fait, les formations formaient des gens à des emplois qui n’existaient pas. “Ces programmes ont également marqué un éloignement de l’espoir initial des leaders des droits civiques de voir une politique d’automatisation faire progresser l’égalité raciale. Au lieu de cela, l’automatisation a renforcé une hiérarchie racialisée du travail technologique”. Ceux qui ont suivit une formation dans l’informatique sont restés pour la plupart dans des rôles subalternes, à l’image des travailleurs des plateformes d’aujourd’hui. Travailleur noir dans l’industrie automobile de Détroit des années 50, James Boggs a d’ailleurs été le témoin direct de la manière dont les nouveaux contrôles électroniques ont remplacé les travailleurs de la chaîne de montage, et a également observé les échecs de la direction, des dirigeants gouvernementaux et du mouvement ouvrier lui-même à faire face aux perturbations causées par l’automatisation. Dans ses écrits critiques, Boggs a soutenu que leur incapacité à concevoir une solution adéquate au problème de l’automatisation et du chômage provenait d’une croyance qu’ils avaient tous en commun : les individus doivent travailler !
Pour Boggs, la voie à suivre à l’ère de l’automatisation ne consiste pas à lutter pour le plein emploi, mais plutôt à accepter une société sans travail, en garantissant à chacun un revenu décent. Pour Ludwig, les recommandations de Boggs soulignent les failles des prévisions contemporaines sur l’avenir du travail, comme celles de McKinsey. La reconversion des travailleurs peut être une mesure temporaire, mais ne sera jamais qu’une solution provisoire. La présenter comme la seule voie à suivre détourne l’attention de la recherche de moyens plus efficaces pour assurer un avenir meilleur à ceux qui sont en marge de la société, comme l’expérimentation d’un revenu de base ou la réinvention de l’État-providence pour le XXIe siècle.
-
sur Partage et collaboration géomatique à la Ville de Genève
Publié: 23 March 2025, 5:11pm CET par la rédaction SIGMAG & SIGTV.FR
L’organisation du SIG à Genève inspire par sa transversalité et sa collégialité. La plate-forme SITV est logiquement un portail collaboratif multi-utilisateurs au service de la Ville, dont la mise en œuvre a associé nombre d’acteurs en interne et externe : une vraie fédération de compétences !Deuxième ville la plus peuplée de Suis se après Zurich, Genève est située au bord du lac Léman, à la frontière avec la France. Cosmopolite et ouverte sur le monde, c’est un centre important pour les organisations internationales. Commune principale du canton de Genève, la ville compte plus de 205.000 habitants, soit un peu moins de la moitié de la population cantonale. Les relations entre les administrations de la Ville et du canton sont étroitement imbriquées, y compris sur le plan géomatique. Créé en 1991, le SIG de la Ville de Genève travaille de concert avec le SI du Territoire Genevois (SITG) avec pour principe de ne pas dupliquer les efforts. C’est ainsi que le canton gère le cadastre pour tout le territoire, alors qu’une quarantaine de types différents de géodonnées de la Ville sont synchronisés sur le portail du SITG.
Retrouvez la suite de cette enquête dans le magazine SIGMAG N°44
-
sur À la recherche de conteneurs
Publié: 23 March 2025, 4:53pm CET par la rédaction SIGMAG & SIGTV.FR
En Moselle, la Communauté d’agglomération du Val de Fensch déploie son application de localisation de points de collecte des déchets. Le service SIG de la collectivité rend accessible ce nouvel outil pour permettre aux habitants de trouver sans difficulté les conteneurs enterrés, les bornes d’apports volontaires pour les biodéchets, le verre ou le textile. L’outil aide aussi à connaître son secteur de dépendance quant aux jours et fréquences de ramassage, pour sortir ses poubelles au bon moment. La recherche se fait par adresse ou directement par secteur. Cette plateforme en ligne responsive présente de façon structurée toutes les informations pratiques concernant la gestion des déchets. Le volet « conteneurs enterrés » propose des informations sur le nombre de contenants par typologie d’ordure. Les déchetteries sont aussi recensées avec des précisions redirigeant vers le site de la CA.
+ d'infos :
agglo-valdefensch.fr
-
sur De « l’Excellisation » de l’évaluation
Publié: 21 March 2025, 7:50am CET par Hubert Guillaud
L’évaluation des formations universitaires par le Haut Conseil de l’Évaluation de la Recherche et de l’Enseignement Supérieur (HCÉRES) reposent très concrètement sur des outils d’auto-évaluation formels qui se résument à des fichiers Excel qui emboitent des indicateurs très parcellaires, explique Yves Citton pour AOC. une forme d’évaluation « sans visite de salle de classe, sans discussion personnalisée avec les responsables de formation, les personnels administratifs ou les étudiantes ».
« Cette excellence excellisée menace donc de fermer des formations sans avoir pris la peine d’y poser le pied ou le regard, sur la seule base d’extractions chiffrées dont la sanction satellitaire tombe comme un missile ». Une belle démonstration des limites de l’évaluation contemporaine, orientée et hors sol.
-
sur Les trois corps du lithium : le géologique, le technologique et le psychique
Publié: 21 March 2025, 7:01am CET par Hubert Guillaud
« Comme le sucre au XIXe siècle, le lithium va devenir au XXIe siècle un bien de consommation de masse, l’aliment de base du nouveau régime de consommation promis aux sociétés modernes et décarbonées ». (…) « Le lithium participerait à revitaliser le système de production et de consommation du capitalisme, en proposant une réponse au changement climatique qui n’oblige pas à remettre en cause les rapports de force asymétriques préexistants et la nature « zombie » de nos technologies héritées des énergies fossiles. »
« L’histoire du lithium illustre la manière dont les propriétés matérielles d’un élément façonnent à la fois notre équilibre mental et notre rapport à la société. À la croisée de la santé et de l’industrie, il participe à une quête de stabilité des humeurs et des flux énergétiques dans un monde toujours plus dépendant de la performance et de la constance ».
Passionnant dossier sur l’âge du lithium dans la revue Les temps qui restent.
-
sur Vers la fin du modèle des startups ?
Publié: 20 March 2025, 7:00am CET par Hubert Guillaud
Les startups de l’IA n’auraient plus besoin de liquidités, estime Erin Griffith dans le New York Times. Alors que les investisseurs se pressent pour prendre des parts, les startupeurs de l’IA font la fine bouche. Certaines sont déjà rentables, à l’image de Gamma, une entreprise qui fabrique des outils d’IA pour créer des présentations et des sites web. Fort de seulement 28 employés, Gamma génère déjà des dizaines de millions de revenus auprès de 50 millions d’utilisateurs. Plutôt que d’embaucher, Gamma utilise des outils d’intelligence artificielle pour augmenter la productivité de ses employés dans tous les domaines, du service client et du marketing au codage et à la recherche client.
Alors qu’avant la réussite des petites équipes consistait à lever des fonds pour croître, désormais, elles limitent leur taille et optimisent leur rentabilité. Anysphere, une start-up qui a créé le logiciel de codage Cursor, comme ElevenLabs, une société d’IA spécialiste des produits vocaux, ont atteint 100 millions de dollars de revenus récurrents annuels en moins de deux ans avec seulement 20 employés. Sam Altman, le directeur général d’OpenAI, a prédit qu’il pourrait y avoir un jour une entreprise unipersonnelle valant 1 milliard de dollars… C’est pour l’instant encore bien présomptueux*, mais on comprend l’idée.
Cette cure de productivité des personnels concerne également les entreprises d’IA qui développent des modèles. OpenAI emploie plus de 4000 personnes, a levé plus de 20 milliards de dollars de financement et continue à chercher à lever des fonds, ce qui produit environ le même ratio : 5 millions de dollars de levés de fonds par employés (même si ici, on parle de levée de fonds et non pas de revenus récurrents). Les nouvelles start-ups de l’IA qui s’appuient sur ces modèles font penser à la vague d’entreprises qui ont émergé à la fin des années 2000, après qu’Amazon a commencé à proposer des services de cloud computing bon marché. Amazon Web Services a réduit le coût de création d’une entreprise, ce qui a permis de créer de nouvelles entreprises, pour moins chères.
« Avant l’essor de l’IA, les start-ups dépensaient généralement 1 million de dollars pour atteindre un chiffre d’affaires de 1 million de dollars », explique Gaurav Jain, investisseur à Afore Capital. Aujourd’hui, atteindre un million de dollars de chiffre d’affaires coûte un cinquième de moins et pourrait éventuellement tomber à un dixième, selon une analyse de 200 startups menée par Afore. Tant et si bien que le revenu récurrent annuel par employé semble désormais s’imposer comme l’indicateur clef de ces « ultra » lean startups, explique le French Tech Journal. Pour parvenir à 100 millions de dollars de revenus dans les années 2000, il a fallu 900 employés à Linkedin et 600 à Shopify. Dans les années 2010, il fallait encore 250 employés à Slack pour parvenir au même revenu récurrent. Désormais, pour les entreprises de la « génération IA » il n’en faut plus que 100 ! L’objectif, c’est qu’un employé rapporte entre 5 et 1 million de dollars ! On espère que les salaires des salariés suivent la même courbe de croissance !
Le tableau des startups selon leur nombre d’employés pour atteindre les 100 millions de dollars de revenus récurrents. Reste que l’explication par le développement de produits basés sur l’IA vise à nous faire croire que les entreprises qui ont pris plus de temps et d’employés pour atteindre les 100 millions de revenus n’auraient pas utilisé l’IA pour leur produit. hum !
Mais si les startups peuvent devenir rentables sans dépenser beaucoup, cela pourrait devenir un problème pour les investisseurs en capital-risque. L’année dernière, les entreprises d’IA ont levé 97 milliards de dollars de financement, ce qui représente 46 % de tous les investissements en capital-risque aux États-Unis, selon PitchBook, le spécialiste de l’analyse du secteur. Pour l’instant, les investisseurs continuent de se battre pour entrer dans les entreprises les plus prometteuses. Scribe, une start-up de productivité basée sur l’IA, a dû faire face l’année dernière à un intérêt des investisseurs bien supérieur aux 25 millions de dollars qu’elle souhaitait lever. Certains investisseurs sont optimistes quant au fait que l’efficacité générée par l’IA incitera les entrepreneurs à créer davantage d’entreprises, ce qui ouvrira davantage d’opportunités d’investissement. Ils espèrent qu’une fois que les startups auront atteint une certaine taille, les entreprises adopteront le vieux modèle des grandes équipes et des gros capitaux. Mais ce n’est peut-être pas si sûr.
Chez Gamma, les employés utilisent une dizaine d’outils d’IA pour les aider à être plus efficaces, notamment l’outil de service client d’Intercom pour gérer les problèmes, le générateur d’images de Midjourney pour le marketing, le chatbot Claude d’Anthropic pour l’analyse des données et le NotebookLM de Google pour analyser la recherche de clients. Les ingénieurs utilisent également le curseur d’Anysphere pour écrire du code plus efficacement. Le produit de Gamma, qui s’appuie sur des outils d’OpenAI et d’autres, n’est pas aussi coûteux à fabriquer que d’autres produits d’IA. D’autres startups efficaces adoptent une stratégie similaire. Thoughtly, un fournisseur d’agents IA téléphoniques, a réalisé un bénéfice en 11 mois, grâce à son utilisation de l’IA, a déclaré son cofondateur Torrey Leonard, notamment l’outil d’IA ajouté au système de Stripe pour analyser les ventes. Pour son PDG, sans ces outils, il aurait eu besoin d’au moins 25 personnes de plus et n’aurait pas été rentable aussi rapidement. Pour les jeunes pousses, ne plus avoir peur de manquer de liquidités est « un énorme soulagement ». Chez Gamma, le patron prévoit néanmoins d’embaucher pour passer à 60 personnes. Mais plutôt que de recruter des spécialistes, il cherche des généralistes capables d’effectuer une large gamme de tâches. Le patron trouve même du temps pour répondre aux commentaires des principaux utilisateurs du service.
Dans un autre article, Erin Griffith explique que nombre d’entreprises retardent leur entrée en bourse. Beaucoup attendaient l’élection de Trump pour se lancer, mais les annonces de tarifs douaniers de l’administration et les changements réglementaires rapides ont créé de l’incertitude et de la volatilité. Et l’arrivée de DeepSeek a également remis en question l’engouement pour les technologies d’IA américaines coûteuses. Enfin, l’inflation du montant des investissements privés retarde également les échéances de mises sur le marché. En fait, les startups peuvent désormais lever des fonds plus importants et les actionnaires peuvent également vendre leurs actions avant mise sur le marché public, ce qui a contribué à réduire le besoin d’entrer en bourse.
Dans un autre article encore, la journaliste se demande ce qu’est devenu le capital risque. Pour cela, elle convoque les deux modèles les plus antinomiques qui soient, à savoir Benchmark Capital et Andreessen Horowitz. « Andreessen Horowitz s’est développé dans toutes les directions. Elle a créé des fonds axés sur les crypto-monnaies, la Défense et d’autres technologies, gérant un total de 44 milliards de dollars. Elle a embauché 80 partenaires d’investissement et ouvert cinq bureaux. Elle publie huit newsletters et sept podcasts, et compte plus de 800 sociétés en portefeuille ».
« Benchmark, en revanche, n’a pratiquement pas bougé. Elle compte toujours cinq partenaires qui font des investissements. Cette année, elle a levé un nouveau fonds de 425 millions de dollars, soit à peu près la même taille que ses fonds depuis 2004. Son site Web se résume à une simple page d’accueil ». La plupart des entreprises d’investissement ont suivi le modèle d’Andreessen Horowitz se développant tout azimut. Le capital risque est devenu un mastodonte de 1200 milliards de dollars en 2024, alors qu’il ne représentait que 232 milliards en 2009. Les partisans de la théorie du toujours plus d’investissement affirment qu’il faut encore plus d’argent pour résoudre les problèmes les plus épineux de la société en matière d’innovation. « Les petits fonds, se moquent-ils, ne peuvent soutenir que les petites idées ». Mais pour d’autres, les fonds de capital-risque sont devenus trop gros, avec trop peu de bonnes startups, ce qui nuit aux rendements. Dans l’approche à là Andreessen Horowitz, l’enjeu est d’investir beaucoup mais également de facturer fort, ce qui n’est pas le cas des plus petits acteurs. « Les fonds plus petits ont généralement obtenu des rendements plus élevés, mais ils ont également eu des taux de pertes plus élevés. Les fonds plus importants ont tendance à avoir des rendements médians mais moins de pertes, ce qui signifie qu’ils sont des paris plus sûrs avec moins de potentiel de hausse », explique une analyste.
Mais on n’investit pas dans le capital-risque pour obtenir des rendements médians. Or, le développement de fonds de plusieurs milliards de dollars pourrait modifier le profil de rendement du capital-risque, qui n’est pas si bon, malgré ses promesses. La crise économique post-pandémie a modifié les cartes. « En 2022 et 2023, les sociétés de capital-risque ont investi plus d’argent qu’elles n’en ont rendu à leurs investisseurs, inversant une tendance qui durait depuis dix ans ». Comme l’expliquait le sociologue de la finance, Fabien Foureault, dans le 4e numéro de la revue Teque, parue l’année dernière, le capital-risque est intrinsèquement dysfonctionnel. Il favorise les emballements et effondrements, peine à inscrire une utilité sociale, et surtout, ses performances financières restent extrêmement médiocres selon les études longitudinales. “L’économie numérique, financée par le capital-risque, a été conçue par les élites comme une réponse au manque de dynamisme du capitalisme tardif. Or, on constate que cette activité se développe en même temps que les tendances à la stagnation et qu’elle n’arrive pas à les contrer.” La contribution du capital-risque à la croissance semble moins forte que le crédit bancaire et le crédit public ! “Le rendement de la financiarisation et de l’innovation est de plus en plus faible : toujours plus d’argent est injecté dans le système financier pour générer une croissance en déclin sur le long-terme”.
Hubert Guillaud
* Comme toujours, les grands patrons de la tech lancent des chiffres en l’air qui permettent surtout de voir combien ils sont déconnectés des réalités. Passer de 100 millions de revenus à 20 personnes à 1 milliard tout seul, nécessite de sauter des paliers et de croire aux capacités exponentielles des technologies, qui, malgré les annonces, sont loin d’être démontrées. Bien souvent, les chiffres jetés en l’air montrent surtout qu’ils racontent n’importe quoi, à l’exemple de Musk qui a longtemps raconté qu’il enverrait un million de personnes sur Mars en 20 ans (ça ne tient pas).
MAJ su 30/03/2025 : Politico livre une très intéressante interview de Catherine Bracy, la fondatrice de TechEquity (une association qui oeuvre à améliorer l’impact du secteur technologique sur le logement et les travailleurs), qui vient de publier World Eaters : How Venture Capital Is Cannibalizing the Economy (Penguin, 2025). Pour Bracy, le capital risque – moteur financier de l’industrie technologique – a un effet de distorsion non seulement sur les entreprises et leurs valeurs, mais aussi sur la société américaine dans son ensemble. « La technologie en elle-même est sans valeur, et c’est la structure économique qui lui confère son potentiel de nuisance ou de création d’opportunités qui la rend vulnérable ». Les investisseurs de la tech encouragent les entreprises à atteindre la plus grande taille possible, car c’est par des effets d’échelle qu’elle produit le rendement financier attendu, analyse-t-elle. Cependant, derrière cette croissance sous stéroïdes, « l’objectif est la rapidité, pas l’efficacité ». Et les conséquences de ces choix ont un coût que nous supportons tous, car cela conduit les entreprises à contourner les réglementations, à exploiter les travailleurs et à proposer des produits peut performants ou à risque pour les utilisateurs. L’objectif de rendements les plus élevés possibles nous éloignent des bonnes solutions. Pour elle, nous devrions imposer plus de transparence aux startups, comme nous le demandons aux entreprises cotées en bourse et renforcer l’application des régulations. Pour Bloomberg, explique-t-elle encore, la recherche d’une croissance sous stéroïde ne permet pas de s’attaquer aux problèmes de la société, mais les aggrave. Le problème n’est pas tant ce que le capital-risque finance que ce qu’il ne finance pas, souligne Bracy… et qui conduit les entreprises qui s’attaquent aux problèmes, à ne pas trouver les investissements dont elles auraient besoin. Si le capital-risque désormais s’intéresse à tout, il n’investit que là où il pense trouver des rendements. Les investissements privés sont en train de devenir des marchés purement financiers.
Une critique de son livre pour Bloomberg, explique que Bracy dénonce d’abord la monoculture qu’est devenue le capital-risque. Pour elle, cette culture de la performance financière produit plusieurs victimes. Les premières sont les entreprises incubées dont les stratégies sont modelées sur ce modèle et qui échouent en masse. « Les capitaux-risqueurs créent en grande partie des risques pour les entreprises de leurs portefeuilles » en les encourageant à croître trop vite ou à s’attaquer à un marché pour lequel elles ne sont pas qualifiées. Les secondes victimes sont les entrepreneurs qui ne sont pas adoubées par le capital-risque, et notamment tous les entrepreneurs qui ne correspondent pas au profil sociologique des entrepreneurs à succès. Les troisièmes victimes sont les capitaux-risqueurs eux-mêmes, dans les portefeuilles desquels s’accumulent les « sorties râtées » et les « licornes zombies ». Les quatrièmes victimes, c’est chacun d’entre nous, pris dans les rendements des startups modèles et dont les besoins d’investissements pour le reste de l’économie sont en berne.
Bracy défend un capital risque plus indépendant. Pas sûr que cela suffise effectivement. Sans attaquer les ratios de rendements qu’exigent désormais l’investissement, on ne résoudra pas la redirection de l’investissement vers des entreprises plus stables, plus pérennes, plus utiles… et moins profitables.
-
sur Red-teaming : vers des tests de robustesse de l’IA dans l’intérêt du public
Publié: 19 March 2025, 7:00am CET par Hubert Guillaud
Le Red-teaming consiste à réunir des équipes multidisciplinaires pour procéder à des attaques fictives pour éprouver la robustesse de la sécurité d’un système informatique. Dans le domaine de l’IA, cela consiste à identifier les vulnérabilités des réponses d’un modèle de langage pour les corriger. Mais les questions méthodologiques auxquelles sont confrontées ces équipes sont nombreuses : comment et quand procéder ? Qui doit participer ? Comment intégrer les résultats… Les questions d’enjeux ne sont pas moindres : quels intérêts sont protégés ? Qu’est-ce qu’un comportement problématique du modèle et qui est habilité à le définir ? Le public est-il un objet à sécuriser ou une ressource utilisée ?…
Un rapport publié par Data & Society et AI Risk and Vulnerability Alliance (ARVA), par les chercheurs Ranjit Singh, Borhane Blili-Hamelin, Carol Anderson, Emnet Tafesse, Briana Vecchione, Beth Duckles et Jacob Metcalf, tente d’esquisser comment produire un red-teaming dans l’intérêt public.
À ce jour, la plupart des expériences de red-teaming en IA générale comportent quatre étapes :
- Organiser un groupe de penseurs critiques.
- Leur donner accès au système.
- Les inviter à identifier ou à susciter des comportements indésirables.
- Analyser les données probantes pour atténuer les comportements indésirables et tester les futurs modèles.
Actuellement, la méthode dominante pour réaliser la troisème étape est l’incitation manuelle et automatisée, qui consiste à tester les comportements erronés des modèles par l’interaction. Pour les chercheurs, qui ont recueilli les avis de participants à des équipes de red-teaming, si cette approche est précieuse, le red-teaming doit impliquer une réflexion critique sur les conditions organisationnelles dans lesquelles un modèle est construit et les conditions sociétales dans lesquelles il est déployé. Le red-teaming dans d’autres domaines, comme la sécurité informatique, révèle souvent des lacunes organisationnelles pouvant entraîner des défaillances du système. Les évaluations sociotechniques de l’IA générale gagneraient à s’inspirer davantage des pratiques existantes en matière de red-teaming et d’ingénierie de la sécurité.
Pour les chercheurs, les événements de Red-Teaming soulignent trop souvent encore l’asymétrie de pouvoir et limitent l’engagement du public à la seule évaluation des systèmes déjà construits, plutôt qu’aux systèmes en développement. Ils favorisent trop l’acceptation du public, le conduisant à intégrer les défaillances des systèmes, plutôt qu’à les résoudre ou les refuser. Enfin, ils restreignent la notion de sécurité et ne prennent pas suffisamment en cause les préjudices qu’ils peuvent causer ou les modalités de recours et de réparation proposé au grand public.
Le rapport dresse une riche histoire des pratiques d’amélioration de la sécurité informatique et de ses écueils, et de la faible participation du public, même si celle-ci a plutôt eu tendance à s’élargir ces dernières années. Reste que cet élargissement du public est encore bien timide. Il s’impose surtout parce qu’il permet de répondre au fait que l’IA générative couvre un large champ d’usages qui font que chaque prompt peut être une attaque des modèles. “L’objectif du red-teaming est de compenser le manque de bonnes évaluations actuelles pour les modèles génératifs”, explique une spécialiste, d’autant qu’il permet de créer “une réflexivité organisationnelle”, notamment du fait que les interactions avec les modèles sont très ouvertes et nécessitent d’élargir les perspectives de sécurité. Mais les pratiques montrent également la difficulté à saisir ce qui relève des défaillances des modèles, d’autant quand ce sont les utilisateurs eux-mêmes qui sont considérés comme des adversaires. Pourtant, dans ces pratiques de tests de robustesse adverses, les risques n’ont pas tous le même poids : il est plus simple de regarder si le modèle génère des informations privées ou du code vulnérable, plutôt que d’observer s’il produit des réponses équitables. En fait, l’une des grandes vertus de ces pratiques, c’est de permettre un dialogue entre développeurs et publics experts, afin d’élargir les enjeux de sécurité des uns à ceux des autres.
Le rapport souligne cependant que l’analyse automatisée des vulnérabilités se renforce (voir “Comment les IA sont-elles corrigées ?”), notamment via l’utilisation accrue de travailleurs du clic plutôt que des équipes dédiées et via des systèmes spécialisés dédiés et standardisés, prêts à l’emploi, afin de réduire les coûts de la correction des systèmes et ce même si ces attaques-ci pourraient ne pas être aussi “novatrices et créatives que celles développées par des humains”. Le risque c’est que le red-teaming ne devienne performatif, une forme de “théâtre de la sécurité”, d’autant que le régulateur impose de plus en plus souvent d’y avoir recours, comme c’est le cas de l’AI Act européen. Or, comme le pointe un red-teamer, “ce n’est pas parce qu’on peut diagnostiquer quelque chose qu’on sait comment le corriger”. Qui détermine si le logiciel respecte les règles convenues ? Qui est responsable en cas de non-respect des règles ? L’intégration des résultats du red-teaming est parfois difficile, d’autant que les publications de leurs résultats sont rares. D’où l’importance des plateformes qui facilitent le partage et l’action collective sur les problèmes d’évaluation des systèmes d’IA, comme Dynabench.
“Nous devons repenser la relation entre l’IA et la société, passant d’une relation conflictuelle à une relation co-constitutive”, plaident les chercheurs. C’est la seule à même d’aider à dépasser la confusion actuelle sur la fonction du red-teaming, qu’elle relève des conflits de méthodes, de pouvoir, d’autorité ou d’expertise. Les meilleures pratiques ne le sont pas nécessairement. Le Titanic a été construit selon les meilleures pratiques de l’époque. Par définition, le red-teaming consiste à examiner les réponses des modèles de manière critique, mais uniquement selon les meilleures pratiques du moment. Le red-teaming a tendance à porter plus d’attention aux méthodes holistiques de red-teaming (comme les simulations) qu’à ceux qui se concentrent sur l’évaluation des dommages causés par l’IA aux utilisateurs normaux. Trop souvent encore, le red-teaming consiste à améliorer un produit plus qu’à améliorer la sécurité du client, alors que le red-teaming élargi aux publics consiste à mieux comprendre ce qu’ils considèrent comme problématique ou nuisible tout en leur permettant d’être plus conscients des limites et défaillances. Pour les chercheurs, nous avons plus que jamais besoin “d’espaces où le public peut débattre de ses expériences avec les systèmes d’IA générale”, d’espaces participatifs, disaient déjà une précédente recherche de plusieurs de ces mêmes chercheurs. Le risque, c’est que cet élargissement participatif que permet certains aspects du red-teaming ne se referme plus qu’il ne s’étende.
-
sur Inférences : comment les outils nous voient-ils ?
Publié: 18 March 2025, 7:00am CET par Hubert Guillaud
Comment les systèmes interprètent-ils les images ? Ente, une entreprise qui propose de chiffrer vos images pour les échanger de manière sécurisée sans que personne d’autres que ceux que vous autorisez ne puisse les voir, a utilisé l’API Google Vision pour montrer comment les entreprises infèrent des informations des images. C’est-à-dire comment ils les voient, comment les systèmes automatisés les décrivent. Ils ont mis à disposition un site pour nous expliquer comment « ILS » voient nos photos, qui permet à chacun d’uploader une image et voir comment Google Vision l’interprète.
Sommes-nous ce que les traitements disent de nous ?Le procédé rappelle le projet ImageNet Roulette de Kate Crawford et Trevor Paglen, qui renvoyait aux gens les étiquettes stéréotypées dont les premiers systèmes d’intelligence artificielle affublaient les images. Ici, ce ne sont pas seulement des étiquettes dont nous sommes affublés, mais d’innombrables données inférées. Pour chaque image, le système produit des informations sur le genre, l’origine ethnique, la localisation, la religion, le niveau de revenu, les émotions, l’affiliation politique, décrit les habits et les objets, pour en déduire des passe-temps… mais également des éléments de psychologie qui peuvent être utilisés par le marketing, ce qu’on appelle les insights, c’est-à-dire des éléments permettant de caractériser les attentes des consommateurs. Par exemple, sur une des images en démonstration sur le site représentant une famille, le système déduit que les gens priorisent l’esthétique, sont facilement influençables et valorisent la famille. Enfin, l’analyse associe des mots clefs publicitaires comme albums photos personnalisé, produits pour la peau, offre de voyage de luxe, système de sécurité domestique, etc. Ainsi que des marques, qui vont permettre à ces inférences d’être directement opérationnelles (et on peut se demander d’ailleurs, pourquoi certaines plutôt que d’autres, avec le risque que les marques associéées démultiplient les biais, selon leur célébrité ou leur caractère international, comme nous en discutions en évoquant l’optimisation de marques pour les modèles génératifs).
Autant d’inférences probables, possibles ou potentielles capables de produire un profil de données pour chaque image pour leur exploitation marketing.
Comme l’explique le philosophe Rob Horning, non seulement nos images servent à former des modèles de reconnaissance d’image qui intensifient la surveillance, mais chacune d’entre elles produit également des données marketing disponibles pour tous ceux qui souhaitent les acheter, des publicitaires aux agences de renseignement. Le site permet de voir comment des significations sont déduites de nos images. Nos photos, nos souvenirs, sont transformés en opportunités publicitaires, identitaires et consuméristes, façonnées par des logiques purement commerciales (comme Christo Buschek et Jer Thorp nous l’avaient montré de l’analyse des données de Laion 5B). L’inférence produit des opportunités, en ouvre certaines et en bloque d’autres, sur lesquelles nous n’avons pas la main. En nous montrant comment les systèmes interprètent nos images, nous avons un aperçu de ce que, pour les machines, les signifiants signifient.
Mais tout n’est pas parfaitement décodable et traduisible, transparent. Les inférences produites sont orientées : elles ne produisent pas un monde transparent, mais un monde translucide. Le site They see your photos nous montre que les images sont interprétées dans une perspective commerciale et autoritaire, et que les représentations qu’elles produisent supplantent la réalité qu’elles sont censées interpréter. Il nous permet de voir les biais d’interprétation et de nous situer dans ceux-ci ou de nous réidentifier sous leur répétition.
Nous ne sommes pas vraiment la description produite de chacune de ces images. Et pourtant, nous sommes exactement la personne au coeur de ces descriptions. Nous sommes ce que ces descriptions répètent, et en même temps, ce qui est répété ne nous correspond pas toujours ou pas du tout.
Exemples d’intégration d’images personnelles dans TheySeeYourPhotos qui montrent les données qui sont inférées de deux images. Et qui posent la question qui suis-je ? Gagne-je 40 ou 80 000 euros par mois ? Suis-je athée ou chrétien ? Est-ce que je lis des livres d’histoire ou des livres sur l’environnement ? Suis-je écolo ou centriste ? Est-ce que j’aime les chaussures Veja ou les produits L’Oréal ? Un monde indifférent à la vérité
L’autre démonstration que permet le site, c’est de nous montrer l’évolution des inférences publicitaires automatisées. Ce que montre cet exemple, c’est que l’enjeu de régulation n’est pas de produire de meilleures inférences, mais bien de les contenir, de les réduire – de les faire disparaître voire de les rendre impossibles. Nous sommes désormais coincés dans des systèmes automatisés capables de produire de nous, sur nous, n’importe quoi, sans notre consentement, avec un niveau de détail et de granularité problématique.
Le problème n’est pas l’automatisation publicitaire que ce délire de profilage alimente, mais bien le délire de profilage automatisé qui a été mis en place. Le problème n’est pas la qualité des inférences produites, le fait qu’elles soient vraies ou fausses, mais bien le fait que des inférences soient produites. La prévalence des calculs imposent avec eux leur monde, disions-nous. Ces systèmes sont indifférents à la vérité, expliquait le philosophe Philippe Huneman dans Les sociétés du profilage (Payot, 2023). Ils ne produisent que leur propre renforcement. Les machines produisent leurs propres mèmes publicitaires. D’un portrait, on propose de me vendre du cognac ou des timbres de collection. Mais ce qu’on voit ici n’est pas seulement leurs défaillances que leurs hallucinations, c’est-à-dire leur capacité à produire n’importe quels effets. Nous sommes coincés dans un régime de facticité, comme le dit la philosophe Antoinette Rouvroy, qui finit par produire une vérité de ce qui est faux.
Où est le bouton à cocher pour refuser ce monde ?Pourtant, l’enjeu n’est pas là. En regardant très concrètement les délires que ces systèmes produisent on se demande surtout comment arrêter ces machines qui ne mènent nulle part ! L’exemple permet de comprendre que l’enjeu n’est pas d’améliorer la transparence ou l’explicabilité des systèmes, ou de faire que ces systèmes soient plus fiables, mais bien de les refuser. Quand on comprend la manière dont une image peut-être interprétée, on comprend que le problème n’est pas ce qui est dit, mais le fait même qu’une interprétation puisse être faite. Peut-on encore espérer un monde où nos photos comme nos mots ne sont tout simplement pas interprétés par des machines ? Et ce alors que la grande interconnexion de celles-ci facilite ce type de production. Ce que nous dit « They see your photos », c’est que pour éviter ce délire, nous n’avons pas d’autres choix que d’augmenter considérablement la confidentialité et le chiffrement de nos échanges. C’est exactement ce que dit Vishnu Mohandas, le développeur de Ente.
Hubert Guillaud
MAJ du 25/03/2025 : Il reste une dernière inconnue dans les catégorisations problématiques que produisent ces outils : c’est que nous n’observons que leurs productions individuelles sur chacune des images que nous leurs soumettons… Mais nous ne voyons pas les catégorisations collectives problématiques qu’ils peuvent produire. Par exemple, combien de profils de femmes sont-ils catalogués comme à « faible estime de soi » ? Combien d’hommes catégorisés « impulsifs » ? Combien d’images de personnes passées un certain âge sont-elles caractérisées avec des mots clés, comme « alcool » ? Y’a-t-il des récurrences de termes selon le genre, l’âge putatif, l’origine ou le niveau de revenu estimé ?… Pour le dire autrement, si les biais individuels semblent innombrables, qu’en est-il des biais démographiques, de genre, de classe… que ces outils produisent ? L’exemple permet de comprendre très bien que le problème des biais n’est pas qu’un problème de données et d’entraînement, mais bien de contrôle de ce qui est produit. Ce qui est tout de suite bien plus problématique encore…
-
sur Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
Publié: 17 March 2025, 10:30am CET par Lydie Goeldner-Gianella
Le paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
sur Postal horse relays and roads in France, from the 17th to the 19th centuries
Publié: 17 March 2025, 10:30am CET par Nicolas Verdier
La base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
sur Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
Publié: 17 March 2025, 10:30am CET par Hamdi Euchi
La défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
sur Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
Publié: 17 March 2025, 10:30am CET par Justine Collin
Avec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
Publié: 17 March 2025, 10:30am CET par Carole Marin
La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
Publié: 17 March 2025, 9:30am CET par Pierre Libaud
Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
sur Geodatadays 2023
Publié: 17 March 2025, 9:30am CET par Christine Plumejeaud-Perreau
Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
sur MapDraw. Un outil libre d’annotation de cartes en ligne
Publié: 17 March 2025, 9:30am CET par Justin Berli
Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
Publié: 17 March 2025, 9:30am CET par Gabriel Marquès
Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
Publié: 17 March 2025, 9:30am CET par Maxime Masson
TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
sur Atlas du développement durable. Un monde en transition, Autrement, 2022
Publié: 17 March 2025, 9:30am CET par Marie-Laure Trémélo
L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
Publié: 17 March 2025, 9:30am CET par Jean-Charles Édouard
Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
sur Mappa naturae, 2023
Publié: 17 March 2025, 9:30am CET par Sylvain Guyot
Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
sur Représenter la centralité marchande : la coloration marchande et ses usages
Publié: 17 March 2025, 9:30am CET par Nicolas Lebrun
La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
Publié: 17 March 2025, 9:30am CET par Jean Rieucau
La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
sur Géo IA?: en long, en large et à toutes les échelles
Publié: 17 March 2025, 8:38am CET par la rédaction SIGMAG & SIGTV.FR
Un tsunami d’IA générative a envahi la scène publique et politique, avec d’ambitieuses annonces d’entreprises et des états. Mais quelles sont les avancées concrètes et les perspectives tangibles pour la géomatique?? Enquête réalisée par Michel Bernard.
Retrouvez la suite de cette enquête dans le magazine SIGMAG N°44
-
sur Data for Black Lives
Publié: 17 March 2025, 7:00am CET par Hubert Guillaud
Anuli Akanegbu, chercheuse chez Data & Society, a fait un rapide compte rendu de la 3e édition de la conférence Data for Black Lives qui s’est tenue fin novembre à Miami.
L’IA et d’autres technologies automatisées exacerbent les inégalités existantes dans tous les domaines où elles se déploient : l’emploi, l’éducation, la santé, le logement, etc. Comme l’a expliqué Katya Abazajian, fondatrice de la Local Data Futures Initiative, lors d’un panel sur le logement, « toutes les données sont biaisées. Il n’y a pas de données sans biais, il n’y a que des données sans contexte ». Rasheedah Phillips, directrice du logement pour PolicyLink, a ajouté : « les préjugés ne se limitent pas aux mauvais acteurs, ils sont intégrés dans les systèmes que nous utilisons ». Soulignant les injustices historiques et systémiques qui affectent la représentation des données, la criminologue et professeure de science des données Renee Cummings a rappelé le risque d’utiliser les nouvelles technologies pour moderniser les anciennes typologies raciales. « Les ensembles de données n’oublient pas », a-t-elle insisté.
Tout au long de la conférence, les intervenants n’ont cessé de rappeler l’importance des espaces physiques pour l’engagement communautaire. Aux Etats-Unis, institutions artistiques, églises, associations… sont partout des pôles d’organisation, d’éducation et d’accès à la technologie qui permettent de se mobiliser. Pour Fallon Wilson, cofondatrice de l’Institut de recherche Black Tech Futures, cela plaide pour mettre nos anciennes institutions historiques au coeur de notre rapport à la technologie, plutôt que les entreprises technologiques. Ce sont ces lieux qui devraient permettre de construire la gouvernance des données dont nous avons besoin, afin de construire des espaces de données que les communautés puissent contrôler et partager a défendu Jasmine McNealy.
Joan Mukogosi, qui a notamment travaillé pour Data & Society sur la dégradation des conditions de maternité des femmes noires et de leurs enfants, expliquait que nous avons besoin de données sur la vie des afro-américains et pas seulement sur la façon dont ils meurent. Pour l’anthropologue de la médecine Chesley Carter, ce changement de perspective pourrait conduire à une recherche plus constructive, porteuse de solutions. Nous devrions construire des enquêtes sur les atouts plutôt que sur les déficits, c’est-à-dire nous interroger sur ce qui améliore les résultats plutôt que ce qui les détériore. Cela permettrait certainement de mieux identifier les problèmes systémiques plutôt que les défaillances individuelles. Aymar Jean Christian, fondateur du Media and Data Equity Lab, qui prépare un livre sur les médias réparateurs à même de guérir notre culture pour les presses du MIT, a présenté le concept d’intelligence ancestrale, alternative à l’IA : un moyen de guérir des impacts des systèmes capitalistes en centrant les discussions sur la technologie et les données sur l’expérience des personnes de couleurs. C’est par le partage d’expériences personnelles que nous documenteront les impacts réels des systèmes sur la vie des gens.
La chercheuse Ruha Benjamin (voir notre lecture de son précédent livre, Race after technology) dont le nouveau livre est un manifeste de défense de l’imagination, a rappelé que l’avenir n’est que le reflet de nos choix actuels. « L’imagination est un muscle que nous devrions utiliser comme une ressource pour semer ce que nous voulons plutôt que de simplement déraciner ce que nous ne voulons pas ». Dans une interview pour Tech Policy, Benjamin rappelait que les imaginaires évoluaient dans un environnement très compétitif, qui rivalisent les uns avec les autres. Pour elle, face aux imaginaires dominants et marchands qui s’imposent à nous, le risque est que concevoir une nouvelle société devienne une impossibilité, tant ils nous colonisent par l’adhésion qu’ils suscitent tout en repoussant toujours plus violemment les imaginaires alternatifs. Pour elle, nous opposons souvent l’innovation et les préoccupations sociales, comme si les technologies innovantes étaient par nature autoritaires. Mais c’est notre conception même de l’innovation que nous devrions interroger. « Nous ne devrions pas appeler innovation ce qui exacerbe les problèmes sociaux ». En nous invitant à imaginer un monde sans prison, des écoles qui encouragent chacun ou une société où chacun a de la nourriture, un abri, de l’amour… Elle nous invite à réinventer la réalité que nous voulons construire.
-
sur Ça bouge en suisse
Publié: 14 March 2025, 10:03am CET par la rédaction SIGMAG & SIGTV.FR
Dans le but de mieux planifier les constructions en surface et souterraines, l’Office fédéral de topographie swisstopo ajoute de nouvelles données géologiques. Il s’agit d’une mise à jour de la couche Sismique réflexion. Les régions de Zurich, Bâle-Campagne, Argovie, Genève et Ob-/Nidwald disposent désormais de profils sismiques téléchargeables. L’outil localise les données acquises en Suisse dans le cadre de l’exploration du sous-sol géologique. Majoritairement en mesures 2D, le long des traces de profils, des mesures 3D plus étendues sont également disponibles dans la zone délimitée par les périmètres. Une mise à jour régulière est opérée. Triées par données publiques et non publiques, ces informations métier visent à aider les professionnels à exploiter le sous-sol de manière plus sûre. Elles se positionnent parmi une multitude d’autres géoressources diverses.
+ d'infos :
map.geo.admin.ch
-
sur LLMO : de l’optimisation de marque dans l’IA générative
Publié: 14 March 2025, 7:00am CET par Hubert Guillaud
« Votre client le plus important, désormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. C’est le constat que dresse également Jack Smyth, responsable des solutions IA de JellyFish. Smyth travaille avec des marques pour les aider à comprendre comment leurs produits ou leurs entreprises sont perçues par les différents modèles d’IA afin de les aider à améliorer leur image. L’enjeu est d’établir une forme d’optimisation d’image, comme les entreprises le font déjà avec les moteurs de recherche, afin de s’assurer que sa marque est perçue positivement par un grand modèle de langage.
JellyFish propose d’ailleurs un outil, Share of Model, qui permet d’évaluer la façon dont différents modèles d’IA perçoivent les marques. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». L’enjeu, consiste à construire des campagnes marketing dédiée pour changer la perception de marque des modèles. « On ne sait pas encore si les changements fonctionnent », explique un client, « mais la trajectoire est positive ». A croire que l’important c’est d’y croire ! Sans compter que les changements dans la façon dont on peut demander une recommandation de produits dans un prompt produit des recommandations différentes, ce qui pousse les marques à proposer des invites pertinentes sur les forums, pour orienter les questions et donc les réponses à leur profit. En fait, le même jeu de chat et de souris que l’on connaît dans le SEO pourrait se répéter dans l’optimisation des LLM pour le marketing, au plus grand profit de ceux chargés d’accompagner les entreprises en manque d’argent à dépenser.
Le problème surtout, c’est que les biais marketing des LLM sont nombreux. Une étude montre que les marques internationales sont souvent perçues comme étant de meilleures qualités que les marques locales. Si vous demandez au LLM de recommander des cadeaux aux personnes vivant dans des pays à revenu élevé, il suggérera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays à faible revenu, il recommandera des marques non luxueuses.
L’IA s’annonce comme un nouveau public des marques, à dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs résultats financiers. Bref, le marketing a trouvé un nouveau produit à vendre ! Les entreprises vont adorer !
-
sur L’essor des PropTechs, les technologies pour les propriétaires immobiliers
Publié: 13 March 2025, 7:00am CET par Hubert Guillaud
Les technologies des propriétaires sont en plein essor aux Etats-Unis, rapporte Tech Policy Press. Mais elles ne se limitent pas aux logiciels de tarification algorithmique de gestion immobilière, comme RealPage, dont nous vous avions déjà parlé (et que le ministère de la Justice continue de poursuivre au prétexte qu’il permettrait une entente anticoncurrentielle). Alors que la crise de l’accès au logement devient de plus en plus difficile pour nombre d’Américains, le risque est que la transformation numérique de l’immobilier devienne un piège numérique pour tous ceux à la recherche d’un logement. Le prix des loyers y devient de plus en plus inabordable. YieldStar de RealPage, influence désormais le prix de 70 % des appartements disponibles aux États-Unis et serait responsable de l’augmentation de 14% du prix de l’immobilier d’une année sur l’autre. Le développement de ces systèmes de fixation des prix coordonnés sapent l’idée que la concurrence sur le marché du logement pourrait seule protéger les locataires.
Des technologies pour harmoniser les tarifs, discriminer les locataires et accélérer les expulsionsMais la numérisation du marché ne s’applique pas seulement au tarif des locations, elle se développe aussi pour la sélection des locataires. Alors qu’aux Etats-Unis, les propriétaires étaient souvent peu exigeants sur les antécédents des locataires, désormais, les conditions pour passer les filtres des systèmes de sélection deviennent bien plus difficiles, reposant sur une inflation de justificatifs et des techniques d’évaluation des candidats à la location particulièrement opaques, à l’image de SingleKey, l’un des leader du secteur. 9 propriétaires sur 10 passent désormais par ce type de logiciels, en contradiction avec la loi américaine sur le logement équitable, notamment du fait qu’ils produisent un taux de refus de logement plus élevé sur certaines catégories de la population. Ces systèmes reproduisent et renforcent les discriminations, et surtout, rendent la relation propriétaire-locataire plus invasive. Mais, rappelaient déjà The Markup et le New York Times en 2020, ils s’appuient sur des systèmes de vérification d’antécédents automatisés et défectueux, qui par exemple agglomèrent des données d’homonymes et démultiplient les erreurs (et les homonymies ne sont pas distribuées de façon homogène : plus de 12 millions de Latinos à travers les Etats-Unis partageraient seulement 26 noms de famille !). Les casiers judiciaires des uns y sont confondus avec ceux des autres, dans des systèmes qui font des évaluations massives pour produire des scores, dont nul n’a intérêt à vérifier la pertinence, c’est-à-dire le taux de faux-positifs (comme nous le pointions relativement aux problèmes bancaires). Soumis à aucune normes, ces systèmes produisent de la discrimination dans l’indifférence générale. L’accès aux registres judiciaires et aux registres de crédits a permis aux entreprises de « vérification d’antécédents » de se démultiplier, sans que les « vérifications » qu’elles produisent ne soient vraiment vérifiées. Contrairement aux agences de crédit bancaires, dans le domaine de la location, les agences immobilières qui les utilisent ne sont pas contraintes de partager ces rapports d’information avec les candidats rejetés. Les locataires ne savent donc pas les raisons pour lesquelles leurs candidature sont rejetées.
Mais, rapporte encore Tech Policy Press, une troisième vague technologique est désormais à l’œuvre : les technologies d’expulsion, qui aident les propriétaires à rassembler les raisons d’expulser les locataires et à en gérer les aspects administratifs. C’est le cas par exemple de Teman GateGuard, un interphone « intelligent » qui permet de surveiller le comportement des locataires et enregistrer toute violation possible d’un bail, aussi anodine soit-elle, pour aider à documenter les infractions des locataires et remettre leurs biens sur le marché. SueYa est un service pour aider les propriétaires à résilier un bail de manière anticipée. Resident Interface propose quant à lui d’expulser les locataires rapidement et facilement… Des solutions qui n’enfreignent aucune loi, rappelle pertinemment Tech Policy Press, mais qui accélèrent les expulsions. Les propriétaires américains ont procédé à 1 115 000 expulsions en 2023, soit 100 000 de plus qu’en 2022 et 600 000 de plus qu’en 2021. Sans compter que ces expulsions peuvent être inscrites au casier judiciaire et rendre plus difficile la recherche d’un autre logement, et ce alors que les logements sociaux, les refuges et les services aux sans-abri sont notoirement sous-financés et insuffisants, alors même que de plus en plus d’Etat pénalisent les personnes SDF.
Pour l’instant, les tentatives de régulation des PropTechs sont plus juridiques que techniques, notamment en renforçant le droit au logement équitable. Des villes ou Etats prennent des mesures pour limiter les vérifications des antécédents des locataires ou interdire le recours à des logiciels de fixation de prix. Des actions de groupes contre RealPage ou Yardi ou contre des plateformes de contrôle des locataires, comme SafeRent ou CoreLogic, ont également lieu. Mais, « les régulateurs et les agences ne sont pas conçus pour être les seuls à faire respecter les protections et les conditions du marché ; ils sont conçus pour créer les conditions dans lesquelles les gens peuvent faire valoir leurs propres droits ». Les gouvernements locaux devraient soutenir publiquement la représentation juridique des locataires comme moyen d’atténuer les impacts de la crise du logement, et créer une meilleure responsabilité pour la technologie pour rétablir l’équité dans la relation propriétaire-locataire. À l’échelle nationale, 83 % des propriétaires ont une représentation juridique, contre seulement 4 % des locataires. La ville de Cleveland par exemple a piloté une représentation publique pour les locataires, ce qui a permis à 81 % des personnes représentées d’éviter une expulsion ou un déménagement involontaire, à 88 % de celles qui cherchaient un délai supplémentaire pour déménager d’obtenir ce délai et à 94 % de celles qui cherchaient à atténuer les dommages d’y parvenir. En fait, assurer cette représentation permet d’assurer aux gens qu’ils puissent exercer leurs droits.
Les PropTechs exacerbent la crise du logement. A défaut de substituts à des logements abordables, l’enjeu est que le droit puisse continuer à protéger ceux qui en ont le plus besoin. Mais sans documenter les discriminations que cette conjonction de systèmes produit, le droit aura surement bien des difficultés à menacer les technologies.
MAJ du 16/03/2025 : Signalons que The American Prospect consacre son dernier numéro à la crise du logement américaine : l’inflation immobilière est la principale responsable de l’inflation aux Etats-Unis.
-
sur Retour de flammes
Publié: 12 March 2025, 9:36am CET par la rédaction SIGMAG & SIGTV.FR
L’application du Living Atlas, ArcGIS Wildfire Aware, a permis de suivre les incendies dévastateurs de Los Angeles du mois de janvier dernier. Cet outil a aidé à visualiser la progression des flammes grâce à des données provenant de sources variées comme le NIFC, la NASA, ou la NOAA. Cette ressource s’est montrée indispensable pour assister les professionnels impliqués dans la gestion de crise. Les citoyens ont aussi pu observer les zones d’évacuation, les conditions météorologiques et l’impact sur les infrastructures. Elle est complétée par les données de vol de FlightAware, une animation sur 24 heures reprenant l’activité de lutte contre le feu au-dessus de l’incendie des Palissades. Ces 9 et 10 janvier, plus de 35 avions pilotés par de nombreux opérateurs étatiques, locaux et commerciaux ont parcouru plus de 15.000 miles de vol pour contenir les flammes.
+ d'infos :
livingatlas.arcgis.com
-
sur IA au travail : un malaise persistant
Publié: 12 March 2025, 7:01am CET par Hubert Guillaud
Les travailleurs américains sont plutôt sceptiques face à l’aide que peut leur apporter l’IA au travail. 80% d’entre eux ne l’utilisent pas, rapporte un sondage du Pew Internet, et ceux qui le font ne sont pas impressionnés par ses résultats. Les travailleurs sont plus inquiets qu’optimistes. Si les travailleurs plus jeunes et ceux qui ont des revenus plus élevés expriment plus d’enthousiasme à l’égard de l’IA au travail et à des taux plus élevés que les autres, l’inquiétude se propage à tous les groupes démographiques, rapporte le Washington Post. En fait, les attitudes des travailleurs à l’égard de l’IA risquent de devenir plus polarisées encore à la fois parce que les entreprises n’expliquent pas en quoi l’IA va aider leurs employés ni ne lèvent le risque sur l’emploi et le remplacement. Le malaise social de l’IA se répand bien plus qu’il ne se résout.
MAJ du 13/03/2025 : Dans sa newsletter, Brian Merchant pointe vers un autre sondage réalisé par le cabinet de consulting FGS pour Omidyar Network. Le sondage montre que si les travailleurs sont plutôt enthousiastes sur l’IA et la productivité qu’elle permet, ils savent que ces avantages ne leurs seront pas bénéfiques et qu’ils auront peu de contrôle sur la façon dont l’IA sera utilisée sur le lieu de travail. Bref, ils savent que l’IA sera un outil d’automatisation que la direction utilisera pour réduire les coûts de main-d’œuvre. Ils sont plus préoccupés par la perte d’emploi que par la menace que l’IA représente sur leur propre emploi. Par contre, ils sont très inquiets de la menace que représente l’IA sur la vie privée et sur la capacité d’apprentissage des enfants. Enfin, la plupart des travailleurs souhaitent des réglementations et des mesures de protection, ainsi que des mesures pour empêcher que les systèmes d’IA soient utilisés contre leurs intérêts et, bien sûr, pour dégrader les conditions de travail.
-
sur Atténuation des risques, entre complexité et inefficacité
Publié: 12 March 2025, 7:00am CET par Hubert Guillaud
Tim Bernard pour TechPolicy a lu les évaluations de risques systémiques que les principales plateformes sociales ont rendu à la Commission européenne dans le cadre des obligations qui s’imposent à elles avec le Digital Service Act. Le détail permet d’entrevoir la complexité des mesures d’atténuation que les plateformes mettent en place. Il montre par exemple que pour identifier certains contenus problématiques d’autres signaux que l’analyse du contenu peuvent se révéler bien plus utile, comme le comportement, le temps de réaction, les commentaires… Certains risques passent eux totalement à la trappe, comme les attaques par d’autres utilisateurs, les risques liés à l’utilisation excessive ou l’amplification de contenus polarisants et pas seulement ceux pouvant tomber sous le coup de la loi. On voit bien que la commission va devoir mieux orienter les demandes d’information qu’elle réclame aux plateformes (mais ça, la journaliste Gaby Miller nous l’avait déjà dit).
-
sur Dans les algorithmes bancaires
Publié: 11 March 2025, 7:00am CET par Hubert Guillaud
« Faux positifs » est une série de 3 épisodes de podcasts produits par Algorithm Watch et l’AFP, disponibles en français ou en anglais, et que vous trouverez sur la plupart des plateforme. Cette série pourrait être une enquête anodine et pourtant, c’est l’une des rares de disponible sur le sujet des défaillances des algorithmes bancaires. Les 3 épisodes explorent le problème du debanking ou débancarisation, c’est-à-dire le blocage et la fermeture automatisée de comptes bancaires, sans que vous n’y puissiez rien. Un phénomène qui touche des centaines de milliers de personnes, comme le montre cette grande enquête à travers l’Europe.
Dans les erreurs de la débancarisationOn ne sait pas grand chose des innombrables algorithmes qu’utilisent les banques, rappellent les journalistes de Faux positifs. La débancarisation repose sur des alertes automatisées développées par les banques et leurs prestataires sur les mouvements de comptes et leurs titulaires, mais elles semblent bien souvent mal calibrées. Et sans corrections appropriées, elles débouchent très concrètement sur la fermeture de comptes en banques. Le problème, comme souvent face aux problèmes des systèmes du calcul du social, c’est que les banques ne mettent en place ni garanties ni droits de recours pour ceux dont les comptes sont considérés comme suspects par les systèmes de calculs. Et le problème s’étend à bas bruit, car les clients chassés de leurs banques n’ont pas tendance à en parler.
Ça commence assez simplement par le blocage brutal du compte, racontent ceux qui y ont été confrontés. Impossible alors de pouvoir faire la moindre opération. Les usagers reçoivent un courrier qui leur annonce que leur compte sera clos sous deux mois et qu’ils doivent retirer leurs fonds. Bien souvent, comme dans d’autres problèmes du social, les banques annoncent être en conformité avec la réglementation dans leur décision voire nient le fait que la décision soit automatisée et assurent que la décision finale est toujours prise par un humain, comme l’exige la loi. Rien n’est pourtant moins sûr.
Comme ailleurs, les explications fournies aux usagers sont lacunaires, et elles le sont d’autant plus, que, comme quand on est soupçonné de fraude dans les organismes sociaux, le fait d’être soupçonné de malversation bancaire diminue vos possibilités de recours plutôt qu’elle ne les augmente. Visiblement, expliquent les journalistes, le blocage serait lié à des erreurs dans le questionnaire KYC (Know your customer, système de connaissance client), un questionnaire très exhaustif et intrusif, assorti de pièces justificatives, qui permet de certifier l’identité des clients et leur activité. Bien souvent, les défaillances sont liées au fait que l’activité ou l’identité des clients est mal renseignée. Certaines catégories, comme le fait de pratiquer l’échange de devises, sont considérées comme des activités à haut risques et sont plus susceptibles que d’autres de déclencher des alertes et blocages.
« Les saisines de l’autorité de surveillance des banques pour des plaintes liées à des fermetures de comptes en banques ont quadruplé en Espagne entre 2018 et 2022« , rapporte le pool de journalistes auteurs du podcast. « En novembre 2023, le New York Times a publié une enquête sur le même phénomène et au Royaume-uni, une hausse de 69% des plaintes a été constatée entre 2020 et 2024 par le médiateur des banques. En France, ce sont les associations du culte musulman qui ont tiré la sonnette d’alarme » et alertent sur la discrimination bancaire dont elles sont l’objet. Un tiers de ces associations auraient expérimenté des fermetures de comptes. Les associations cultuelles, les personnalités politiques et les réfugiés politiques semblent faire partie des catégories les plus débancarisées.
En 2024, le problème des associations cultuelles musulmanes n’est toujours pas réglé, confirment les associations, les empêchant de payer leurs loyers ou leurs charges. Ici aussi, les victimes se retrouvent face à un mur, sans recevoir d’explications ou de solutions. Si les banques ont le droit de fermer les comptes inactifs ou à découvert, elles doivent aussi respecter une réglementation très stricte pour lutter contre le blanchiment d’argent ou le financement du terrorisme, et les amendes sont très élevées pour celles qui ne respectent pas ces contraintes. En France, les banques doivent rapporter à Tracfin, la cellule de renseignement financier, les opérations douteuses qu’elles détectent. Les algorithmes bancaires repèrent des opérations sensées correspondre à certaines caractéristiques et seuils, développés par les banques ou des acteurs tiers, aux critères confidentiels. Ces logiciels de surveillance de la clientèle se sont déployés, et avec eux, les « faux positifs », rapportent les journalistes.
A la Banque postale, rapporte un cadre, chaque années, ce sont plusieurs dizaines de milliers d’opérations qui font l’objet d’alertes. Une fois analyse faite, si l’alerte se confirme, l’opération est déclarée à Tracfin, mais 95% des alertes ne débouchent sur aucun signalement. Dans les banques, à Paris, 17 à 20 000 personnes vérifient chaque jour ces alertes. Mais, visiblement, les rapports d’activité suspecte existent et ne sont pas sans conséquence sur les comptes. En fait, contrairement à ce qu’on pourrait penser, les faux positifs visent à surprotéger les banques contre les amendes réglementaires, en démontrant aux régulateurs qu’elles agissent, qu’importe si cette efficacité est très défaillante. Les faux positifs ne sont pas tant des erreurs, qu’un levier pour se prémunir des amendes. Finalement, les banques semblent encouragées à produire des faux positifs pour montrer qu’elles agissent, tous comme les organismes sociaux sont poussés à détecter de la fraude pour atteindre leurs objectifs de contrôle ou les systèmes de contrôle fiscaux automatisés sont poussés à atteindre certains niveaux d’automatisation. Le fait de débrancher des comptes, de soupçonner en masse semble finalement un moyen simple pour montrer qu’on agit. Pour la professeure Mariola Marzouk de Vortex Risk qui a quitté le secteur de la conformité réglementaire des banques, cette conformité est hypocrite et toxique. Les erreurs ne sont pas un bug, elles sont une fonctionnalité, qui protège les banques au détriment des usagers.
Faux positifs, la série de podcast d’Algorithm Watch et de l’AFP. La débancarisation, outil bien commode de la réduction du risque
Le 2e épisode commence par revenir sur les Panama Papers et les scandales de l’évasion fiscale qui ont obligé les banques à renforcer leurs contrôles. Mais la véritable origine de la surveillance des comptes provient de la lutte contre le trafic de drogue, explique l’avocate Charlotte Gaudin, fondatrice de AML Factory, une entreprise qui aide les entreprises à lutter contre le blanchiment de capitaux et le financement du terrorisme, dans tous les secteurs, des banques, aux assurances, en passant par les notaires et avocats, aux entreprises de cryptomonnaies, qui « ont toutes l’obligation de surveiller leurs clients ». Pour Transparency International, les banques doivent surveiller les dépôts à risques, notamment provenance de pays à risques établis par le GAFI, le Groupe d’action financière, l’organisme mondial de surveillance du blanchiment de capitaux et du financement du terrorisme. Outre, le KYC, la surveillance des clients, il y aussi la surveillance des transactions (KYT, Know your transactions). Le KYC permet de générer un score client. Le KYT lui permet de regarder s’il y a des dépôts d’argents « décorélés de ce que vous êtes sensé gagner tous les mois ». Les dépôts d’espèces sont mécaniquement plus risqués que les dépôts par carte, par exemple. Quand un dépôt d’espèces semble suspect, la banque alerte Tracfin qui estime s’il faut prévenir la justice ou l’administration fiscale. Pour s’éviter des ennuis, la banque peut décider de fermer votre compte, sans avoir le droit de vous dire pourquoi pour que vous n’effaciez pas les preuves.
Le problème, c’est que cette réglementation font des banques des auxiliaires de police et de justice… Mais sans avoir les moyens ou les compétences de mener des enquêtes. Les banques, pour poursuivre leur but, gagner de l’argent, ont donc tendance à se débarrasser de tous clients qui pourraient les mettre en danger. « C’est ce qu’on appelle le « derisking » ». Pour Mariola Marzouk, « ces règles sont vraiment simplistes ». Elles peuvent dire qu’une ONG est à haut risque parce qu’elle envoie des fonds dans une zone de conflits. En janvier 2022, l’autorité bancaire européenne elle-même a lancé une alerte sur le risque du derisking. En 2023, le politicien britannique d’extrême-droite, Nigel Farage, s’est vu fermer ses comptes par sa banque et a lancé un appel à témoignage qui a rencontré beaucoup d’échos, montrant à nouveau l’étendue du problème. Tous les politiques sont jugés à hauts risques par ces systèmes et font l’objet de mesures de contrôles renforcés (on parle de PPE, Personnes politiquement exposées). Selon les données de l’autorité qui contrôle les banques et les marchés financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermé en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont été condamné pour ce délit ces mêmes années selon l’Institut des affaires économiques britanniques.
En France aussi, les politiques sont sous surveillance. C’est arrivé au sénateur centriste du Tarn, Philippe Folliot, qui a même déposé une loi contre la fermeture abusive des comptes bancaires. Pour le sénateur, la débancarisation est liée à la déshumanisation, aux développement des robots bancaires et aux fermetures d’agences. Depuis la crise financière de 2008, le nombre de succursales bancaires en France est passé de 180 000 agences à 106 000 en 2023. Si l’on en croit le Canard Enchaîné, il y aurait d’autres raisons à la débancarisation du sénateur du Tarn, notamment les activités de sa compagne, d’autant que les banques semblent également utiliser les informations de la presse et des réseaux sociaux pour prolonger leurs informations. Mais quand bien même ces informations auraient pu jouer dans ce cas précis, les banques agissent ici sans mandat ni preuves. Cela montre, il me semble, la grande limite à confier à des acteurs des pouvoirs de police et de justice, sans assurer de possibilités de se défendre. Un peu comme l’on confie désormais aux Gafams la possibilité d’exclure des utilisateurs sans que ceux-ci ne puissent faire de recours. « Les banques de leur côté, ne nient pas qu’il puisse y avoir des difficultés, mais soulignent qu’elles ne font qu’appliquer la réglementation », souligne un acteur de la réglementation bancaire. Dans le cadre de PPE, se sont tous les proches qui sont placés sous-surveillance.
Pour l’expert américain Aaron Ansari de RangeForce, les décisions, aux Etats-Unis, sont automatisés en temps réel. Depuis les années 2010, quand un dépôt est effectué, les signalements sont immédiats… et si la marge d’erreur est faible, les comptes sont automatiquement fermés. En Europe, on nous assure que ce n’est pas le cas.
Sans issue ?Le 3e épisode, évoque l’internationalisation du problème, en montrant que les banques peuvent débancariser des réfugiés politiques au prétexte qu’ils sont signalés comme terroristes par les pays autoritaires qu’ils ont fuit. La débancarisation est devenue un moyen pour exclure des opposants dans leurs pays et qui ont des effets au-delà de leurs pays d’origine.
Yasir Gökce, réfugié turc en Allemagne, estime que nombre d’opposants turcs en Europe sont débancarisés du fait que les banques utilisent des informations provenant de courtiers en données pour alimenter leurs algorithmes de débancarisation, sans toujours les trier. Des données turques assignent les opposants comme terroristes et ces termes restent dans les fiches nominatives des courtiers. Les banques les utilisent pour évaluer les risques, et à moins de prêter une attention particulière à ces données pour les désactiver, génèrent des scores de risque élevés…
Le grand problème, c’est que les citoyens confrontés à ces décisions n’ont pas de recours. Faire modifier leur fiches KYC ne leur est souvent même pas proposé. Pour Maíra Martini de Transparency International, « les institutions financières n’ont pas à rechercher de preuves. Ce n’est pourtant pas à elles de décider si des personnes sont ou pas criminelles ».
« Les institutions financières n’arrivent donc pas toujours à corriger les erreurs de leurs systèmes algorithmiques et faire appel de ces décisions fondées sur leurs calculs ou sur leur aversion au risque peut-être très compliqué. C’est un problème que l’on retrouve ailleurs : dans l’aide social, dans l’éducation, les ressources humaines. » Les citoyens ne savent pas à qui s’adresser pour demander un réexamen de leurs cas. En fait, bien souvent, la possibilité n’est même pas proposée. Dans les boucles absurdes des décisions automatisées, bien souvent, l’usager est laissé sans recours ni garantie. « Les boutons Kafka » qu’évoquait l’avocate hollandaise Marlies van Eck pour permettre aux administrés de s’extraire de situations inextricables, n’est toujours pas une option.
Maíra Martini estime que les institutions financières devraient motiver leurs décisions. Les autorités de contrôle devraient également mieux évaluer les fermetures de compte, demander aux banques des statistiques annuelles, pour connaître les types de comptes et de personnes touchées, la proportion de fermeture par rapport aux condamnations… Empêcher que les abus ne se cachent derrière l’envolée des « faux positifs ». Et que les « faux positifs » ne deviennent partout une solution à la minimisation des risques. Bref, peut-être un peu mieux surveiller le niveau de derisking afin qu’il ne soit pas le prétexte d’une discrimination en roue libre.
Hubert Guillaud
Prenez le temps d’aller écouter les 3 épisodes de « Faux positifs », pilotés par Naiara Bellio d’Algorithm Watch et Jean-Baptiste Oubrier pour l’Agence France-Presse. Signalons que les journalistes invitent les victimes de débancarisation à témoigner par message audio sur whatsapp au + 33 6 79 77 38 45 ou par mail : podcast@afp.com
-
sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
Publié: 10 March 2025, 10:30am CET par Carole Marin
La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
Publié: 10 March 2025, 9:30am CET par Pierre Libaud
Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
sur Geodatadays 2023
Publié: 10 March 2025, 9:30am CET par Christine Plumejeaud-Perreau
Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
sur MapDraw. Un outil libre d’annotation de cartes en ligne
Publié: 10 March 2025, 9:30am CET par Justin Berli
Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
Publié: 10 March 2025, 9:30am CET par Gabriel Marquès
Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
Publié: 10 March 2025, 9:30am CET par Maxime Masson
TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
sur Atlas du développement durable. Un monde en transition, Autrement, 2022
Publié: 10 March 2025, 9:30am CET par Marie-Laure Trémélo
L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
Publié: 10 March 2025, 9:30am CET par Jean-Charles Édouard
Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
sur Mappa naturae, 2023
Publié: 10 March 2025, 9:30am CET par Sylvain Guyot
Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
sur Représenter la centralité marchande : la coloration marchande et ses usages
Publié: 10 March 2025, 9:30am CET par Nicolas Lebrun
La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
Publié: 10 March 2025, 9:30am CET par Jean Rieucau
La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
sur De l’hypersurveillance chinoise
Publié: 10 March 2025, 7:04am CET par Hubert Guillaud
Les technologies de surveillance les plus avancées au monde se trouvent aujourd’hui en Chine, explique le politologue Minxin Pei, mais, comme il le montre dans son livre, The Sentinel State: Surveillance and the Survival of Dictatorship in China, aucune de ces technologies ne fonctionne particulièrement bien et ce malgré le déploiement d’une pléthore de personnels pour les faire fonctionner. En fait, cette pléthore humaine ressemble bien plus aux vieux réseaux d’informateurs humains qui viennent compléter les défaillances du renseignement qu’à un réseau d’ingénieurs performants, explique Mason Wong dans sa lecture du livre de Pei. La dictature chinoise n’a pas besoin de technologie de pointe pour assurer sa paranoïa. La persistance de l’autocratie en Chine est moins une fonction de la technologie que le résultat d’un travail humain sous la forme de réseaux d’informateurs, d’espionnage intérieur à forte intensité de main-d’œuvre et d’une surveillance policière renforcée. Pei montre que nous sommes bien loin des délires dystopiques qui savent si bien mettre sous silence la question des libertés publiques qu’évoque l’investisseur sino-américain Kai-Fu Lee dans ses livres et notamment dans IA 2042.
Pour l’historien Andrew Liu, ce qui rend l’Asie si dangereuse pour nombre d’occidentaux, c’est qu’elle aurait capturé les technologies occidentales pour les rendre autoritaires et malfaisantes. Mais selon Liu, nous sommes surtout confronté à un techno-orientalisme, qui n’est pas seulement raciste, mais qui sert surtout à occulter la surveillance américaine elle-même et qui tend à faire de l’Asie une menace indétrônable. Dans le cadre techno-orientaliste, le problème est moins lié au danger que le régime chinois représente pour son propre peuple qu’au danger qu’il représente pour l’Occident.
Cette histoire sert également des objectifs politiques pratiques. Mettre la technologie au centre du récit sur la privation de liberté de la Chine permet à la sécurité américaine de présenter celle-ci comme une menace de haute technologie pour l’ensemble du monde libre. Et cela, à son tour, leur permet d’intégrer des préoccupations apparemment humanitaires concernant la surveillance dans un projet plus vaste : l’endiguement de la Chine. La logique de la soi-disant guerre technologique sino-américaine déplace le débat des questions de droits de l’homme vers les questions de politique de sécurité nationale, en associant le problème de l’État de surveillance aux débats sur les sanctions, le contrôle des exportations de semi-conducteurs, le protectionnisme commercial contre les voitures électriques chinoises et le désinvestissement forcé des investisseurs chinois d’applications comme TikTok. Le journaliste allemand Kai Strittmatter dans son livre, Dictature 2.0, quand la Chine surveille son peuple (et demain le monde) (Taillandier, 2020), nous le disait déjà pourtant : la Chine est d’abord le miroir noir de la surveillance américaine. En présentant la Chine comme l’ennemi, les Etats-Unis protègent d’abord leur propre puissance, expliquait Paris Marx.
Dans un pays où les informateurs imprègnent chaque couche de l’interaction sociale, la solution n’est pas aussi simple que de déjouer un algorithme ou d’échapper à la censure sur un flux vidéo. Le livre de Pei rappelle que l’autoritarisme chinois n’est pas fondamentalement un problème technique : le totalitarisme numérique n’est pas le bon prisme d’analyse. Ce qui ne veut pas dire que les Chinois sont des enfants de choeur, ni que la surveillance chinoise, plus distribuée que technologique, n’est pas un problème. Mais elle est d’abord un problème pour les citoyens chinois, plus qu’une menace technologique pour l’Occident.
-
sur La course à l’IA est un marathon
Publié: 7 March 2025, 7:25am CET par Hubert Guillaud
« Tant qu’il existera un consensus sur le fait que les LLM sont la seule approche pertinente, la loi d’échelle dominera et aucun pays ne pourra réellement « gagner » la course à l’IA. »
« L’extrême droite a réussi un tour de force : disqualifier la vérité en tant que critère pertinent pour juger de la qualité d’un modèle d’IA. »
« Ce n’est qu’en refusant de participer à cette course délirante que l’Europe aurait vraiment une chance de s’en sortir par le haut. » Gary Marcus
-
sur De l’esthétique fasciste de l’IA
Publié: 7 March 2025, 7:00am CET par Hubert Guillaud
“Pourquoi les personnalités d’extrême droite utilisent-elles massivement la synthographie et la vidéo générée par IA pour communiquer ? Le premier élément de réponse, le plus évident, se situe dans la facilité d’accès aux outils de génération d’image. Dans la pure application de la doctrine de Steve Bannon, qui recommande d’inonder l’espace médiatique de « merde » , l’imagerie IA peut être produite et diffusée de façon massive. Elle ne nécessite pas d’intermédiaire artistique et permet de véhiculer de manière suffisamment précise les idées à communiquer”. David-Julien Rahmil
“Si l’art consiste à établir ou à briser des règles esthétiques, alors l’art de l’IA, tel qu’il est pratiqué par la droite, affirme qu’il n’y a pas de règles, mais l’exercice pur et simple du pouvoir par un groupe sur un groupe extérieur”. Gareth Watkins“Les fascistes n’ont pas de morale […] Ils prennent toutes leurs décisions pour des raisons mythologiques ou esthétiques. C’est pourquoi ils aiment l’IA moderne. Pour eux, elle représente la victoire de l’esthétique sur l’art. Le triomphe final des apparences superficielles sur le sens humain.” Aaron Brown
-
sur La co-science de l’IA sera-t-elle magique ?
Publié: 6 March 2025, 7:00am CET par Hubert Guillaud
Google a dévoilé un système expérimental d’intelligence artificielle qui « utilise le raisonnement avancé pour aider les scientifiques à synthétiser de vastes quantités de littérature, à générer de nouvelles hypothèses et à suggérer des plans de recherche détaillés », selon son communiqué de presse. L’idée de cette IA de « co-science », basée sur Gemini, est qu’elle propose des idées à une question ou à un objectif spécifique, puis travaille ces hypothèses en allant puiser dans la recherche scientifique et dans les bases de données scientifiques. Si les équipes qui ont testé l’outil semblent enthousiastes, le New Scientist l’est beaucoup moins. L’idée que l’IA permettrait de tester de nouvelles hypothèses semble présomptueux, estime un spécialiste qui a regardé les propositions d’une équipe pour traiter la fibrose hépatique, qui note qu’il n’y a rien de nouveau dans ce qui est proposé. Visiblement, le système a surtout accès a bien plus de réponses que les humains.
En 2023, Google avait déjà annoncé qu’une quarantaine de « nouveaux matériaux » avaient été synthétisés à l’aide de son IA GNoME. Pourtant, selon une analyse de 2024 de Robert Palgrave de l’University College London, aucun des matériaux synthétisés n’était réellement nouveau. Ce qui n’empêche pas Palgrave de soutenir que l’IA est une aide considérable à la science. Une aide, pas une solution.
-
sur Les sites de rencontre ne protègent pas leurs utilisatrices
Publié: 5 March 2025, 7:00am CET par Hubert Guillaud
Match Group est un conglomérat mondial qui possède la plupart des applications de rencontre, comme Hinge, Tinder, OkCupid et Plenty of Fish. Match Group contrôle la moitié du marché mondial des rencontres en ligne, opère dans 190 pays et facilite les rencontres pour des millions de personnes. La politique de sécurité officielle de Match Group stipule que lorsqu’un utilisateur est signalé pour agression, « tous les comptes trouvés qui sont associés à cet utilisateur seront bannis de nos plateformes ». Mais ce n’est pas le cas, révèle une enquête de The Markup. Le 25 octobre 2024, un juge a condamné un cardiologue de Denver à 158 ans de prison après qu’un jury l’a reconnu coupable de 35 chefs d’accusation liés à l’usage de drogues et à l’agression sexuelle de huit femmes, et à l’agression de 3 autres. Les avocats des femmes ont déclaré qu’une grande partie de cette violence aurait pu être évitée, car la plupart de ces mauvaises rencontres se sont faites depuis des applications de rencontre, alors que le cardiologue y avait été dénoncé par de précédentes victimes. Visiblement, les sites de rencontre permettent aussi aux agresseurs qui commettent des abus sexuels d’atteindre plus facilement un nombre apparemment infini de cibles potentielles.
En 2022, une équipe de chercheurs de l’université Brigham Young a publié une analyse de centaines d’agressions sexuelles dans l’Utah. Ils ont découvert que les agressions facilitées par les applications de rencontre se produisaient plus rapidement et étaient plus violentes que lorsque l’agresseur rencontrait la victime par d’autres moyens. Ils ont également constaté que les agresseurs qui utilisent des applications de rencontre sont plus susceptibles de cibler les personnes vulnérables.
« Match Group sait depuis des années quels utilisateurs ont été dénoncés pour avoir drogué, agressé ou violé leurs partenaires. Depuis 2019, la base de données centrale de Match Group enregistre chaque utilisateur signalé pour viol et agression sur l’ensemble de sa suite d’applications ; en 2022, le système, connu sous le nom de Sentinel, collectait des centaines d’incidents chaque semaine, selon des sources internes de l’entreprise.«
« Match Group a promis en 2020 de publier ce que l’on appelle un rapport de transparence – un document public qui révélerait des données sur les préjudices survenus sur et en dehors de ses plateformes. Si le public était conscient de l’ampleur des viols et des agressions sur les applications de Match Group, il serait en mesure d’évaluer précisément les risques auxquels il est exposé. Mais en février 2025, le rapport n’avait pas encore été publié. »
Depuis 2020, les membres du Congrès américain ont demandé à plusieurs reprises à Match des données sur les agressions sexuelles, sans jamais avoir obtenu de réponses. « Les utilisateurs de Tinder bannis, y compris ceux signalés pour agression sexuelle, peuvent facilement rejoindre ou passer à une autre application de rencontre de Match Group, tout en conservant les mêmes informations personnelles clés. » « À partir d’avril 2024, The Dating Apps Reporting Project a créé une série de comptes Tinder que nous avons ensuite signalés pour agression sexuelle. Peu de temps après, Tinder a banni les comptes et nous avons commencé à enquêter sur la facilité avec laquelle un utilisateur banni pouvait créer de nouveaux comptes.«
« À plusieurs reprises, nous avons constaté que les utilisateurs, peu de temps après avoir été bannis, pouvaient créer de nouveaux comptes Tinder avec exactement le même nom, la même date de naissance et les mêmes photos de profil que ceux utilisés sur leurs comptes bannis. Les utilisateurs bannis de Tinder pouvaient également s’inscrire sur Hinge, OkCupid et Plenty of Fish sans modifier ces informations personnelles. »
En ce début 2025, les résultats financiers du Groupe Match ne sont pas très bons : les sites de rencontre peinent à se renouveler. Et surtout, la sécurité des utilisatrices des applications de rencontre est devenue problématique. Le cardiologue de Denver ne sortira probablement jamais de prison, mais les dirigeants de Match Group ne sont actuellement pas inculpés alors que l’entreprise était au courant de son comportement et de ceux de milliers d’autres utilisateurs abusifs. L’entreprise dispose de données qui pourraient aider les utilisatrices à éviter des situations dangereuses, mais elle ne les a pas partagées, laissant des millions de personnes dans l’ignorance. « La réalité est que si le cardiologue de Denver était libéré aujourd’hui, il pourrait immédiatement revenir sur une application de rencontre. Match Group le sait – et maintenant vous aussi. »
Sortir du swipePour le philosophe Luke Brunning qui dirige le Centre pour l’amour, le sexe et les relations de l’université de Leeds, les utilisateurs sont de plus en plus nombreux à se détourner des sites de rencontre. Pourtant, elles ont permis d’élargir les bassins de partenaires, tout en rendant la recherche de relation plus calculatrice, comme le montrait la chercheuse Marie Bergström dans son livre, Les nouvelles lois de l’amour (2019, La Découverte). A mesure que les applications de rencontre ont été plus acceptées, elles se sont aussi gamifiées, explique Brunning dans The New Scientist, nous incitant à chercher de nouvelles relations plutôt que d’approfondir les relations existantes (voir « Comment gagner à Tinder ? »). Bien souvent, payer un abonnement mensuel permet surtout d’obtenir un surcroît d’attention, tout comme sur X, où les utilisateurs payants sont rendus plus visibles. Mais cela ne signifie pas plus de rendez-vous réussi pour autant. Pour Brunning, les applications de rencontre doivent faire leur mea-culpa sur la gamification. Le fait qu’elles projettent toutes d’intégrer de l’IA, fait peser de nouveaux risques en créant des espaces toujours moins authentiques, où la manipulation se déploie, et avec elle, les préjugés sociaux existants et notamment l’homogamie sociale. Le chercheur invite également les applications à se débarrasser du mode binaire du swipe. « Avant d’adopter l’IA générative, les applications de rencontres doivent résoudre les problèmes qu’elles ont créés, pour nous connecter avec plus de transparence et d’autonomie. Elles ne sont peut-être pas disposées à le faire, car leur conception actuelle signifie que plus nous swipons, plus ils gagnent, mais s’ils ne le font pas, ils ont peu de chances de survivre à l’apathie croissante envers les rencontres en ligne. »
Le public est devenu très méfiant envers les sites de rencontre, notamment parce que celui-ci s’est rendu compte que les applications cherchent surtout à pousser les utilisateurs à payer pour accéder à des avantages (augmentation de la visibilité, likes illimités…). Le groupe Match est même poursuivi parce qu’il enferme ses utilisateurs « dans une boucle perpétuelle de paiement » pour jouer au détriment des « objectifs relationnels des clients ». Pour The Atlantic, Faith Hill se demande s’il pourrait y avoir des applications de rencontre à but non lucratif, pour éviter tous les désagréments auxquels conduit la recherche de profits. La journaliste a repéré quelques applications développées par des villes en Asie. Mais, si les objectifs des autorités peuvent rejoindre ceux des utilisateurs, la protection des utilisateurs n’est pas plus assurée par les applications publiques. En Chine ou en Iran, les victimes ne sont pas mieux considérées, sans compter qu’une plateforme publique ou gouvernementale peut facilement censurer certains types de rencontres (notamment intersexes, interculturelles, intercultuelles ou interraciales).
Mais il y a d’autres acteurs que les autorités pour produire ce type de plateforme, et notamment les chercheurs. Pourtant, la recherche sur le sujet des rencontres est à la peine. Dans une étude de 2017, des psychologues ont essayé de prédire la compatibilité des gens en utilisant un modèle mathématique basé sur plus de 100 mesures de traits et de préférences que leurs sujets ont eux-mêmes déclarées : aucune combinaison de ces caractéristiques n’a réussi à corréler le degré d’entente entre les participants lors de leur rencontre.
Elizabeth Bruch et Amie Gordon, chercheuses à l’Université du Michigan, ont travaillé sur Revel, une application de rencontres en cours de test par 200 étudiants. Mais plus qu’un site de rencontre, Revel semble surtout une plateforme d’étude pour comprendre à partir de combien de profils proposés, l’utilisateur sature, ou si le fait d’avoir plus d’information sur les personnes conduit à de meilleures connexions… C’est oublier que derrière la magie des appariements, comme le disait déjà Marie Bergström, « les algorithmes utilisés sont très rudimentaires et bien moins sophistiqués qu’on le croit. Les concepteurs sont d’ailleurs souvent les premiers à dire qu’on ne peut pas prédire l’appariement… et se contentent de cadrer la rencontre en laissant se débrouiller les gens. Meetic par exemple utilise des algorithmes simples qui déterminent une priorité dans les profils présentés favorisant le fait que les gens soient connectés en temps réel, qu’ils se soient inscrits récemment, qu’ils habitent à proximité et qu’ils aient à peu près le même âge. Et on en reste là la plupart du temps. »
-
sur Doge : l’efficacité, vraiment ?
Publié: 4 March 2025, 7:00am CET par Hubert Guillaud
Sans mandat ni attribution claire, Musk a pris les commandes des systèmes informatiques de l’Etat fédéral (Musk n’est que conseiller du Département de l’efficacité, dirigé – on ne le sait que depuis quelques jours – par Amy Gleason). Le démantèlement en cours de l’autre côté de l’Atlantique est à l’image de ce nouveau bureau dont le cadre d’exercice est tout aussi confus que le périmètre de ses missions. Cela n’empêche pas que, depuis le 20 janvier 2025, les Doge Kids prennent partout les commandes des bases de données d’innombrables agences et ministères, alors que le Doge licencie les fonctionnaires à tour de bras et coupe les budgets. S’il est difficile de tirer la situation au clair, tant les actions sont nombreuses et polémiques (certaines décisions sont prises, réfutées, reprises, avec des décisions de justice contradictoires qui viennent les réfuter sans qu’elles ne le soient nécessairement dans les faits), à défaut d’éclaircir la confusion, essayons néanmoins de regrouper les analyses.
Ce qu’il se passe avec le Doge depuis janvier est difficile à suivre, rappelle Brian Barrett pour Wired. Notamment parce que, contrairement à ce que Musk avait promis, le Doge ne fonctionne absolument pas d’une manière transparente, bien au contraire. Mais le peu que la presse en voit, qu’elle arrive à documenter, montre dans ses interstices, que ce qu’il se passe est pire que ce qu’elle parvient à en montrer. « La Food and Drug Administration (FDA) a annulé une réunion qui aurait dû donner des orientations sur la composition du vaccin contre la grippe de cette année. Pour l’instant, la réunion n’a pas été reprogrammée ». L’administration de la sécurité sociale va réduire son personnel de moitié. Le ministère du Logement et du Développement urbain va être réduit de 84 %. Et c’est pareil dans nombre d’administrations… « Ne pensez pas que vous recevrez vos chèques d’aide sociale à temps, que vous allez pouvoir garder vos lumières allumées »…. « Ne présumez pas que tout ce qui fonctionne aujourd’hui fonctionnera encore demain. » Surtout que si beaucoup de personnel ont été licenciés, la purge massive annoncée n’a pas encore eu lieu !
Le Doge a annoncé des correctifs sur certaines de leurs premières annonces, comme l’annulation d’un programme de l’USAID conçu pour empêcher la propagation d’Ebola. « Nous avons rétabli la prévention d’Ebola immédiatement » a-t-il été répondu face à l’alarme. Ce n’est pas le cas, rapporte le Washington Post. Un exemple qui montre qu’on ne peut même pas s’appuyer sur les déclarations.
Bref, « le Doge pour l’instant n’a fait que jeter un rocher au milieu d’un étang. Si vous pensez que c’est mauvais, attendez les répercussions ».
Le Doge : un piratage de l’intérieur !« Il s’agit de la plus grande violation de données et de la plus grande violation de sécurité informatique de l’histoire de notre pays », explique un expert en sécurité informatique interrogé par The Atlantic. Comme si on assistait à un piratage informatique de l’intérieur. Partout, les fonctionnaires sont déboussolés de constater ce qu’il se passe. « Musk et son équipe pourraient agir délibérément pour extraire des données sensibles, modifier des aspects fondamentaux du fonctionnement de ces systèmes ou fournir un accès supplémentaire à des acteurs non contrôlés. Ou ils peuvent agir avec négligence ou incompétence, détruisant complètement les systèmes. Étant donné l’ampleur de ce que font ces systèmes, des services gouvernementaux clés pourraient cesser de fonctionner correctement, des citoyens pourraient être lésés et les dommages pourraient être difficiles ou impossibles à réparer ». D’innombrables données personnelles sont siphonnées sans que nulle ne sache où elles seront disséminées ni à quoi elles pourront servir. Pire, les données peuvent également être modifiées tout comme le fonctionnement de logiciels critiques. Pire encore, le Doge peut désormais cacher les preuves des modifications que ses équipes accomplissent. « Ils pourraient modifier ou manipuler les données du Trésor directement dans la base de données sans que plus personne ne puisse vérifier les modifications ». L’information sur les niveaux d’accès spécifiques dont Musk et son équipe disposent restent flous et varient probablement selon les agences et les systèmes. « Auparavant, les protocoles de sécurité étaient si stricts qu’un entrepreneur branchant un ordinateur non fourni par le gouvernement sur un port Ethernet d’un bureau d’une agence gouvernementale était considéré comme une violation majeure de la sécurité ». Nous n’en sommes absolument plus là. « Plus ces intrusions durent, plus le risque d’une compromission potentiellement fatale augmente ». Même une petite modification d’une partie du système qui a trait à la distribution des fonds pourrait faire des ravages, empêchant ces fonds d’être distribués ou les distribuant de manière incorrecte, par exemple. Les opposants de Musk et Trump devraient s’inquiéter. Demain, le fisc pourrait produire des déclarations qu’ils n’ont pas faites ou faire disparaître celles qu’ils ont faites. La corruption des bases de données de l’Etat fédéral risque de saper ce qu’il reste de confiance dans l’Etat.
Dans les administrations, la terreur et la paranoïa règnent, explique la journaliste Karen Hao. La paralysie qui saisit les administrations américaines n’est pas que liée aux licenciements massifs, mais plus encore à la peur de dénonciation. Tous les fonctionnaires ont l’impression d’être désormais traqués par leur propre gouvernement. Nombre de fonctionnaires suspectent désormais leurs ordinateurs de les espionner pour le compte du Doge, rapporte Wired, et nombreux sont ceux qui se mettent à prendre des précautions… D’ailleurs, le nombre de messages échangés a considérablement chuté, pas seulement du fait des licenciements.
Mais la surveillance des fonctionnaires a commencé bien avant Trump, rappellent les journalistes de Wired, notamment pour ceux qui manipulent des informations classifiées. Mais pas seulement, beaucoup d’agences sensibles sont depuis longtemps sous surveillance. 9 des 15 ministères américains avaient déjà souscrit des programmes de surveillance d’une partie de leurs employés, à l’image du logiciel Intercept de Dtex, utilisé par plusieurs agences fédérales, qui génère des scores de risque individuels en analysant des métadonnées anonymisées, telles que les URL que les travailleurs visitent et les fichiers qu’ils ouvrent et impriment sur leurs appareils de travail. « Lorsque vous créez une culture de peur et d’intimidation et que vous parvenez à dissuader les gens de dénoncer les actes répréhensibles, vous vous assurez que la corruption passe inaperçue et n’est pas traitée« , s’alarme Karen Hao.
Thomas Shedd, un ancien ingénieur de Tesla récemment nommé directeur des services de transformation technologique du Doge, a demandé un accès privilégié à 19 systèmes informatiques différents. « S’ils voulaient changer le montant du salaire d’une personne ou de ses impôts, ils pourraient le modifier », explique encore un article de The Atlantic. Non seulement ils peuvent lire les e-mails des employés, mais vu le niveau d’autorisation d’accès, ils pourraient même les modifier. Les risques de préjudice, d’abus, de corruption ou de vengeance sont complètement libérés. « La NASA détient des spécifications techniques et des données de recherche pour les concurrents de SpaceX, et les initiés craignent que ces informations soient bientôt également compromises. Ils craignent également que la R&D classifiée de la NASA dans des domaines tels que la physique quantique, la biotechnologie et l’astrobiologie puisse être volée à des fins privées. »
« Le premier mois de Musk et du Doge a été si chaotique, leurs incursions si aléatoires, qu’il est difficile d’évaluer ce qui s’est passé. Doge prétend améliorer le gouvernement, mais les employés de l’agence avec lesquels nous avons parlé ont le sentiment d’avoir été piratés. »
Pour les éditeurs de The Atlantic : « Aucune bonne raison ou argument ne peut être avancé pour qu’une personne ou une entité ait un tel accès à autant d’agences gouvernementales contenant autant d’informations sensibles. Même dans un seul bureau gouvernemental, l’accès administratif complet à tous les systèmes est un privilège qui n’existe pas. Dans l’ensemble, à l’échelle de l’ensemble du gouvernement, ce serait incompréhensible ».
Le Data Coup du Doge est « la plus grande appropriation de données publiques par un particulier dans l’histoire d’un État moderne », estiment les sociologues Nick Couldry et Ulises Meijas dans une tribune pour Tech Policy Press (auteurs d’un récent livre sur le pillage des données et le colonialisme de la Tech, dont on avait rendu compte). Pour eux, ce qu’il se passe ne relève pas du capitalisme de surveillance de Zuboff qui dénonçait le fait que les géants de la tech aient été mis au service de l’Etat. Ici, il s’agit de mettre toutes les données de l’Etat fédéral au mains d’entreprises : « Dans le néolibéralisme, les citoyens deviennent des consommateurs ; dans le colonialisme des données, les citoyens deviennent des sujets ». Une fois que nous examinons les événements récents aux États-Unis à travers une lentille coloniale, le mépris de la légalité n’est pas non plus surprenant. Jusqu’à récemment, il était possible que l’État américain soutienne des réglementations pour restreindre l’extractivisme des Big Tech, sous une forme ou une autre. Aujourd’hui, c’est devenu une perspective lointaine.
« Le Doge a compris quelque chose que l’establishment politique n’a pas compris : la technologie est la colonne vertébrale de tout gouvernement ! » C’est ce qu’affirme dans une tribune pour Tech Policy Press, Emily Tavoulareas qui a fondé le US Digital Service, qui, depuis le 20 janvier est devenu le Doge. L’organisation dédiée à l’amélioration des services gouvernementaux a été réaffectée en vecteur de destruction de ces services, constate, désolée, la chercheuse et ex-directrice technique à la Maison Blanche. Là aussi, la plupart des employés ont été licenciés. Le Doge a pris le contrôle de nombres de systèmes critiques du gouvernement fédéral. « L’administration Trump semble comprendre quelque chose que peu d’autres comprennent : l’infrastructure technique est l’infrastructure de tout. Elle peut accélérer ou entraver les objectifs politiques ». C’est ce qu’a tenté d’expliquer Tavoulareas à nombre de responsables politiques ces dernières années. Pour le US Digital Service, les applications et sites de l’administration problématiques étaient souvent un levier pour organiser des transformations plus profondes dans les services. Mais pour les politiciens, bien souvent, la technologie et l’implémentation des politiques dans des services numériques, tenaient de la simple logistique, souvent confiée à des acteurs privés. Mais, c’est là croire que la technologie est subordonnée au travail politique, quand elle lui est inextricablement liée. « Séparer la politique de la technologie dont elle dépend a été une cause profonde de beaucoup de dysfonctionnements ».
« La technologie n’est pas une chose supplémentaire que vous ajoutez aux programmes et services gouvernementaux — elle EST le service. Ce n’est pas une chose supplémentaire que vous ajoutez à l’institution — elle est la colonne vertébrale de l’institution. » Le Doge a parfaitement compris cela. Les équipes de Musk savent parfaitement que l’infrastructure technique n’est pas seulement une infrastructure pour faire des applications et des sites web, mais qu’elle est l’infrastructure qui contrôle tout.
La mission du US Digital Service était de fournir de meilleurs services gouvernementaux au peuple américain à travers la technologie et le design. Pour le service numérique du gouvernement américain, la technologie n’était qu’un véhicule pour améliorer les services au bénéfice des personnes. Ce n’est pas l’objectif du Doge, qui se concentre tout entier sur l’efficacité et la réduction des coûts. Le Doge n’a pas vocation à se mettre au service des gens, ce qui signifie qu’elle est au service de quelqu’un d’autre ! Certes, concède Emily Tavoulareas, le Digital service n’a pas toujours été efficace. Oui, le gouvernement américain a gaspillé parfois des milliards de dollars à construire des logiciels qui ne fonctionnent pas, notamment parce que nombre de services se préoccupent assez peu des utilisateurs. Mais le Digital service montrait qu’on pouvait et devait faire mieux, que les employés du gouvernement devaient privilégier les résultats sur les procédures, les personnes par rapport aux processus, les solutions par rapport aux règles. Le service a tenté de faire en sorte que la technologie bénéficie aux utilisateurs. Avec le Doge, il est sûr que ce n’est pas aux utilisateurs qu’elle va désormais bénéficier !
Le Doge, institution de l’IA impérialeIl est temps de s’inquiéter des projets d’intelligence artificielle du Doge, s’alarment les spécialistes de la sécurité informatique Bruce Schneier et Nathan Sanders dans The Atlantic (ils feront paraître en octobre, Rewiring Democracy). Alors que nombre de fonctions critiques de l’Etat ont été interrompues, que des dizaines de milliers de fonctionnaires fédéraux sont encouragés à démissionner, le département de l’efficacité gouvernementale s’attaque déjà à l’étape suivante : utiliser l’IA pour réduire les coûts. Selon le Washington Post, le groupe de Musk a commencé à traiter des données sensibles des systèmes gouvernementaux via des programmes d’IA pour analyser les dépenses et déterminer ce qui pourrait être élagué et bien sûr remplacer les fonctionnaires par des machines. En fait, analysent Schneier et Sanders, remplacer les fonctionnaires par des machines a surtout pour objectif de rendre le changement à l’oeuvre sans recours, en éliminant la résistance des corps institués au changement. L’autre danger de recourir à l’IA pour gérer des programmes fédéraux, c’est de renforcer la concentration du pouvoir. Les programmes de protection sociale comme les organismes de contrôle des entreprises peuvent alors très facilement être orientés pour bénéficier à certains plus qu’à d’autres. « Le pouvoir absolu de commander des agents d’IA pourrait faciliter la subversion de l’intention législative« .
Bien sûr, la faculté de discernement ne disparaît pas, mais dans les systèmes machiniques, celle-ci est concentrée dans les mains de ceux qui opèrent et déploient les systèmes. Dans les systèmes humains, ce discernement est largement réparti entre de nombreux individus, fonctionnaires et agents. « L’IA ne remplace pas ces anciennes institutions, mais elle change leur fonctionnement ». Le développement de l’IA elle-même pourrait se faire au sein d’institutions publiques transparentes, responsables et démocratiques, avec une supervision publique de leur conception et de leur mise en œuvre et la mise en place de garde-fous adaptés, plaident les deux chercheurs. Ce n’est bien sûr pas cette orientation qui est prise. Et le risque, c’est que cette orientation autoritaire inspire toute les autres à venir.
Le Washington Post explique que c’est le ministère de l’Education qui semble le premier à faire les frais de l’épluchage de ses dépenses par l’IA. L’utilisation de l’IA par le Doge au sein du ministère de l’Éducation constitue un écart important par rapport à la politique préconisée sur la technologie, à savoir n’utiliser les programmes qu’après avoir fait les tests nécessaires pour s’assurer que son utilisation ne compromette pas la confidentialité et la cybersécurité.
Mais, l’IA peut-elle vraiment aider le Doge à réduire les budgets et éviter le gaspillage ?, s’interroge la Technology Review. Comme le répète Arvind Narayanan, le calcul fonctionne mieux quand ce qu’il doit calculer est clair. La fraude est une notion un peu moins subjective que le gaspillage. Or, les paiements fédéraux frauduleux dans le domaine de la santé ne sont pas tant du fait des utilisateurs que des sociétés pharmaceutiques, rappelle l’économiste Jetson Leder-Luis, spécialiste de la fraude sociale. Celui-ci rappelle qu’il est possible de chercher des schémas de fraudes pour mettre fin aux remboursements frauduleux avant qu’ils ne se produisent. Dans une étude de 2024, l’économiste montrait qu’il était possible d’utiliser l’IA pour détecter des fraudes institutionnelles potentielles, selon une approche préventive. Mais ces distinctions n’ont pas l’air d’être la priorité du Doge, bien au contraire. Le but semble bien plus de réduire des dépenses pour des raisons politiques que de réduire les fraudes et abus depuis des preuves.
Le Doge travaille à un système pour automatiser le licenciement des fonctionnaires, explique encore Wired, sur la base d’un logiciel créé il y a 20 ans par le ministère de la Défense, permettant d’accélérer la réduction d’effectifs. Jusqu’à présent, les licenciements ont été manuels et ont visé surtout les employés en période d’essai. Mais visiblement, le but semble d’accélérer encore la cadence. Pour Brian Merchant, ces annonces d’automatisation des licenciements sont consécutives au fait que le Doge ait demandé à deux millions d’employés du gouvernement de répondre à un mail leur demandant ce qu’ils ont fait de leur semaine. L’analyse qu’il va en être fait risque surtout de ne pas produire grand-chose car aucun système n’est capable de déterminer depuis ces mails, si le travail de ceux qui y répondent est nécessaire ou non. Nous sommes dans un “Grok Gouvernement” ironise Merchant, en comparant ce qu’il se passe à l’IA de Musk, surtout connue pour son sens de l’humour particulièrement problématique.
Mais aussi stupide soit la fiction, la mascarade est puissante. Car ces annonces rhétoriques impressionnent. L’essentiel n’est pas ce que ces outils vont ou peuvent produire, mais en réalité, l’important, c’est la fiction qu’ils déroulent. Ce sont des “générateurs de faux-semblants”. L’efficacité supposée des outils permet surtout de déresponsabiliser les décisions. “L’idée est d’utiliser la notion même d’IA et d’automatisation comme instruments de perturbation et de consolidation du contrôle”.
Pour Kate Crawford, citée par Merchant, l’IA se révèle plus impérialiste que jamais. Les Etats-Unis comme les Big Techs de l’IA ne parlent plus d’innovation, constate-t-elle. JD Vance, le vice-président américain, à Paris comme à Munich, ne disait pas autre chose. Il parle d’expansion pure, de consolidation du pouvoir par l’IA. Le décalage avec le camp qui défend l’intérêt public n’a jamais été aussi béant. Le désalignement est total. “L’approche américaine de l’IA consiste à construire un empire”, sans garde-fous. “Au moment même où Vance prononçait ces mots, aux États-Unis, le Doge infiltrait et saisissait, souvent en violation de la loi, l’infrastructure d’information du gouvernement américain”. Le Doge a effacé des données, censuré des mots et réécrit l’histoire. Pour le gouvernement américain, désormais, l’enjeu n’est plus de s’inquiéter des risques, de la sécurité ou de la protection des populations, mais de construire des systèmes rentables. Les empires ont toujours concentré le pouvoir technologique, rappelle Crawford qui a tenté de le montrer dans son projet Calculating Empire.
Ce qui semble certain, c’est que ce déploiement de l’IA comme nouvelle méthode de gouvernement ne se fera pas sans retour de bâton… A mesure que ces systèmes feront n’importe quoi – et ils feront n’importe quoi –, c’est tout le champ technologique qui est menacé de corruption et d’effondrement.
Nous sommes confrontés à un coup d’Etat des thuriféraires de l’IA, estime Eryk Salvaggio dans Tech Policy Press. L’IA est une technologie qui permet de « fabriquer des excuses ». Il suffit de dire que l’IA peut remplacer l’administration, pour qu’on discute de savoir comment plutôt que de comprendre pourquoi ce serait nécessaire. Nous sommes au milieu d’un coup d’État politique qui risque de changer à jamais la nature du gouvernement américain. Il ne se déroule pas dans la rue, il se déroule sans loi martiale, sans même avoir recours à la force ou à l’armée : il se déroule dans l’automatisation banale de la bureaucratie. La justification repose sur un mythe de productivité selon lequel le but de la bureaucratie est simplement ce qu’elle produit (services, informations, gouvernance) et peut être isolé du processus qui y conduit. L’IA nous est imposée comme un outil pour remplacer la politique. Mais son but n’est pas de s’en prendre à la paperasse ou au gaspillage, comme on nous le répète : l’IA est utilisée pour « contourner la surveillance du budget par le Congrès, qui est, constitutionnellement, l’attribution de ressources aux programmes gouvernementaux par le biais de la politique représentative ». Le Doge vise à déplacer la prise de décision collective au cœur de la politique représentative. Dans le chaos qui règne à Washington, les entreprises de la Silicon Valley font valoir qu’elles sont la solution. Elle consiste, peu ou prou, en un chatbot omnipotent, une sorte d’IA gouvernementale dédiée. « Il suffit que cette IA soit considérée comme un concurrent plausible de la prise de décision humaine suffisamment longtemps pour déloger les décideurs humains existants dans la fonction publique, des travailleurs qui incarnent les valeurs et la mission de l’institution. Une fois remplacées, les connaissances humaines qui produisent l’institution seront perdues ». Ce projet, même flou, ne propose rien de moins que l’avènement d’un régime technocratique, où le pouvoir se concentre entre les mains de ceux qui comprennent et contrôlent la maintenance, l’entretien et les mises à niveau de ce système. Pour Salvaggio, l’enjeu consiste à créer une forme de « crise informatique nationale que seule les géants de l’IA peuvent résoudre ». Nous sommes en train de passer de « la gouvernance démocratique à l’automatisme technocratique ». Ce scénario catastrophe suppose bien sûr un public passif, une bureaucratie complaisante et un Congrès qui ne fait rien, précise Salvaggio. Cela suppose qu’opérer dans une zone grise juridique est un moyen d’échapper à la surveillance judiciaire – et c’est ce que permet le Doge. La rapidité d’action permet de déplacer le débat vers la technique ce qui est une façon d’exclure les décideurs politiques et le public des décisions et de transférer ce pouvoir au code qu’ils écrivent. La participation démocratique ne sera jamais un gaspillage, rappelle Salvaggio. « Aucun système informatisé ne devrait remplacer la voix des électeurs. Ne demandez pas si la machine est digne de confiance. Demandez-vous qui la contrôle« .
Transformer l’infrastructure de l’Etat en arme« Ce n’est pas tant un coup d’Etat qu’une OPA », expliquent Henry Farrell et Abraham Newman, qui ont publié récemment L’empire souterrain (Odile Jacob, 2024) un livre où ils expliquent comment l’Amérique a pris le contrôle des systèmes techniques de l’économie mondiale et les ont utilisés pour exercer leur domination sur leurs alliés comme sur leurs ennemis. « Aujourd’hui, Musk semble faire au gouvernement américain ce que le gouvernement américain a fait autrefois au reste du monde : transformer la plomberie du gouvernement fédéral en arme politique contre ses adversaires« . Snowden nous a montré comment les États-Unis avaient transformé Internet en un gigantesque système de surveillance mondiale. L’accès à Swift, l’infrastructure institutionnelle de base qui garantit que l’argent, les informations et les biens arrivent là où ils doivent était l’autre pierre angulaire que l’Amérique a subvertit. « Les États-Unis ont identifié des points d’étranglement clés qui leur ont permis d’utiliser les infrastructures de paiement, d’information et physiques du monde entier comme une arme pour parvenir à leurs fins. Le Doge de Musk utilise les infrastructures de paiement, d’information et physiques du gouvernement américain de manière très similaire, en contournant les structures politiques censées restreindre l’action exécutive unilatérale. Tout comme lorsque les États-Unis ont utilisé l’économie mondiale comme une arme il y a plus de deux décennies, il est difficile pour ceux qui en sont les victimes de comprendre exactement ce qui leur arrive« .
« Comme Swift et la compensation en dollars, le système de paiement fédéral était autrefois traité comme un système entièrement technique, à l’abri des interférences politiques. Ce n’est plus le cas. Comme l’explique Nathan Tankus pour Rolling Stones, le Bureau du service fiscal, la partie du département du Trésor qui gère les paiements pour le gouvernement fédéral, est censé être technocratique et se concentrer uniquement sur la garantie que l’argent va là où il est censé aller. Néanmoins, parce qu’il agit comme un intermédiaire entre le gouvernement et le reste du gouvernement, il constitue un point d’étranglement crucial. Il offre un point de visibilité unique sur les opérations du gouvernement, avec des informations stratégiques détaillées sur l’argent qui circule et où, et un point de contrôle unique. »
« Ce qu’ils doivent comprendre – et rapidement – ??c’est que Musk, et par extension Trump, semblent essayer de transformer ces systèmes techniques en leviers de contrôle. Si les deux réussissent, ce qui est incertain, ils auront un avantage politique sans précédent dans les mois et les années à venir. Même s’ils échouent, leurs erreurs peuvent avoir des conséquences catastrophiques.«
« Tout comme le contrôle de Swift a fourni aux États-Unis des informations stratégiques vitales sur les flux financiers mondiaux, Doge pourrait également utiliser l’accès au système fédéral de paiements pour obtenir un aperçu des opérations gouvernementales. Dans notre recherche sur les paiements mondiaux, nous avons décrit comment les États-Unis ont transformé la finance mondiale en un « panoptique » qui leur a fourni des informations extrêmement détaillées sur qui envoyait de l’argent à qui, qu’ils pouvaient ensuite utiliser comme arme contre leurs adversaires. Peu à peu, les États-Unis ont utilisé le système du dollar comme un point d’étranglement pour bloquer les paiements et pour transformer les banques étrangères en agents du pouvoir américain ».
« Le système fédéral de paiements est un panoptique depuis des décennies, attendant que quelqu’un avec des ambitions politiques brise le pare-feu bureaucratique ». C’est ce qui est en train de se passer, estiment les chercheurs. « Tout entrepreneur ou tiers qui dépend de l’argent du gouvernement américain se retrouvera dépendant de leur patronage et de leurs caprices politiques. Cela sera techniquement difficile à réaliser, mais cela générerait des opportunités étonnantes de corruption secrète et ouverte et d’imposition de préférences politiques et idéologiques à des tiers ». Pourtant, les risques les plus probables à court terme ne sont pas une coercition efficace mais une calamité accidentelle, du fait que les Doge Kids maîtrisent mal les couches techniques de ces systèmes.
« Tout comme il a fallu des décennies aux États-Unis pour vraiment transformer les systèmes techniques de l’économie mondiale en fonction de leurs objectifs, il faudra du temps et des bidouillages pour que le Doge commence vraiment à réaliser ses ambitions. La mauvaise nouvelle est que les fonctionnaires fédéraux et l’ensemble de la population américaine seront les cobayes involontaires de cette vaste expérience. La moins mauvaise nouvelle est que ce qui ressemble à une prise de pouvoir gouvernementale accomplie en un week-end n’est pas encore une machine de pouvoir, et il faudra un travail acharné et ininterrompu pour y parvenir. Les législateurs, les avocats et les citoyens ordinaires qui ne veulent pas que cette prise de pouvoir hostile réussisse devraient saisir toutes les occasions de jeter du sable dans le mécanisme par la politique et la protestation, tant qu’il est encore temps de préserver les institutions qui, bien qu’imparfaites, sont nécessaires au fonctionnement de la société et de la démocratie américaines ».
Même constat pour l’historien de l’économie Quinn Slobodian (auteur du Capitalisme de l’apocalypse, Le Seuil, 2025) dans une brillante analyse politique pour la New York Review, où il explique que le Doge est la synthèse de trois courants politiques : celui des marchés et des startups qui souhaitent un retour sur investissement, celui des think-tanks consevateurs anti-New Deal qui souhaite un Etat incapable de promouvoir la justice sociale ; et le monde extrêmement connecté de l’anarchocapitalisme et de l’accélérationnisme de droite, qui souhaite un État brisé qui cède l’autorité gouvernementale à des projets concurrents de gouvernance privée décentralisée. Les mercenaires de Musk sont des « consultants en gestion radicalisés » qui appliquent les règles qu’il a appliqué à Twitter au gouvernement fédéral. L’objectif n’est pas moins que la mort de l’Etat fédéral, pareil à un écran noir qui ne répond plus.
Doge : une porte ouverte pour la corruption et l’escroquerieEn attendant, les équipes de Musk agissent vite. Dès qu’ils accèdent aux données, ils épurent les bénéficiaires. The Atlantic rapporte par exemple l’arrivée des équipes du Doge au Bureau de protection des consommateurs en matière financière (CFPB). En quelques heures, les bureaux sont fermés, les employés licenciés, les activités suspendues, selon des principes partout similaires : coupes budgétaires brutales, changements de direction, et campagnes de diffamation en ligne. Toutes les dépenses sont annulées, avec le triple objectif d’une purge politique de l’administration, du renforcement sans précédent du pouvoir présidentiel et bien sûr d’économies.
Pourtant, depuis sa création, en 2011, le CFPB a protégé nombre d’Américains des fraudes et escroqueries financières. Selon son ancien directeur, elle aurait restitué 20,7 milliards de dollars aux consommateurs depuis sa création. Sa fermeture annonce surtout la retour des arnaques financières que l’organisme n’a eu de cesse de traquer : « les entreprises de fintech douteuses auront moins de soucis à se faire, les normes de prêt pourront se détériorer, les consommateurs victimes de fraude n’auront pas de moyen de demander de l’aide »…
Comme le dit l’économiste américain Paul Krugman dans sa newsletter, c’est le retour du printemps pour les escrocs. « Nous avons désormais un gouvernement de, par et pour les prédateurs financiers », s’insurge Krugman. Via un système de signalement et de dépôt de plaintes, l’agence a aidé des centaines de milliers de personnes à résoudre leurs problèmes avec des entreprises privées. Selon Bloomberg, le Doge s’est vu « accorder l’accès à tous les systèmes de données du CFPB », alors qu’elle dispose d’une quantité importante d’informations confidentielles sur les plaignants comme sur les entreprises visées par ces plaintes, sans compter les conflits d’intérêts même de Musk (qu’il est censé gérer seul, du haut de sa grande vertu morale !), le CFPB ayant reçu des plaintes à l’encontre de Tesla, et X – qui a annoncé un accord avec Visa pour développer des services de paiement – aurait dû entrer dans le scope de surveillance financière du CFPB. « Démanteler l’organisme de surveillance au motif qu’il représente un coût excessif pour le peuple américain, comme l’a affirmé Elon Musk dans un message est tout simplement incorrect. Si vous regardez les dollars dépensés par rapport aux dollars récupérés », a déclaré son ancien responsable. « L’agence a récupéré bien plus pour les consommateurs qu’elle n’en a jamais dépensé dans son intégralité pour ses opérations. Musk dit que le Doge devrait permettre aux contribuables d’économiser de l’argent, mais le CFPB le fait depuis le début. »
L’accès aux systèmes de paiement fédéraux par le personnel du Doge a été qualifié de « plus grande menace interne à laquelle le bureau du service fiscal n’ait jamais été confronté ».
En tout cas, les conflits d’intérêts semblent innombrables. Scott Langmack, directeur de l’exploitation de Kukun une société de technologie immobilière s’est récemment présenté comme conseiller principal du Doge en demandant aux employés du Département du logement et du développement urbain de lister tous les contrats du bureau et de noter s’ils étaient ou non essentiels pour l’agence, rapporte Wired. Tom Krause, par exemple, exerce les fonctions de secrétaire adjoint aux finances au Trésor tout en occupant le rôle de PDG d’une entreprise de logiciels qui a des millions de dollars de contrats avec le Trésor. Outre les conflits d’intérêts problématiques, la granularité des données auxquels le Doge a désormais accès est tout autant problématique. Et l’ensemble est d’autant plus problématique que nul ne sait ce qui est fait des données. Elles peuvent être copiées, modifiées, corrompues. Il est probable que cette corruption des données soit en train de produire de super-oligarques de la tech… Les techbros surpuissants d’aujourd’hui, pourraient bien être des nains par rapport à la puissance qu’ils sont en train d’acquérir.
Même le vénérable Financial Times commence à s’inquiéter. Les entreprises ont conclu un pacte faustien avec Donald Trump et Elon Musk, séduites par les promesses de la déréglementation et des baisses d’impôts. « En réalité, les chefs d’entreprise ont laissé entrer dans le poulailler des renards extrêmement rapaces, ce qu’ils pourraient regretter ». La journaliste économique Rana Foroohar est pourtant conciliante, puisqu’elle propose de laisser de côté les effets économiques négatifs des guerres commerciales qui s’annoncent, des rafles d’immigrants, ou des conflits géopolitiques qui pointent. L’accès illimité du Doge aux données d’innombrables administrations est une menace existentielle pour nombre d’entreprises. « Il y a plusieurs choses qui m’inquiéteraient si j’étais un chef d’entreprise. La première est l’avantage concurrentiel sans précédent que Musk pourrait obtenir en ayant accès à des éléments tels que les données de sécurité du ministère des Transports, les informations sur les essais de la Food and Drug Administration, les recherches exclusives du ministère de l’Agriculture ou les informations préalables à la publication des demandes de brevet. Si j’étais à la tête d’une entreprise automobile comme General Motors ou d’une société de covoiturage comme Uber, je me demanderai si Elon Musk a aspiré des informations sur les tests de voitures autonomes des concurrents de Tesla. Si j’étais un investisseur en capital-risque, je me demanderai s’il est désormais capable de voir quelles nouvelles technologies sont les plus proches d’être commercialisées et comment, afin de mieux devancer ses concurrents potentiels. Ce ne sont là que quelques-unes des implications les plus évidentes d’avoir un adversaire qui pourrait potentiellement accéder à des informations que les entreprises pensaient ne donner qu’au gouvernement« . Ensuite, il y a les avantages concurrentiels à long terme que Musk pourrait obtenir en intégrant des ensembles de données de différents départements dans ses propres systèmes d’intelligence artificielle (La Maison Blanche affirme qu’il ne le fait pas, mais il n’y a aucune preuve dans un sens ou dans l’autre). « On ne sait pas exactement ce que Doge exploite et comment les données sont utilisées ».
Mais les conséquences négatives potentielles pour les entreprises ne se limitent pas à un accès injuste à l’information. La suppression de diverses agences et la fin des subventions vont avoir de nombreux effets dissuasifs dans des secteurs tels que l’énergie, le transport, l’industrie, le logement… Des entreprises renoncent déjà à des projets. Les processus de demande d’autorisation qui étaient déjà compliqués, vont l’être plus encore à mesure que les effectifs des agences sont réduits. L’incertitude réglementaire ne facilite pas beaucoup les affaires. Pour l’instant, peu de monde souhaite se heurter à Musk ou Trump. Beaucoup de chefs d’entreprises semblent vouloir donner une chance à l’approche de réduction des coûts… Beaucoup attendent en faisant profil bas. Mais la crainte d’une récession se profile. Le silence politique des entreprises pourrait ne pas durer. Reste à savoir qui s’opposera au démantèlement en cours ?
Pour l’instant, rapporte pertinemment Mediapart, les représentants Républicains commencent seulement à être confrontés à la colère de leurs administrés. Les plus fidèles à Trump dénoncent une instrumentalisation des débats par les démocrates. Pas sûr que cette ligne de défense tienne longtemps si la grogne s’étend.
Le Doge ne s’intéresse pas à l’efficacitéLa journaliste et historienne Anne Applebaum rappelle que le département de l’efficacité, pour l’instant, ne s’intéresse pas à l’efficacité. Nous n’assistons qu’à l’éradication de la fonction publique fédérale. Les Américains sont confrontés à un changement de régime. « Trump, Musk et Russell Vought, le nouveau directeur du Bureau de la gestion et du budget et architecte du Projet 2025 de l’Heritage Foundation – le plan initial de changement de régime – utilisent désormais des opérations informatiques, la confiscation des systèmes de paiement, des ingénieurs à leur solde, une avalanche de décrets exécutifs et une propagande virale pour parvenir à leurs fins ». « Bien que Trump et Musk affirment lutter contre la fraude, ils n’ont pas encore fourni de preuves à l’appui de leurs affirmations. Bien qu’ils exigent la transparence, Musk dissimule ses propres conflits d’intérêts. Bien qu’ils affirment vouloir l’efficacité, Musk n’a produit aucun audit des raisons à la suppression des programmes entrepris ».
« La seule chose que ces politiques auront certainement pour effet, et sont clairement conçues pour cela, est de modifier le comportement et les valeurs de la fonction publique« . Toutes les personnes qui travaillent pour le gouvernement fédéral américain font la même expérience, celle d’avoir l’impression de vivre sous occupation étrangère.
Pourtant, estime Applebaum, la destruction de l’éthique de la fonction publique prendra du temps. Jusqu’à présent, les fonctionnaires fédéraux avaient pour instruction de respecter l’État de droit, de vénérer la Constitution, de maintenir la neutralité politique et de soutenir les changements de politique légaux, qu’ils émanent d’administrations républicaines ou démocrates. Ils étaient censés mesurer la réalité objective – les preuves de pollution, par exemple – et réagir en conséquence. Tous n’étaient pas parfaits, mais leurs actions étaient contraintes par des audits, des règles de transparence et une éthique. Le Doge a déjà attaqué au moins 11 agences fédérales qui étaient impliquées dans des conflits réglementaires avec les entreprises de Musk ou qui enquêtaient sur elles pour d’éventuelles violations des lois sur la sécurité au travail, les droits des travailleurs et la protection des consommateurs. Le nouveau système qui se met en place, quelle que soit son idéologie, représente en pratique un retour au clientélisme. Désormais, les candidats aux nouveaux postes doivent s’engager à parler du Golfe d’Amérique au lieu du Golfe du Mexique ou dire que Trump a gagné l’élection de 2020. « Ces tests de loyauté trumpiens, visent à rompre avec l’éthique de la fonction publique, qui exigeait que les gens prennent des décisions basées sur des réalités objectives, et non sur des mythes ou des fictions. »
« Certains employés fédéraux seront certainement tentés d’en abuser. Vous n’aimez pas votre ancien patron ? Dénoncez-le ! Dénoncez aussi vos collègues qui promeuvent l’inclusion et la lutte contre les discriminations ». Cela peut sembler improbable, mais, rappelle Applebaum, au niveau des États, les lois encourageant les Américains à dénoncer d’autres Américains se sont multipliées. Au Texas, une loi permet aux citoyens de poursuive toute personne qui aurait aidé ou encouragé un avortement. Au Mississippi, une loi propose des primes aux personnes qui identifient des immigrés illégaux en vue de leur expulsion. Certains mots tels que « défense des droits », « handicap », « traumatisme » socio-économique et, oui, « femmes », déclenchent déjà des coupures de subventions fédérales et la censure, rapporte le Washington Post.
Le plus grand tour à l’œuvre consiste à nous faire croire que le Doge a pour objectif l’efficacité, explique Tom Nichols pour The Atlantic. “Le Doge n’est pas vraiment un département ; ce n’est pas une agence ; il n’a aucune autorité statutaire ; et il n’a pas grand-chose à voir avec les économies d’argent, la rationalisation de la bureaucratie ou l’élimination du gaspillage”. C’est une attaque contre l’expertise qui vise à y mettre fin, explique Nichols qui a publié un livre sur la contestation de l’expertise (The Death of Expertise : The Campaign Against Established Knowledge and Why it Matters, Oxford University Press, 2017). Pour lui, l’assaut de Musk à l’encontre de l’expertise s’abreuve à la même source que celle qui alimente en grande partie l’hostilité du public envers les experts. La mort de l’expertise est liée à la montée de deux mots sociaux : le narcissisme et le ressentiment.
L’égocentrisme est au cœur du succès des “techno-ploutocrates” comme Musk, qui pensent que leur richesse est la preuve de leur compétence. Trump et Musk semblent constamment en colère parce que leur richesse et leur pouvoir peuvent leur apporter tout sauf du respect. Or, l’expertise est bien souvent un puissant moyen de défense contre l’incompétence et les manigances politiques. S’opposer aux experts nécessite des connaissances. L’égocentrisme ne réclame pas aux autres de la compétence, mais de l’obéissance et de la servitude. D’où le fait qu’ils cherchent à saper l’expertise et la connaissance qui peut s’opposer à eux.
L’autre moteur est le ressentiment, celui d’une élite contre une autre. Nous sommes en train d’assister à l’affrontement d’élites entre elles, estime Nichols, entre les jeunes ingénieurs et entrepreneurs du Doge et les fonctionnaires et experts de carrière. L’objectif du Doge n’est pas de produire un meilleur gouvernement, mais de le détruire : de le remplacer par un autre. A se demander si la destruction de l’Etat fédéral ne serait pas seulement un moyen pour générer des débouchés économiques à l’illusion de l’IA ?
Pour Ethan Zuckerman également, Musk ne disrupte par le gouvernement, il le détruit. En prenant la main sur les systèmes, ce qu’il brise, ce sont les processus démocratiques qui les ont créés. « Dans Doge, nous voyons l’intersection de deux idéologies : la croyance conservatrice selon laquelle le gouvernement ne peut rien faire de bien et devrait en faire le moins possible, et le credo du perturbateur selon lequel tout système inefficace mérite d’être détruit. Leur fusion est une prophétie auto-réalisatrice : les systèmes détruits fonctionnent mal et ne peuvent être améliorés qu’en les éliminant complètement ».
Comme le disait le professeur d’économie comportementale Raymond Fishman, dans une tribune pour le New York Times, avant l’arrivée de Trump au pouvoir. Bien sûr que l’efficacité gouvernementale peut être améliorée. Mais si les entreprises fonctionnent plus efficacement qu’un gouvernement, c’est parce qu’elles n’ont pas les mêmes objectifs, les mêmes missions ni la même complexité. Ce que font les entreprises est bien souvent plus simple que ce que font les gouvernements. Une entreprise ne gère pas la misère ni la pauvreté. Ce n’est pas parce qu’il n’y a pas d’attaque terroriste qu’il faut réduire le budget du FBI. « Créons une commission consacrée à rendre le gouvernement plus efficace. Mais ce n’est pas la même chose que de réduire la taille du gouvernement, et ce n’est certainement pas la même chose que de le gérer comme une entreprise ».
Le ministère de l’incompétencePour Derek Thompson, le bureau de l’efficacité risque vite de nous montrer tout le contraire. Cette agence hors de contrôle, semble surtout le règne de l’incompétence. Une incompétence qui risque de coûter très chère aux Etats-Unis, bien plus que les coupes de dépenses qu’elle promet. Pour l’instant, le Doge licencie à tour de bras, sans même savoir qui. Elon Musk a laissé entendre, face à des critiques croissantes, que le Doge annulerait simplement toute mesure qui irait trop loin. Certes, dans la pratique reste à savoir lesquelles réinstaller en fonction de quelles critiques, et si cela s’avère possible une fois les choses démantelées. Tout annuler et voir ce qu’il se passe ne semble pas une méthodologie très fonctionnelle. L’incompétence du Doge est une fonctionnalité, pas un bug, estime Brian Barrett pour Wired. Doge.gov est un simple fil Twitter, comme si une politique se résumait à une succession d’annonces. « L’incompétence née de la confiance en soi est un état d’esprit familier de la Silicon Valley, la raison pour laquelle les startups réinventent sans cesse un bus, une épicerie ou le courrier. C’est la certitude implacable que si vous êtes intelligent dans un domaine, vous devez être intelligent dans tous les domaines ».
Les États-Unis ne sont pas une start-up. Le gouvernement fédéral existe pour faire toutes les choses qui ne sont pas rentables par définition, qui servent le bien public plutôt que de protéger les profits des investisseurs. La grande majorité des start-up échouent, ce que les États-Unis ne peuvent pas se permettre de faire, rappelle Barrett. « Les erreurs coûteuses et embarrassantes du Doge sont le sous-produit d’un nihilisme téméraire ; si l’intelligence artificielle peut vous vendre une pizza, elle peut bien sûr assurer l’avenir de l’administration centrale ». En fait, Musk se contrefout du gouvernement comme de l’efficacité. Il n’est là que pour siphonner des données qui lui assureront une puissance sans limite.
Ce qu’il se passe est une course de vitesse, estime Brian Barrett dans un autre article pour Wired. « La vitesse est bien sûr une stratégie. Elle consiste à inonder la zone de merde (comme disait Steve Bannon) afin que ni les médias ni les tribunaux ne puissent suivre le rythme« . Les poursuites judiciaires et les ordonnances judiciaires évoluent selon une échelle de temps différente de cette approche de purge des effectifs, de forçage des accès et de pillage des données. Et à ce rythme, DOGE aura exploité tous les serveurs gouvernementaux bien avant que la Cour suprême n’ait même eu la chance de se prononcer, ironise Barrett. Mais c’est aussi une question de réflexe. La première chose à faire lors d’une reprise d’entreprise est de réduire les coûts le plus rapidement possible.
« C’est ainsi que vous obtenez un décret exécutif déclarant que « chaque agence ne doit pas embaucher plus d’un employé pour quatre employés qui partent », un ratio arbitraire qui ne tient pas compte des besoins réels en personnel. C’est ainsi que vous mettez aux enchères des centaines de bâtiments du gouvernement fédéral, quel que soit leur taux d’occupation. C’est à la fois extrême et inconsidéré, une course pour vider le seul puits de la ville ».
« Et ensuite… quoi ? C’est la question à laquelle Elon Musk et Doge n’ont pas réussi à répondre, car il n’y a pas de réponse. Le gouvernement américain doit-il devenir un moteur de profits ? Doit-il restituer de la valeur aux citoyens-actionnaires ? Medicaid doit-il démontrer une adéquation produit-marché à temps pour le prochain tour de financement ? »
« C’est la logique d’un consultant. Il s’agit d’un sprint d’ingénierie dont la ligne d’arrivée inévitable est la rupture du contrat social« .
« La démocratie ne meurt pas dans l’obscurité : elle meurt dans les logiciels de ticketing déposés par les anciens de Palantir » (Les logiciels de ticketing sont des logiciels pour traiter les demandes de clients à la suite les unes des autres et selon leur importance. Ici Barrett évoque le fait que les accès aux systèmes fédéraux s’ouvrent selon les demandes fantasques de conseillers qui masquent souvent leurs conflits d’intérêts derrière ces accès). « Il n’est pas nécessaire d’avoir un MBA de Stanford pour savoir que la réduction des dépenses n’aide que la moitié de votre compte de résultat. Toute tentative sérieuse de traiter les États-Unis comme une entreprise impliquerait une augmentation des revenus. Alors, où sont les impôts ? Et pourquoi démolir le CFPB, qui a rendu plus de 20 milliards de dollars aux citoyens américains ? »
« Dans les semaines et les mois à venir, alors que cette farce continue de se dérouler, rappelez-vous que l’objectif de la plupart des acquisitions n’est pas de bénéficier aux Américains. Il s’agit soit de subsumer, soit de s’en débarrasser, selon ce qui génère le meilleur rendement. » « L’influence sans précédent d’Elon Musk sur le pouvoir exécutif profitera en fin de compte à Elon Musk. Les employés aux commandes sont ses employés. Les données collectées par Doge, les contrats d’approvisionnement qu’ils supervisent, tout cela lui revient. Et tout cela s’écoule trop vite pour que l’Etat puisse suivre, et encore moins pour pouvoir l’arrêter. »
Dans un autre billet, Barrett rappelle que le gouvernement n’est pas une startup. Pourtant, c’est bien la même méthode que celle qu’il a appliquée lors de sa reprise de Twitter, que Musk déroule. « Il se débarrasse des employés. Il installe des loyalistes. Il abat les garde-fous. Ils ont récupéré les accès avant de les couper. Ils ont récupéré les données comme un avantage concurrentiel. Et des économies. Ils veulent des économies. Plus précisément, ils veulent soumettre le gouvernement fédéral à un budget à base zéro », une méthode de planification financière populaire dans la Silicon Valley dans laquelle chaque dépense doit être justifiée à partir de zéro. « Le problème avec la plupart des startups de logiciels, c’est qu’elles échouent. Elles prennent de gros risques et ne sont pas rentables, et elles laissent la carcasse de cet échec derrière elles et commencent à produire un nouveau pitch. C’est le processus que Doge impose aux États-Unis. » Pas sûr que le gouvernement puisse proposer un nouveau pitch !
« Personne ne contesterait que la bureaucratie fédérale est parfaite, ou particulièrement efficace. Bien sûr, elle peut être améliorée. Bien sûr, elle devrait l’être. Mais il y a une raison pour laquelle le changement se fait lentement, méthodiquement, par le biais de processus qui impliquent des élus et des fonctionnaires, ainsi que de l’attention et de la considération. Les enjeux sont trop élevés et le coût de l’échec est total et irrévocable« .
« Musk va réinventer le gouvernement américain de la même manière que l’hyperloop a réinventé les trains, que la société Boring a réinventé le métro, que Juicero a réinventé le presse-agrume. Autrement dit, il ne réinventera rien du tout, ne réglera aucun problème, n’offrira aucune solution au-delà de celles qui consolident encore davantage son propre pouvoir et sa richesse. Il réduira la démocratie à sa plus simple expression et la reconstruira à l’image conflictuelle de ses propres entreprises. Il ira vite. Il cassera tout. » Mêmes constats dans le New York Times, notamment en soutenant ses élucubrations sans preuves depuis ses tweets incendiaires.
L’Amérique, livrée à elle-même : la re-ségrégationCe n’est pas une réforme, c’est un sabotage, explique David Wallace-Wells pour le New York Times. C’est « une guerre éclair contre les fonctions essentielles de l’État”, opérant en dehors du droit constitutionnel. Pour le politologue Seth Masket, « Elon Musk est un simple citoyen qui prend le contrôle du gouvernement. C’est un coup d’Etat ».
“Tout d’un coup, vous ne pouvez plus consulter les données du CDC sur le VIH ni les directives pour d’autres maladies sexuellement transmissibles. Vous ne pouvez pas non plus trouver de données de surveillance sur l’hépatite ou la tuberculose, ni l’enquête sur les comportements à risque des jeunes, ni aucune des données de l’agence sur la violence domestique. Si vous étiez un médecin espérant consulter les directives fédérales sur le contrôle des naissances post-partum, cette page a également été fermée.” Derrière les fermetures et le recul de l’information, le nouveau message semble être clair : les citoyens sont désormais livrés à eux-mêmes.
Désormais, la santé publique se résume à la responsabilité personnelle. Mais, c’est également vrai de toutes les politiques publiques qui ont été “effacées” : le climat, l’aide sociale, la lutte contre les discriminations. C’est la grande “re-ségrégation”, explique Adam Serwer, c’est-à-dire le début d’un mouvement qui va revenir sur les droits civiques obtenus de haute lutte. Le retour de la Grande Amérique (Make America Great Again), consiste d’abord et avant tout à restaurer les hiérarchies traditionnelles de race et de genre de l’Amérique. Les lois tentant de renforcer l’égalité des chances ont été annulées, les recherches sur les inégalités également, comme si cela suffisait à faire disparaître les inégalités elles-mêmes. Le but est clair : « abroger les acquis de l’ère des droits civiques« .
“Ils ne souhaitent pas le retour à la ségrégation explicite – cela briserait l’illusion selon laquelle leurs propres réalisations sont basées sur une méritocratie aveugle à la couleur de peau. Ils veulent un arrangement qui perpétue indéfiniment l’inégalité raciale tout en conservant une certaine possibilité de déni plausible, un système truqué qui maintient un mirage d’égalité des chances tout en maintenant une hiérarchie raciale officieuse. Comme les élections dans les pays autoritaires où l’autocrate est toujours réélu par une écrasante majorité, ils veulent un système dans lequel ils ne risquent jamais de perdre mais peuvent toujours prétendre avoir gagné équitablement.”
Du grand effacement au grand ralentissement scientifiqueNous assistons à l’effacement de la science américaine, déplore Katherine J. Wu pour The Atlantic. La cohabitation pacifique et productive de la science avec les autorités est terminée. Les autorités ont toujours agi sur les priorités scientifiques avec leurs financements (le gouvernement fédéral est le premier bailleur de fond de la recherche fondamentale), mais ces changements d’orientation sont souvent modestes et ciblées, rappelle le spécialiste du financement de la science, Alexander Furnas. La nouvelle administration n’a d’ailleurs pas annoncé de coupes uniformes : la recherche sur l’IA, le spatial ou les maladies chroniques ne sont pas concernées. Pour passer le couperet de la censure automatisée sur certains mots clefs, nombre de chercheurs modifient les termes de leurs demandes de subventions. Le risque, c’est que s’impose l’idée que la méthodologie scientifique soit transgressive. En faisant disparaître des données, en courant le risque qu’elles soient falsifiées, le gouvernement fédéral s’attaque à la science. “À long terme, la science américaine pourrait ne plus paraître fiable aux yeux des scientifiques étrangers”. “Trump et son administration sont en train de déc
-
sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
Publié: 3 March 2025, 9:30am CET par Pierre Libaud
Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
sur Geodatadays 2023
Publié: 3 March 2025, 9:30am CET par Christine Plumejeaud-Perreau
Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
sur MapDraw. Un outil libre d’annotation de cartes en ligne
Publié: 3 March 2025, 9:30am CET par Justin Berli
Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
Publié: 3 March 2025, 9:30am CET par Gabriel Marquès
Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
Publié: 3 March 2025, 9:30am CET par Maxime Masson
TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
sur Atlas du développement durable. Un monde en transition, Autrement, 2022
Publié: 3 March 2025, 9:30am CET par Marie-Laure Trémélo
L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
Publié: 3 March 2025, 9:30am CET par Jean-Charles Édouard
Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
sur Mappa naturae, 2023
Publié: 3 March 2025, 9:30am CET par Sylvain Guyot
Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
sur Représenter la centralité marchande : la coloration marchande et ses usages
Publié: 3 March 2025, 9:30am CET par Nicolas Lebrun
La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
Publié: 3 March 2025, 9:30am CET par Jean Rieucau
La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
sur Dossier "ZAN : le SIG pour bien défricher", enquêtes sur l'utilisation du Géo SIG et des Observatoires, zoom sur ArcGIS Experience Builder... Découvrez le sommaire de SIGMAG n°44
Publié: 28 February 2025, 4:43pm CET par Xavier Fodor - SIGMAG SIGTV.FR
Le magazine SIGMAG n°44, numéro de mars 2025 est bientôt disponible. En voici le sommaire.
DOSSIER: «ZAN : Le SIG pour bien défricher ». Le concept de zéro artificialisation nette en aménagement du territoire vise en France à limiter l'impact de l'urbanisation sur les espaces naturels. Il s'agit de compenser toute nouvelle surface artificialisée, comme la construction de bâtiments ou d'infrastructures, par la renaturation ou la réhabilitation d'autres surfaces. Les SIG sont des outils puissants pour gérer les questions liées à la loi Zan. Ils jouent un rôle essentiel dans la mise en œuvre et le suivi des objectifs, en fournissant des outils d'analyse pour une prise de décision éclairée sur les surfaces mobilisées. Il faut cependant intégrer toutes les données et elles sont nombreuses.
Ce dossier de 10 pages a été réalisé par Valérie Handweiler avec la participation de l'IGN, UrbanThink, L'Institut Paris Region, le Cerema, Magellium, 1Spatial, l'Ademe, Epson, Esri Canada, PETR Cœur Hauts-de-France, Université de Mons, Esri France, MonDiagArtif et Kermap.
ENQUÊTE: «Observer pour mieux décider». Les observatoires exploitent, analysent et restituent des données en tout genre. Habitat, commerce, environnement, mobilier urbain… Les indicateurs s’organisent en support pour constituer des outils décisionnels ou opérationnels au sein des collectivités. Dans cette enquête, Kim Janie interroge l'Observatoire de l'économie et des territoires (OET) du Loir-e-Cher, TerraNIS, l'Agence du bassin du fleuve Niger au Mali, la CC Albères Côte Vermeille Illibéris, l'azur, L'Institut Paris Région, Esri France, Quadrane et la CA Pleine Vallée.
PRATIQUE: «Géo IA : en long, en large et à toutes les échelles». Un tsunami d’IA générative a envahi la scène publique et politique, avec d’ambitieuses annonces d’entreprises et des états. Mais quelles sont les avancées concrètes et les perspectives tangibles pour la géomatique ? Dans cette enquête, Michel Bernard interroge le Département du Loiret, Caux Seine Agglomération, Esri France, arx It, OTE Ingénierie, Nextelia, 1Spatial et Presagis.
PRATIQUE: «Normandie : les géodonnées au cœur des politiques». La Région Normandie met en œuvre de manière très concrète la diffusion, l’ouverture et la valorisation des données géolocalisées, au-delà de la seule cartographie. L’équipe Service Information Géographique et Open Data déploie des solutions dans de nombreux domaines d’intervention.
«Partage et collaboration géométrique à la ville de Genève». L'organisation du SIG à Genève inspire par sa transversalité et sa collégialité. SITV, la plate-forme collaborative multi-utilisateurs au service de la ville, a associé nombre d'acteurs et interne et externe.
GUIDE: «Une Experience, avec ou sans carte». Avec le retrait de WebApp Builder prévu pour ce premier semestre 2025, il est grand temps d’évoluer vers ArcGIS Experience Builder. D’autant que ce nouveau générateur d’applications offre bien plus de capacités... Dans le pas-à-pas réalisé pour les lecteurs de SIGMAG par notre partenaire arcOrama, découvrez comment prendre en main le mode Express d’ArcGIS Experience Builder.
Découvrez également en page Guide les nouveautés solutions Esri, arcOpole et LuxCarta, ainsi que le portrait d'Echo Analytics, une jeune entreprise qui se fait une place dans le domaine du géomarketing en exploitant la pleine puissance des données. Elle fournit des points d’intérêt, pour le public comme le privé, à une échelle mondiale.
DÉCOUVERTE: «Mayotte, une si belle île à rebâtir». Méconnue des touristes, l’île de Mayotte se prévaut pourtant d’un patrimoine, d’une flore et de traditions ancestrales riches et singulières. Publié quelques mois avant le passage du cyclone Chido, l’Atlas de la ruralité mahoraise nous plonge dans un archipel aux multiples facettes, à 8.000 kilomètres de Paris.
D’autres articles sont à découvrir dans les différentes rubriques de SIGMAG, comme le voyage presque sur mars d'étudiants belges de l'UCLouvain, le portrait de Marie Bocquillon (Communauté de Communes des Coëvrons), le focus SIGMAG Campus sur le master MOSAE Méthodes, Outils de Suivi pour l’Aménagement et l’Environnement Le Mans Université et l’ESGT ou la chronique de Daniel Ribeiro (GeoDataSolutions) consacrée à l'intégration des SIG dans les SI d'entreprise, ainsi que la nouvelle rubrique Communication qui vous permet de comprendre comment bien communiquer et se valoriser à travers LinkedIn.
Ce numéro de 52 pages SIGMAG n°44 est disponible en version numérique à partir du 3 mars 2025.
CLIQUEZ POUR UN ACCES DIRECT AU MAGAZINE EN VERSION NUMÉRIQUE
À noter : les premières pages de ce magazine sont accessibles gratuitement.
Les abonnés à la version papier le recevront à partir du 13 mars 2025.
Pour acheter ce numéro en version numérique
ou vous abonner à SIGMAG,
rendez-vous sur www.sigtv.fr/boutique/
Pour contacter la rédaction : redaction@sigmag.fr
-
sur Chartres Métropole : Le SIG de la cime des arbres aux caves
Publié: 25 February 2025, 2:00pm CET par Xavier Fodor - SIGMAG SIGTV.FR
Notre rédaction est allée à la rencontre du dynamique service SIG de la ville et la communauté d'Agglomération de Chartres métropole. Notre reportage introduit par la vice-présidente Karine Dorange met en lumière la variété de leurs activités à commencer par le suivi des caves cavités, un risque qui prend de l’ampleur dans de nombreuses villes. À Chartes, il fait l’objet d’une attention particulière dans le cadre d’un programme d'action pour la prévention des risques liés aux cavités (Paprica), ayant conduit à l’embauche de Vincent Acheté, Chargé de projet qui travaille en lien étroit avec les services spécialisés du SDIS d’Eure-et-Loir. Nous interrogeons à cette occasion le Capitaine David Cœur Joly chef du centre de Chartres-Champhol et Pascal Lebenoit, référent départemental spécialité USAR.
Dans cette vidéo, guidé par Seckou Sadio le responsable du service, nous découvrons aussi la manière dont sont gérés le patrimoine arboré, avec Olivier Vassard, technicien responsable du patrimoine arboré, et les bornes escamotables et des dispositifs de vidéo protection installés dans l’agglomération, présentés par Jean-Christophe Dupont, ingénieur sûreté à Chartes Métropole.
Reportage réalisé par Xavier Fodor et Geoffrey Boyer.
-
sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
Publié: 24 February 2025, 9:30am CET par Pierre Libaud
Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.