Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considèrerons que vous acceptez l'utilisation des cookies. J'ai compris ! ou En savoir plus !.
Un Planet est un site Web dynamique qui agrège le plus souvent sur une seule page, le contenu de notes, d'articles ou de billets publiés sur des blogs ou sites Web afin d'accentuer leur visibilité et de faire ressortir des contenus pertinents aux multiples formats (texte, audio, vidéo, Podcast). C'est un agrégateur de flux RSS. Il s'apparente à un portail web.
Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
  • Canaux
  • Categories
  • Tags
  • Canaux

    5677 éléments (351 non lus) dans 55 canaux

    Dans la presse Dans la presse

    Dans la presse (88 non lus)

     
    • sur L’IA est un outil de démoralisation des travailleurs

      Publié: 8 April 2025, 7:00am CEST par Hubert Guillaud

      « Le potentiel révolutionnaire de l’IA est d’aider les experts à appliquer leur expertise plus efficacement et plus rapidement. Mais pour que cela fonctionne, il faut des experts. Or, l’apprentissage est un processus de développement humain désordonné et non linéaire, qui résiste à l’efficacité. L’IA ne peut donc pas le remplacer », explique la sociologue Tressie McMillan Cottom dans une tribune au New York Times. « L’IA recherche des travailleurs qui prennent des décisions fondées sur leur expertise, sans institution qui crée et certifie cette expertise. Elle propose une expertise sans experts ». Pas sûr donc que cela fonctionne.

      Mais, si ce fantasme – qui a traversé toutes les technologies éducatives depuis longtemps – fascine, c’est parce qu’il promet de contrôler l’apprentissage sans en payer le coût. Plus que de réduire les tâches fastidieuses, l’IA justifie les réductions d’effectifs « en demandant à ceux qui restent de faire plus avec moins ». La meilleure efficacité de l’IA, c’est de démoraliser les travailleurs, conclut la sociologue.

    • sur Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle

      Publié: 7 April 2025, 11:30am CEST par Lydie Goeldner-Gianella

      Le paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...

    • sur Postal horse relays and roads in France, from the 17th to the 19th centuries

      Publié: 7 April 2025, 11:30am CEST par Nicolas Verdier

      La base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...

    • sur Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?

      Publié: 7 April 2025, 11:30am CEST par Hamdi Euchi

      La défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...

    • sur Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.

      Publié: 7 April 2025, 11:30am CEST par Justine Collin

      Avec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.

      À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...

    • sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais

      Publié: 7 April 2025, 11:30am CEST par Carole Marin

      La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...

    • sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation

      Publié: 7 April 2025, 10:30am CEST par Pierre Libaud

      Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.

    • sur Geodatadays 2023

      Publié: 7 April 2025, 10:30am CEST par Christine Plumejeaud-Perreau

      Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...

    • sur MapDraw. Un outil libre d’annotation de cartes en ligne

      Publié: 7 April 2025, 10:30am CEST par Justin Berli

      Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.

    • sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies

      Publié: 7 April 2025, 10:30am CEST par Gabriel Marquès

      Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.

    • sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence

      Publié: 7 April 2025, 10:30am CEST par Maxime Masson

      TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]

    • sur Atlas du développement durable. Un monde en transition, Autrement, 2022

      Publié: 7 April 2025, 10:30am CEST par Marie-Laure Trémélo

      L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.

      Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.

      Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...

    • sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial

      Publié: 7 April 2025, 10:30am CEST par Jean-Charles Édouard

      Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.

      À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.

      En ce qui concerne l’analyse du ...

    • sur Mappa naturae, 2023

      Publié: 7 April 2025, 10:30am CEST par Sylvain Guyot

      Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...

    • sur Représenter la centralité marchande : la coloration marchande et ses usages

      Publié: 7 April 2025, 10:30am CEST par Nicolas Lebrun

      La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.

    • sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain

      Publié: 7 April 2025, 10:30am CEST par Jean Rieucau

      La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.

    • sur Grand Belfort immersif

      Publié: 7 April 2025, 7:44am CEST par la rédaction SIGMAG & SIGTV.FR
      Grand Belfort immersif Dans sa démarche de création d’un jumeau numérique du territoire, la Communauté d’agglomération du Grand Belfort (90) a acquis des données sur l’extérieur des bâtiments. Au-delà de cette vue, elle ambitionne également de capturer l’intérieur de certains établissements publics. Le premier bâtiment bénéficiant de cette couverture est le multiaccueil « Les petits artistes » dans le quartier des Glacis du château. À l’aide du BIM mêlé à l’imagerie orientée et ArcGIS Indoors, une vue immersive est proposée. Elle permet de visiter les lieux à distance. Dans ce cas, allier le BIM et les vues immersives contribue à l’attractivité de cet établissement. C’est un outil de communication destiné aux parents de la CA. La piscine de Belfort et le théâtre Grrranit disposent aussi de leur numérisation pour des usages plus orientés sur la maintenance, le suivi des réseaux ou des travaux.

      + d'infos :
      an.fr
    • sur De la concentration à la fusion

      Publié: 4 April 2025, 7:36am CEST par Hubert Guillaud

      Les acteurs de l’IA générative intègrent de plus en plus les plateformes de contenus, à l’image de xAI de Musk qui vient de racheter X/Twitter, rappelle Ameneh Dehshiri pour Tech Policy Press« Les entreprises technologiques ne se contentent plus de construire des modèles, elles acquièrent les infrastructures et les écosystèmes qui les alimentent ». Nous sommes désormais confrontés à des écosystèmes de plus en plus intégrés et concentrés…

    • sur Ecrire, c’est penser

      Publié: 4 April 2025, 7:34am CEST par Hubert Guillaud

      « L’écriture est l’activité la plus essentielle d’un scientifique, car sans écriture, il n’y a pas de réflexion »Dennis Hazelett

    • sur Pour rendre la participation effective, il faut mesurer les changements qu’elle produit

      Publié: 4 April 2025, 7:00am CEST par Hubert Guillaud

      Pour TechPolicy Press, le consultant Jonathan van Geuns se moque de l’illusion de la participation dont s’est paré le Sommet pour l’action sur l’IA parisien. « La gouvernance de l’IA aujourd’hui n’est qu’une vaste mise en scène, un théâtre parisien où les acteurs – dirigeants d’entreprises, politiques et technocrates – déclament d’une voix posée leur discours sur la responsabilité, créant l’illusion d’une décision collective ». En réalité, les mécanismes de gouvernance restent imperméables aux voix qu’ils prétendent intégrer. Entreprises, ONG et gouvernements ont bien compris l’efficacité d’un engagement de façade. Les comités d’éthique sur l’IA, les tables rondes des parties prenantes, les forums publics ne sont pas les fondements d’une démocratie mais son simulacre. Simulacre d’inclusion où la contestation est réduite à son expression la plus polie. Ces dispositifs « créent l’illusion d’un contrôle démocratique tout en permettant à ceux qui les mettent en œuvre, de garder la mainmise sur les résultats ». Ce n’est pas de la gouvernance, seulement un décor.

      Pour que les audits et les évaluations modifient réellement les rapports de force, ils doivent d’abord s’extraire du carcan d’opacité qui les enserre. « Actuellement, ces processus servent davantage à absorber qu’à transformer : ils recueillent les critiques, les diluent en rapports inoffensifs, puis les présentent comme preuve qu’une action a été menée. Ils fonctionnent comme des vitrines de l’engagement, invitant le public à admirer les mécanismes complexes de la gouvernance de l’IA tout en préservant les structures de pouvoir existantes de toute remise en cause ».

      Les structures mise en place pour contester le pouvoir servent de rempart à la contestation

      Le problème n’est pas tant que la participation manque de force, mais que l’écosystème a été conçu pour la neutraliser, sollicitant des critiques tout en gardant le monopole de leur interprétation. « On finance des conseils consultatifs tout en se réservant le droit d’ignorer leurs recommandations. On réunit des comités d’éthique pour les dissoudre dès que ce qu’ils veulent examiner devient gênant. Ce n’est pas un échec de la participation, c’est son détournement. Les structures qui devraient être mises en place pour contester le pouvoir servent finalement de rempart contre sa contestation ».

      Cette situation est d’autant plus problématique que nous manquons d’outils structurés pour évaluer si la participation à la gouvernance de l’IA est véritablement significative. On compte le nombre de « parties prenantes » consultées sans mesurer l’impact réel de leurs contributions. On comptabilise les forums organisés sans examiner s’ils ont abouti à des changements concrets. Cette focalisation sur la forme plutôt que sur le fond permet au « participation-washing » de prospérer. Un constat très proche de celui que dressaient Manon Loisel et Nicolas Rio dans leur livre, Pour en finir avec la démocratie participative (Textuel, 2024).

      Changer les indicateurs de la participation : mesurer les changements qu’elle produit ! 

      Pour Jonathan van Geuns, la participation doit se doter d’un cadre plus rigoureux pour favoriser l’inclusivité, la redistribution du pouvoir, la construction de la confiance, l’impact et la pérennité. Les indicateurs doivent évoluer du procédural vers le structurel. La vraie question n’est pas de savoir si différentes parties prenantes ont été invitées à s’exprimer, « mais de savoir si leur participation a redistribué le pouvoir, modifié les processus décisionnels et engendré des changements concrets ! »

      La participation ne peut se réduire à un exercice consultatif où les communautés concernées peuvent exprimer leurs inquiétudes sans avoir le pouvoir d’agir, comme nous le constations dans notre article sur l’absence de tournant participatif de l’IA. Pour van Geuns, « la participation doit être ancrée structurellement, non comme une fonction consultative mais comme une fonction souveraine », comme l’exprimait Thomas Perroud dans son livre, Services publics et communs (Le Bord de l’eau, 2023). Cela pourrait se traduire par des conseils de surveillance publique ayant un droit de veto sur les applications, des organismes de régulation où les représentants disposent d’un réel pouvoir décisionnel, et des mécanismes permettant aux groupes affectés de contester directement les décisions basées sur l’IA ou d’exiger le retrait des systèmes perpétuant des injustices.

      « L’audit des systèmes d’IA ne suffit pas ; nous devons pouvoir les démanteler. Les cadres de supervision de l’IA doivent inclure des mécanismes de refus, pas uniquement de contrôle. Quand un audit révèle qu’un algorithme est structurellement discriminatoire, il doit avoir la force juridique de le désactiver. Quand un système nuit de façon disproportionnée aux travailleurs, locataires, réfugiés ou citoyens, ces communautés ne doivent pas seulement être consultées mais avoir le pouvoir d’en stopper le déploiement. La participation ne doit pas se contenter de documenter les préjudices ; elle doit les interrompre. »

      En fait, estime le consultant, « la gouvernance de l’IA n’est plus simplement un terrain de contestation mais un exemple flagrant de capture par les entreprises. Les géants de la tech agissent comme des législateurs privés, élaborant les cadres éthiques qui régissent leur propre conduite. Ils prônent l’ouverture tout en protégeant jalousement leurs algorithmes, parlent d’équité tout en brevetant des biais, évoquent la sécurité tout en exportant des technologies de surveillance vers des régimes autoritaires. Dans ce contexte, tout cadre qui n’aborde pas le déséquilibre fondamental des pouvoirs dans le développement et le déploiement de l’IA n’est pas seulement inefficace ; il est complice ». Les audits et évaluations participatifs doivent donc être juridiquement contraignants et viser non seulement à diversifier les contributions mais à redistribuer le contrôle et rééquilibrer les pouvoirs.

      « La gouvernance doit être continue, adaptative et structurellement résistante à l’inertie et au désintérêt, en garantissant que les communautés restent impliquées dans les décisions tout au long du cycle de vie d’un système d’IA. Cela implique également la mise en place de financements pérennes et de mandats légaux pour les structures participatives ».

      « La crise de la gouvernance de l’IA ne se limite pas à des systèmes d’IA défectueux. Elle révèle la mainmise des entreprises sur les processus de gouvernance. L’enjeu n’est pas simplement d’accroître la participation, mais de s’assurer qu’elle conduise à une véritable redistribution du pouvoir. Sans cadres d’évaluation solides, mécanismes d’application clairs et remise en question fondamentale de ceux qui définissent les priorités de la gouvernance de l’IA, la participation restera une vitrine vide, conçue pour afficher une transparence et une responsabilité de façade tout en préservant les structures mêmes qui perpétuent les inégalités ».

    • sur La Californie contre la tarification algorithmique

      Publié: 3 April 2025, 7:00am CEST par Hubert Guillaud

      Les législateurs californiens viennent de proposer pas moins de 5 projets de loi contre la tarification algorithmique, … alors que celle-ci envahit tous les secteurs de l’économie numérique (voir notre dossier : Du marketing à l’économie numérique, une boucle de prédation), rapporte The Markup. Et ce alors que les témoignages sur les problèmes que posent la personnalisation des tarifs ne cessent de remonter, par exemple avec des tarifs de réservation d’hôtel qui augmentent selon le lieu d’où vous vous connectez, ou encore des tarifs pour des services de chauffeurs plus élevés pour certains clients que pour d’autres. C’est ce que montre la récente étude du chercheur Justin Kloczko pour Consumer Watchdog, une association de défense des consommateurs américains. Kloczko rappelle que si en magasin les prix étaient différents pour chacun, il y aurait des émeutes, or, sur Amazon, le prix moyen d’un produit change environ toutes les 10 minutes. Et le chercheur de défendre “un droit à des prix standardisés et des garanties contre la tarification de surveillance”. L’association de consommateurs estime que les entreprises devraient indiquer sur leurs sites si des informations personnelles sont utilisées pour déterminer les prix et lesquelles. Certaines données devraient être interdites d’utilisation, notamment la géolocalisation, l’historique d’achat et bien sûr les données personnelles… 

      Selon The Markup, les projets de loi sur l’IA proposés par les législateurs californiens se concentrent sur des questions de consommation courante et notamment les prix abusifs, estime Vinhcent Le qui a longtemps été à l’Agence de protection de la vie privée des consommateurs et qui vient de rejoindre l’ONG Tech Equity. Les projets de loi visent par exemple à interdire l’utilisation d’algorithmes personnalisant les prix en fonction de caractéristiques perçues ou de données personnelles ou de les utiliser pour fixer le montant des biens locatifs, ou encore des interdictions pour modifier les prix des produits en ligne par rapport à ceux vendus en magasin.

    • sur En thérapie… avec les chatbots

      Publié: 2 April 2025, 7:00am CEST par Hubert Guillaud

      Maytal Eyal est psychologue et écrivaine. Dans une tribune pour Time Magazine, elle constate que l’IA générative est en train de concurrencer son travail. De nombreuses personnes utilisent déjà les chatbots pour discuter de leurs problèmes et de leurs difficultés. Peut-être que l’IA peut contribuer à rendre la thérapie plus facilement accessible à tous, d’autant que les mauvais thérapeutes sont nombreux et que l’accès aux soins est difficile et coûteux, s’interroge-t-elle. Aux Etats-Unis, la moitié des adultes souffrant de problèmes de santé mentale ne reçoivent pas le traitement dont ils ont besoin. 

      En convainquant les gens que nos difficultés émotionnelles – de la tristesse au chagrin en passant par les conflits familiaux – nécessitaient une exploration professionnelle, Freud a contribué à déplacer la guérison émotionnelle de la sphère communautaire et spirituelle qui l’ont longtemps pris en charge, vers l’intimité du cabinet du thérapeute, rappelle-t-elle. “Ce qui était autrefois considéré comme des manquements moraux honteux est devenu un problème humain courant, qui pouvait être compris scientifiquement avec l’aide d’un professionnel. Mais il a également transformé la guérison en une entreprise plus solitaire, coupée des réseaux communautaires qui ont longtemps été au cœur du soutien humain”

      Dans un avenir proche, la thérapie par IA pourrait pousser le modèle individualisé de Freud à son extrême au risque que nos problèmes psychiques soient adressés sans plus aucun contact humain.

      Des IA bien trop complaisantes

      A première vue, ce pourrait être une bonne chose. Ces thérapeutes seront moins cher et disponibles 24h/24. Les patients ressentiraient moins la peur du jugement avec des chatbots qu’avec des humains, moins de frictions donc.

      Mais, c’est oublier que la friction est bien souvent au cœur de la thérapie : “C’est dans le malaise que le vrai travail commence”. Alors que les compagnons IA deviennent source de soutien émotionnel par défaut – pas seulement en tant que thérapeutes, mais aussi en tant qu’amis, confidents, complices ou partenaires amoureux, c’est-à-dire désormais ceux avec qui l’on discute et qui sont capables de répondre à nos discussions, qui nous donnent l’impression d’être au plus proche de nous et qui bien souvent nous font croire qu’ils nous connaissent mieux que quiconque – “nous risquons de devenir de plus en plus intolérants aux défis qui accompagnent les relations humaines”

      “Pourquoi lutter contre la disponibilité limitée d’un ami alors qu’une IA est toujours là ? Pourquoi gérer les critiques d’un partenaire alors qu’une IA a été formée pour offrir une validation parfaite ? Plus nous nous tournons vers ces êtres algorithmiques parfaitement à l’écoute et toujours disponibles, moins nous risquons d’avoir de la patience pour le désordre et la complexité des relations humaines réelles”.

      Or, “les défis mêmes qui rendent les relations difficiles sont aussi ce qui leur donne du sens. C’est dans les moments d’inconfort, lorsque nous naviguons dans des malentendus ou que nous réparons les dégâts après un conflit, que l’intimité grandit. Ces expériences, que ce soit avec des thérapeutes, des amis ou des partenaires, nous apprennent à faire confiance et à nous connecter à un niveau plus profond. Si nous cessons de pratiquer ces compétences parce que l’IA offre une alternative plus fluide et plus pratique, nous risquons d’éroder notre capacité à nouer des relations significatives”

      “L’essor de la thérapie par l’IA ne se résume pas seulement au remplacement des thérapeutes. Il s’agit de quelque chose de bien plus vaste : la façon dont nous, en tant que société, choisissons d’interagir les uns avec les autres. Si nous adoptons l’IA sans friction au détriment de la complexité des relations humaines réelles, nous ne perdrons pas seulement le besoin de thérapeutes, nous perdrons la capacité de tolérer les erreurs et les faiblesses de nos semblables.” Le risque n’est pas que les thérapeutes deviennent obsolètes, le risque c’est que nous le devenions tous. 

      L’association des psychologues américains vient justement d’émettre une alerte à l’encontre des chatbots thérapeutes. Programmés pour renforcer, plutôt que de remettre en question la pensée des utilisateurs, ils pourraient inciter des personnes vulnérables à se faire du mal ou à en faire aux autres, rapporte le New York Times. Des adolescents ayant discuté avec des chatbots se présentant comme psychologues sur Character.ai se sont suicidés ou sont devenus violents. En fait, le problème de ces outils, c’est qu’ils œuvrent à nous complaire pour mieux nous manipuler. « Les robots ne remettent pas en question les croyances des utilisateurs même lorsqu’elles deviennent dangereuses pour eux ou pour leur proches, au contraire, ils les encouragent ». Si les entreprises ont introduit des alertes pour rappeler aux utilisateurs qu’ils n’interagissent pas avec de vrais psychologues, ces avertissements ne sont pas suffisants pour briser “l’illusion de la connexion humaine”. L’association a demandé à la Federal Trade Commission d’ouvrir une enquête sur ces chatbots. Du côté des entreprises d’IA, le discours consiste à dire que les outils vont s’améliorer et que compte tenu de la grave pénurie de prestataires de soins de santé mentale, il est nécessaire d’améliorer les outils plutôt que de les contenir. Mais cette réponse en forme de promesse ne dit rien ni des limites intrinsèques de ces machines, ni du contexte de leurs déploiement, ni de la manière dont on les conçoit. 

      Comme nous le disions, la qualité des systèmes et de leurs réponses ne suffit pas à les évaluer : “l’état du système de santé, ses défaillances, ses coûts, la disponibilité du personnel… sont autant de facteurs qui vont appuyer sur les choix à recourir et à déployer les outils, mêmes imparfaits”. Et les outils apportent avec eux leur monde, comme l’explique la chercheuse Livia Garofalo. Garofalo a publié une étude pour Data & Society sur la téléthérapie et les soins de santé mentale. Elle revient pour le magazine de l’Association psychanalytique américaine sur les enjeux des transformations du travail à distance qui s’est beaucoup développée depuis la pandémie. Outre les consultations sur Zoom ou Doxy.me, les plateformes comme BetterHelp ou Talkspace redéfinissent les soins de santé mentale à distance. Mais ces plateformes ne font pas que mettre en relation un patient et un thérapeute, elles gèrent aussi les planning, les paiements, les messages, les remboursements… Malgré leur commodité, pour les thérapeutes, ces espaces de travail ressemblent beaucoup à une ubérisation, comme la connaissent les infirmières. Car en fait, ce qui change, ce n’est pas la distance. La chercheuse Hannah Zeavin dans son livre, The Distance Cure (MIT Press, 2021) a d’ailleurs montré que depuis le début de la psychanalyse, des formes de thérapies à distance ont toujours existé, par exemple via l’imposante correspondance épistolaire de Freud avec ses patients. Ce qui change, c’est la prise de pouvoir des plateformes qui organisent la relation, imposent des tarifs et renforcent les inégalités d’accès au soin, en s’adressant d’abord aux thérapeutes débutants, aux femmes, aux professionnels de couleurs, c’est-à-dire aux thérapeutes dont la clientèle est plus difficile à construire. Enfin, là aussi, la plateformisation change la relation, notamment en rendant les professionnels disponibles en continu, interchangeables, et brouille les frontières cliniques et personnelles.

      Pour des IA qui nous reconnectent avec des humains plutôt qu’elles ne nous en éloignent

      L’illusion qu’ils nous donnent en nous faisant croire qu’on parle à quelqu’un se révèle bien souvent un piège. C’est ce que l’on constate dans un tout autre domaine, celui de l’orientation scolaire. Aux Etats-Unis, raconte The Markup. “Plus les étudiants se tournent vers les chatbots, moins ils ont de chances de développer des relations réelles qui peuvent mener à des emplois et à la réussite.” Comme les conseillers d’orientation scolaires et conseillers pour l’emploi des jeunes sont très peu nombreux, un flot de chatbots d’orientation est venu combler ce déficit humain. Le problème, c’est qu’y avoir recours érode la création de liens sociaux qui aident bien plus les jeunes à trouver une orientation ou un emploi, estime une étude du Christensen Institute.

      En août, dans son document détaillant les risques et problèmes de sécurité pour ChatGPT, OpenAI énumérait les problèmes sociétaux que posent ses modèles et pointait que les questions de l’anthropomorphisation et la dépendance émotionnelle étaient en tête de liste des préoccupations auxquelles l’entreprise souhaitait s’attaquer. L’anthorpormophisation, c’est-à-dire le fait que ces boîtes de dialogues nous parlent comme si elles étaient humaines, créent “à la fois une expérience produit convaincante et un potentiel de dépendance et de surdépendance”. En bref, à mesure que la technologie s’améliore, les risques psychosociaux s’aggravent, comme le souligne d’ailleurs l’étude que viennent de publier le MIT et OpenAI. Pour Julia Fisher, auteure de l’étude du Christensen Institute, il faut que ces robots soient conçus pour nous reconnecter aux humains plutôt que de nous en écarter, explique-t-elle dans une tribune pour The74, l’une des grandes associations éducatives américaines.

      Elle pointe notamment que les fournisseurs de chatbots d’orientation commencent à prendre la question au sérieux et tentent d’esquisser des solutions pour y répondre. Par exemple en limitant le temps d’interaction ou en faisant que les robots conseillent à ceux qui y ont recours, fréquemment, de voir des amis. Un autre outil demande aux étudiants qui s’inscrivent d’indiquer 5 relations qui seront alertées des progrès des étudiants à l’université pour qu’ils reçoivent un soutien humain réel. Un autre propose de connecter les étudiants à des mentors humains. Un autre encore propose de s’entraîner à demander de l’aide à des humains. Autant d’exemples qui montrent que l’IA peut jouer un rôle pour renforcer les liens humains. “Cependant, les incitations à créer des outils d’IA centrés sur les relations sont faibles. Peu d’écoles demandent ces fonctionnalités sociales ou évaluent les outils pour leurs impacts sociaux”, rappelle Fisher. Ceux qui achètent ces technologies devraient exiger des systèmes qu’ils améliorent les relations humaines plutôt que de les remplacer.

      Mais pour cela, encore faudrait-il que ses systèmes soient conçus pour être moins puissants que ses concepteurs ne le pensent. En nous répétant qu’ils ne s’amélioreront qu’avec plus de données, nous oublions de les concevoir pour qu’ils nous aident plutôt qu’ils ne fassent à notre place ou à la place d’autres humains. Il serait temps d’arrêter de croire en leur puissance et de mieux prendre en compte leurs défaillances et plus encore les nôtres. Par exemple, quand un élève leur demande de faire leur dissertation à leur place, ces systèmes seraient bien plus utiles s’ils les aidaient à la faire, à en comprendre les étapes et les raisons, et exigeaient d’eux le travail qu’on leur demande, en les guidant pour le réaliser, plutôt qu’en le faisant à leur place. Mais pour cela, peut-être faudrait-il parvenir à sortir de la course à la puissance… et parvenir à imaginer un autre rapport à ces outils en faisant de manière à ce qu’eux-mêmes, nous proposent un autre rapport à leur puissance.

    • sur Tissu commercial

      Publié: 31 March 2025, 7:30pm CEST par la rédaction SIGMAG & SIGTV.FR
      Tissu commercial La Ville de Namur a publié son nouvel annuaire cartographique et Open data des commerces namurois. Il rend disponibles à la consultation et au téléchargement les données de 2.000 établissements. Restaurants, boulangeries, coiffeurs, serruriers, fleuristes... Les onze typologies d’activité sont triées par catégorie, sous-activité et couleur. La recherche peut se faire par rue et par localité. De nombreux graphiques et filtres par quartier, type d’activité et superficie aident à comprendre et analyser la dynamique commerciale. Les surfaces sont classées en six fourchettes, de moins de 50 m2 à 2.500 m2 et plus. Elle propose aussi d’identifier un espace disponible optimal, via l’onglet « Cellule disponible », pour ouvrir son futur commerce. À ce jour, sur 2.159 emplacements commerciaux, 233 sont disponibles sur le marché. Chaque établissement dispose de sa fiche de contact avec des liens utiles.

      + d'infos :
      sig.ville.namur.be
    • sur Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle

      Publié: 31 March 2025, 11:30am CEST par Lydie Goeldner-Gianella

      Le paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...

    • sur Postal horse relays and roads in France, from the 17th to the 19th centuries

      Publié: 31 March 2025, 11:30am CEST par Nicolas Verdier

      La base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...

    • sur Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?

      Publié: 31 March 2025, 11:30am CEST par Hamdi Euchi

      La défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...

    • sur Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.

      Publié: 31 March 2025, 11:30am CEST par Justine Collin

      Avec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.

      À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...

    • sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais

      Publié: 31 March 2025, 11:30am CEST par Carole Marin

      La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...

    • sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation

      Publié: 31 March 2025, 10:30am CEST par Pierre Libaud

      Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.

    • sur Geodatadays 2023

      Publié: 31 March 2025, 10:30am CEST par Christine Plumejeaud-Perreau

      Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...

    • sur MapDraw. Un outil libre d’annotation de cartes en ligne

      Publié: 31 March 2025, 10:30am CEST par Justin Berli

      Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.

    • sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies

      Publié: 31 March 2025, 10:30am CEST par Gabriel Marquès

      Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.

    • sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence

      Publié: 31 March 2025, 10:30am CEST par Maxime Masson

      TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]

    • sur Atlas du développement durable. Un monde en transition, Autrement, 2022

      Publié: 31 March 2025, 10:30am CEST par Marie-Laure Trémélo

      L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.

      Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.

      Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...

    • sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial

      Publié: 31 March 2025, 10:30am CEST par Jean-Charles Édouard

      Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.

      À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.

      En ce qui concerne l’analyse du ...

    • sur Mappa naturae, 2023

      Publié: 31 March 2025, 10:30am CEST par Sylvain Guyot

      Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...

    • sur Représenter la centralité marchande : la coloration marchande et ses usages

      Publié: 31 March 2025, 10:30am CEST par Nicolas Lebrun

      La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.

    • sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain

      Publié: 31 March 2025, 10:30am CEST par Jean Rieucau

      La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.

    • sur L’IA raisonne-t-elle ?

      Publié: 31 March 2025, 7:00am CEST par Hubert Guillaud

      Melanie Mitchell est certainement la plus pédagogue des spécialistes de l’IA. Son livre, Intelligence artificielle, triomphes et déceptions (Dunod, 2021) est une excellente ressource pour comprendre l’histoire et le fonctionnement de l’IA, tout comme sa newsletter. Dans sa récente chronique pour le magazine, Science, elle revient sur la capacité de l’IA à “raisonner”. Pour cela, elle prend un petit exemple logique simple. “Julia a deux sœurs et un frère. Combien de sœurs son frère Martin a-t-il ?”. Le résoudre demande à chacun de nous quelques secondes d’attention. Mitchell a soumis cette énigme à plusieurs reprises à la version la plus récente de GPT-4 (4o), qui lui a donné la mauvaise réponse à chaque fois, affirmant que Martin avait deux sœurs. Pour remédier à ce type de problème, les grandes entreprises de l’IA développent de nouveaux systèmes qu’elles appellent les Grands modèles de raisonnement (Large reasoning models, LRM).

      Quand on soumet cet exemple logique à un LRM, comme les modèles o1 et o3 d’OpenAI, Claude d’Anthropic, Gemini 2.0 Flash Thinking Experimental de Google et le modèle R1 de l’entreprise chinoise DeepSeek… ces modèles déploient une chaîne de pensée qui énoncent un processus de raisonnement apparemment plausible. o1 d’OpenAI décompose sa réponse : “1. Julia a deux sœurs. Cela signifie qu’il y a trois filles au total (Julia + deux autres). 2. Julia a également un frère, prénommé Martin. 3. Au total, il y a quatre frères et sœurs : trois filles et un garçon (Martin). 4. Du point de vue de Martin, ses sœurs sont toutes les trois des filles (Julia et ses deux sœurs). 5. Martin a donc trois sœurs.”… Ce qui ressemble beaucoup à un raisonnement humain que chacun d’entre nous pourrait tenir pour résoudre l’énigme. On comprend alors que ces modèles soient en train de devenir le corps de l’offre commerciale des entreprises d’IA… Reste à savoir si ces modèles “réfléchissent et raisonnent vraiment, ou s’ils font juste semblant” ?

      Mitchell rappelle que les LRM sont construits sur des LLM. Les LLM sont pré-entraînés pour prédire une partie de mots (un token ou jeton) dans une séquence de texte. Pour devenir LRM, “le modèle est ensuite post-entraîné, c’est-à-dire entraîné davantage, mais avec un objectif différent : générer spécifiquement des chaînes de pensée, comme celle générée par o1 pour l’énigme des “sœurs”. Après cette formation spéciale, lorsqu’un problème lui est posé, le LRM ne génère pas de jetons un par un mais génère des chaînes entières”. Pour le dire autrement, les LRM effectuent beaucoup plus de calculs qu’un LLM pour générer une réponse. D’où le fait qu’on parle d’un progrès par force brute, par puissance de calcul, avec des systèmes capables de tester en parallèle des milliers de réponses pour les améliorer. “Ce calcul peut impliquer la génération de nombreuses chaînes de réponses possibles, l’utilisation d’un autre modèle d’IA pour évaluer chacune d’elles et renvoyer celle la mieux notée, ou une recherche plus sophistiquée parmi les possibilités, semblable à la recherche par anticipation que les programmes de jeu d’échecs ou de go effectuent pour déterminer le bon coup”. Quand on utilise un modèle de raisonnement, l’utilisateur ne voit que les résultats de calculs démultipliés. Ces modèles qui fonctionnent surtout selon la méthode d’apprentissage par renforcement non supervisé sont récompensés quand ils produisent les étapes de raisonnement dans un format lisible par un humain, lui permettant de délaisser les étapes qui ne fonctionnent pas, de celles qui fonctionnent. 

      Un débat important au sein de la communauté rappelle Mitchell consiste à savoir si les LRM raisonnent ou imitent le raisonnement. La philosophe Shannon Valor a qualifié les processus de chaîne de pensée des LRM de “sorte de méta-mimétisme”. Pour Mitchell, ces systèmes génèrent des traces de raisonnement apparemment plausibles qui imitent les séquences de “pensée à voix haute” humaines sur lesquelles ils ont été entraînés, mais ne permettent pas nécessairement une résolution de problèmes robuste et générale. Selon elle, c’est le terme de raisonnement qui nous induit en erreur. Si les performances de ces modèles sont impressionnantes, la robustesse globale de leurs performances reste largement non testée, notamment pour les tâches de raisonnement qui n’ont pas de réponses claires ou d’étapes de solution clairement définies, ce qui est le cas de nombreux problèmes du monde réel. 

      De nombreuses études ont montré que lorsque les LLM génèrent des explications sur leurs raisonnement, celles-ci ne sont pas toujours fidèles à ce que le modèle fait réellement. Le langage anthropomorphique (puisqu’on parle de “raisonnement”, de “pensées”…) utilisé induit les utilisateurs en erreur et peut les amener à accorder une confiance excessive dans les résultats. Les réponses de ces modèles ont surtout pour effet de renforcer la confiance des utilisateurs dans les réponses, constate OpenAI. Mais la question d’évaluer leur fiabilité et leur robustesse reste entière. 

    • sur Apprêtez-vous à parler aux robots !

      Publié: 28 March 2025, 7:00am CET par Hubert Guillaud

      Google vient de lancer Gemini Robotics, une adaptation de son modèle d’IA générative à la robotique (vidéo promotionnelle), permettant de commander un bras robotique par la voix, via une invite naturelle, son IA décomposant la commande pour la rendre exécutable par le robot, rapporte la Technology Review. L’année dernière, la start-up de robotique Figure avait publié une vidéo dans laquelle des humains donnaient des instructions vocales à un robot humanoïde pour ranger la vaisselle. Covariant, une spinoff d’OpenAI rachetée par Amazon, avait également fait une démonstration d’un bras robotisé qui pouvait apprendre en montrant au robot les tâches à effectuer (voir l’article de la Tech Review)Agility Robotics propose également un robot humanoïde sur le modèle de Figure. Pour Google, l’enjeu est « d’ouvrir la voie à des robots bien plus utiles et nécessitant une formation moins poussée pour chaque tâche », explique un autre article. L’enjeu est bien sûr que ces modèles s’améliorent par l’entraînement de nombreux robots.

    • sur Doctorow : rendre l’interopérabilité contraignante

      Publié: 27 March 2025, 7:00am CET par Hubert Guillaud

      Voilà des années que Cory Doctorow traverse les enjeux des technologies. En France, il est surtout connu pour ses romans de science-fiction, dont quelques titres ont été traduits (Le grand abandon, Bragelonne, 2021 ; De beaux et grands lendemains, Goater, 2018, Little Brother, éditions 12-21, 2012 ; Dans la dèche au royaume enchanté, Folio, 2008). Cela explique que beaucoup connaissent moins le journaliste et militant prolixe, qui de Boing Boing (le blog qu’il a animé pendant 20 ans) à Pluralistic (le blog personnel qu’il anime depuis 5 ans), de Creative Commons à l’Electronic Frontier Foundation, dissémine ses prises de positions engagées et informées depuis toujours, quasiment quotidiennement et ce avec un ton mordant qui fait le sel de ses prises de paroles. Depuis des années, régulièrement, quelques-unes de ses prises de position parviennent jusqu’à nous, via quelques entretiens disséminés dans la presse française ou quelques traductions de certaines de ses tribunes. D’où l’importance du Rapt d’Internet (C&F éditions, 2025, traduction de The internet con, publié en 2023 chez Verso), qui donne enfin à lire un essai du grand activiste des libertés numériques.

      On retrouve dans ce livre à la fois le ton volontaire et énergisant de Doctorow, mais aussi son côté brouillon, qui permet bien souvent de nous emmener plus loin que là où l’on s’attendait à aller. Dans son livre, Doctorow explique le fonctionnement des technologies comme nul autre, sans jamais se tromper de cible. Le défi auquel nous sommes confrontés n’est pas de nous débarrasser des technologies, mais bien de combattre la forme particulière qu’elles ont fini par prendre : leur concentration. Nous devons œuvrer à remettre la technologie au service de ceux qui l’utilisent, plaide-t-il depuis toujours. Pour cela, Doctorow s’en prend aux monopoles, au renforcement du droit d’auteur, au recul de la régulation… pour nous aider à trouver les leviers pour reprendre en main les moyens de production numérique.

      En Guerre

      Voilà longtemps que Cory Doctorow est en guerre. Et le principal ennemi de Doctorow c’est la concentration. Doctorow est le pourfendeur des monopoles quels qu’ils soient et des abus de position dominantes. A l’heure où les marchés n’ont jamais autant été concentrés, le militant nous rappelle les outils que nous avons à notre disposition pour défaire cette concentration. “La réforme de la tech n’est pas un problème plus pressant qu’un autre. Mais si nous ne réformons pas la tech, nous pouvons abandonner l’idée de remporter d’autres combats”, prévient-il. Car la technologie est désormais devenue le bras armé de la concentration financière, le moyen de l’appliquer et de la renforcer. Le moyen de créer des marchés fermés, où les utilisateurs sont captifs et malheureux.

      Pour résoudre le problème, Doctorow prône l’interopérabilité. Pour lui, l’interopérabilité n’est pas qu’un moyen pour disséminer les technologies, mais un levier pour réduire les monopoles. L’interopérabilité est le moyen “pour rendre les Big Tech plus petites”. Pour Doctorow, la technologie et notamment les technologies numériques, restent le meilleur moyen pour nous défendre, pour former et coordonner nos oppositions, nos revendications, nos luttes. “Si nous ne pouvons nous réapproprier les moyens de production du numérique, nous aurons perdu”.

      Cory Doctorow est un militant aguerri. En historien des déploiements de la tech, son livre rappelle les combats technologiques que nous avons remportés et ceux que nous avons perdus, car ils permettent de comprendre la situation où nous sommes. Il nous rappelle comme nul autre, l’histoire du web avant le web et décrypte les manœuvres des grands acteurs du secteur pour nous enfermer dans leurs rets, qui ont toujours plus cherché à punir et retenir les utilisateurs dans leurs services qu’à leur fournir un service de qualité. Nous sommes coincés entre des “maniaques de la surveillance” et des “maniaques du contrôle”“Toutes les mesures prises par les responsables politiques pour freiner les grandes entreprises technologiques n’ont fait que cimenter la domination d’une poignée d’entreprises véreuses”. La régulation a produit le contraire de ce qu’elle voulait accomplir. Elle a pavé le chemin des grandes entreprises technologiques, au détriment de la concurrence et de la liberté des usagers.

      Police sans justice

      En revenant aux racines du déploiement des réseaux des années 90 et 2000, Doctorow nous montre que l’obsession au contrôle, à la surveillance et au profit, ont conduit les entreprises à ne jamais cesser d’œuvrer contre ce qui pouvait les gêner : l’interopérabilité. En imposant par exemple la notification et retrait pour modérer les infractions au copyright, les grandes entreprises se sont dotées d’une procédure qui leur permet tous les abus et face auxquelles les utilisateurs sont sans recours. En leur confiant la police des réseaux, nous avons oublié de confier la justice à quelqu’un. Dans les filtres automatiques des contenus pour le copyright, on retrouve les mêmes abus que dans tous les autres systèmes : des faux positifs en pagaille et des applications strictes au détriment des droits d’usage. En fait, les grandes entreprises de la tech, comme les titulaires des droits, tirent avantage des défaillances et des approximations de leurs outils de filtrage. Par exemple, rappelle Doctorow, il est devenu impossible pour les enseignants ou interprètes de musique classique de gagner leur vie en ligne, car leurs vidéos sont systématiquement bloquées ou leurs revenus publicitaires captés par les maisons de disques qui publient des interprétations de Bach, Beethoven ou Mozart. L’application automatisée de suppression des contenus terroristes conduit à la suppression automatisée des archives de violations des droits humains des ONG. Pour Doctorow, nous devons choisir : “Soit nous réduisons la taille des entreprises de la Tech, soit nous les rendons responsables des actions de leurs utilisateurs”. Cela fait trop longtemps que nous leur faisons confiance pour qu’elles s’améliorent, sans succès. Passons donc à un objectif qui aura plus d’effets : œuvrons à en réduire la taille !, recommande Doctorow.

      L’interopérabilité d’abord

      Pour y parvenir, l’interopérabilité est notre meilleur levier d’action. Que ce soit l’interopérabilité coopérative, celle qui permet de construire des normes qui régulent le monde moderne. Ou que ce soit l’interopérabilité adverse. Doctorow s’énerve légitimement contre toutes les entreprises qui tentent de protéger leurs modèles d’affaires par le blocage, à l’image des marchands d’imprimantes qui vous empêchent de mettre l’encre de votre choix dans vos machines ou des vendeurs d’objets qui introduisent des codes de verrouillages pour limiter la réparation ou l’usage (qu’on retrouve jusque chez les vendeurs de fauteuils roulants !). Ces verrous ont pourtant été renforcés par des lois qui punissent de prison et de lourdes amendes ceux qui voudraient les contourner. L’interopérabilité est désormais partout entravée, bien plus encore par le droit que par la technique.

      Doctorow propose donc de faire machine avant. Nous devons imposer l’interopérabilité partout, ouvrir les infrastructures, imposer des protocoles et des normes. Cela suppose néanmoins de lutter contre les possibilités de triche dont disposent les Big Tech. Pour cela, il faut ouvrir le droit à la rétro-ingénierie, c’est-à-dire à l’interopérabilité adverse (ou compatibilité concurrentielle). Favoriser la “fédération” pour favoriser l’interconnexion, comme les services d’emails savent échanger des messages entre eux. Doctorow défend la modération communautaire et fédérée, selon les règles que chacun souhaite se donner. Pour lui, il nous faut également favoriser la concurrence et empêcher le rachat d’entreprises concurrentes, comme quand Facebook a racheté Instagram ou WhatsApp, qui a permis aux Big Techs de construire des empires toujours plus puissants. Nous devons nous défendre des seigneuries du web, car ce ne sont pas elles qui nous défendront contre leurs politiques. Sous prétexte d’assurer notre protection, bien souvent, elles ne cherchent qu’à maximiser les revenus qu’elles tirent de leurs utilisateurs.

      L’interopérabilité partout

      Le livre de Doctorow fourmille d’exemples sur les pratiques problématiques des Big Tech. Par exemple, sur le fait qu’elles ne proposent aucune portabilité de leurs messageries, alors qu’elles vous proposent toujours d’importer vos carnets d’adresse. Il déborde de recommandations politiques, comme la défense du chiffrement des données ou du droit à la réparabilité, et ne cesse de dénoncer le fait que les régulateurs s’appuient bien trop sur les Big Tech pour produire de la réglementation à leur avantage, que sur leurs plus petits concurrents. Nous devons rendre l’interopérabilité contraignante, explique-t-il, par exemple en la rendant obligatoire dans les passations de marchés publics et en les obligeant à l’interopérabilité adverse, par exemple en faisant que les voitures des flottes publiques puissent être réparables par tous, ou en interdisant les accords de non-concurrence. “Les questions de monopole technologique ne sont pas intrinsèquement plus importantes que, disons, l’urgence climatique ou les discriminations sexuelles et raciales. Mais la tech – une tech libre, juste et ouverte – est une condition sine qua non pour remporter les autres luttes. Une victoire dans la lutte pour une meilleure tech ne résoudra pas ces autres problèmes, mais une défaite annihilerait tout espoir de remporter ces luttes plus importantes”. L’interopérabilité est notre seul espoir pour défaire les empires de la tech.

      Le verrouillage des utilisateurs est l’un des nœuds du problème techno actuel, expliquait-il récemment sur son excellent blog, et la solution pour y remédier, c’est encore et toujours l’interopérabilité. Ces services ne sont pas problématiques parce qu’ils sont détenus par des entreprises à la recherche de profits, mais bien parce qu’elles ont éliminé la concurrence pour cela. C’est la disparition des contraintes réglementaires qui produit « l’emmerdification », assure-t-il, d’un terme qui est entré en résonance avec le cynisme actuel des plateformes pour décrire les problèmes qu’elles produisent. Zuckerberg ou Musk ne sont pas plus diaboliques aujourd’hui qu’hier, ils sont juste plus libres de contraintes. « Pour arrêter l’emmerdification, il n’est pas nécessaire d’éliminer la recherche du profit – il faut seulement rendre l’emmerdification non rentable ». Et Doctorow de nous inviter à exploiter les divisions du capitalisme. Nous ne devons pas mettre toutes les entreprises à but lucratif dans le même panier, mais distinguer celles qui produisent des monopoles et celles qui souhaitent la concurrence. Ce sont les verrous que mettent en place les plateformes en s’accaparant les protocoles que nous devons abattre. Quand Audrey Lorde a écrit que les outils du maître ne démantèleront jamais la maison du maître, elle avait tort, s’énerve-t-il. « Il n’y a pas d’outils mieux adaptés pour procéder à un démantèlement ordonné d’une structure que les outils qui l’ont construite ».

      Cet essai est une chance. Il va permettre à beaucoup d’entre nous de découvrir Cory Doctorow, de réfléchir avec lui, dans un livre joyeusement bordélique, mais qui sait comme nul autre relier l’essentiel et le décortiquer d’exemples toujours édifiants. Depuis plus de 20 ans, le discours de Doctorow est tout à fait cohérent. Il est temps que nous écoutions un peu plus !

      La couverture du Rapt d’internet de Cory Doctorow.

      Cette lecture a été publiée originellement pour la lettre du Conseil national du numérique du 21 mars 2025.

    • sur Le ChatGPT des machines-outils

      Publié: 26 March 2025, 7:00am CET par Hubert Guillaud

      Les machines-outils à commandes numériques sont des outils complexes et fragiles, qui nécessitent des réglages, des tests et une surveillance constante. Microsoft travaille à développer une gamme de produits d’IA dédiée, des “Agents d’exploitation d’usine”, rapporte Wired. L’idée, c’est que l’ouvrier qui est confronté à une machine puisse interroger le système pour comprendre par exemple pourquoi les pièces qu’elle produit ont un taux de défaut plus élevé et que le modèle puisse répondre précisément depuis les données provenant de l’ensemble du processus de fabrication. Malgré son nom, le chatbot n’a pas la possibilité de corriger les choses. Interconnecté à toutes les machines outils, il permet de comparer les pannes et erreurs pour améliorer ses réponses. Microsoft n’est pas le seul à l’oeuvre. Google propose également un Manufacturing Data engine.

      Mais, bien plus qu’un enjeu de réponses, ces nouvelles promesses semblent surtout permettre aux entreprises qui les proposent un nouveau pouvoir : prendre la main sur l’interconnexion des machines à la place de leurs fabricants.

    • sur Vectofascisme

      Publié: 25 March 2025, 7:00am CET par Hubert Guillaud

      Dans son passionnant journal, qu’il produit depuis plus de 10 ans, l’artiste Gregory Chatonsky tient le carnet d’une riche réflexion de notre rapport aux technologies. Récemment, il proposait de parler de vectofascisme plutôt que de technofascisme, en livrant une explication et une démonstration passionnante qui nous montre que ce nouveau fascisme n’est pas une résurgence du fascisme du XXe siècle, mais bien une « transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce ». Tribune.

      Comme annoncé par Vilèm Flusser nous sommes entrés dans l’ère post-alphabétique. Les appareils nous programment désormais autant que nous ne les programmons. Dans cet univers techno-imaginal où l’ensemble de nos facultés sont traversées par les technologies, la question du fascisme se pose différemment. Qualifier un phénomène contemporain de “fasciste” n’est ni un simple détournement sémantique ni une exactitude historique. C’est plutôt reconnaître une certaine disposition affective qui traverse le socius, un réarrangement des intensités désirantes sous de nouvelles conditions techniques.

      Le second mandat Trump n’est pas un “retour” au fascisme – comme si l’histoire suivait un schéma circulaire – mais une réémergence fracturée dans un champ techno-affectif radicalement distinct. Le préfixe “vecto-”, hérité de Wark McKenzie, indique précisément cette transformation : nous ne sommes plus dans une politique des masses mais dans une politique des vecteurs, des lignes de force et des intensités directionnelles qui traversent et constituent le corps social algorithmisé.

      Même parler de “masses” serait encore nostalgique, un concept résiduel d’une époque où la densité physique manifestait le politique. Aujourd’hui, la densité s’exprime en termes d’attention agrégée, de micro-impulsions synchronisées algorithmiquement en l’absence de toute proximité corporelle. Les corps n’ont plus besoin de se toucher pour former une force politique ; il suffit que leurs données se touchent dans l’espace latent des serveurs. Cette dématérialisation n’est pas une disparition du corps mais sa redistribution dans une nouvelle géographie computationnelle qui reconfigure les coordonnées mêmes du politique. D’ailleurs, quand ces corps se mobilisent physiquement c’est grâce au réseau.

      Dans cette recomposition du champ social, les catégories politiques héritées perdent leur efficacité descriptive. Ce n’est pas que les mots “fascisme” ou “démocratie” soient simplement désuets, c’est que les phénomènes qu’ils désignaient ont subi une mutation qui nécessite non pas simplement de nouveaux mots, mais une nouvelle grammaire politique. Le préfixe “vecto-” n’est pas un ornement conceptuel, mais l’indicateur d’une transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce.

      Définitions

      Fascisme historique : Mouvement politique né dans l’entre-deux-guerres, principalement en Italie et en Allemagne, caractérisé par un nationalisme exacerbé, un culte du chef, un rejet des institutions démocratiques, une mobilisation des masses et une violence politique institutionnalisée.

      Néofascisme : Adaptation contemporaine de certaines caractéristiques du fascisme historique à un contexte sociopolitique différent, préservant certains éléments idéologiques fondamentaux tout en les reformulant.

      Vectofascisme : Néologisme désignant une forme contemporaine de fascisme qui s’adapte aux moyens de communication et aux structures sociales de l’ère numérique, caractérisée par la vectorisation (direction, intensité, propagation) de l’information et du pouvoir à l’ère de l’IA.

      Des masses aux vecteurs

      Le fascisme historique appartenait encore à l’univers de l’écriture linéaire et de la première vague industrielle. Les machines fascistes étaient des machines à produire des gestes coordonnés dans l’espace physique. Le corps collectif s’exprimait à travers des parades uniformisées, des bras tendus à l’unisson, un flux énergétique directement observable.

      Le vectofascisme appartient à l’univers post-alphabétique des appareils computationnels. Ce n’est plus un système d’inscription mais un système de calcul. Là où le fascisme classique opérait par inscription idéologique sur les corps, le vectofascisme opère par modulation algorithmique des flux d’attention et d’affect. Les appareils qui le constituent ne sont pas des méga-haut-parleurs mais des micro-ciblages.

      L’image technique fasciste était monumentale, visible de tous, univoque ; l’image technique vectofasciste est personnalisée, multiple, apparemment unique pour chaque regardeur. Mais cette multiplication des images n’est pas libératrice ; elle est calculée par un méta-programme qui demeure invisible. L’apparence de multiplicité masque l’unité fondamentale du programme.

      Cette transformation ne signifie pas simplement une numérisation du fascisme, comme si le numérique n’était qu’un nouveau support pour d’anciennes pratiques politiques. Il s’agit d’une mutation du politique lui-même. Les foules uniformes des rassemblements fascistes opéraient encore dans l’espace euclidien tridimensionnel ; le vectofascisme opère dans un hyperespace de n-dimensions où la notion même de “rassemblement” devient obsolète. Ce qui se rassemble, ce ne sont plus des corps dans un stade mais des données dans un espace vectoriel.

      Ce passage d’une politique de la présence physique à une politique de la vectorisation informationnelle transforme également la nature même du pouvoir. Le pouvoir fasciste traditionnel s’exerçait par la disciplinarisation visible des corps, l’imposition d’une orthopédie sociale directement inscrite dans la matérialité des gestes grâce au Parti unique. Le pouvoir vectofasciste s’exerce par la modulation invisible des affects, une orthopédie cognitive qui ne s’applique plus aux muscles mais aux synapses, qui ne vise plus à standardiser les mouvements mais à orienter les impulsions. Le Parti ou toutes formes d’organisation sociale n’ont plus de pertinence.

      Dans ce régime, l’ancien binôme fasciste ordre/désordre est remplacé par le binôme signal/bruit. Il ne s’agit plus de produire un ordre visible contre le désordre des masses indisciplinées, mais d’amplifier certains signaux et d’atténuer d’autres, de moduler le rapport signal/bruit dans l’écosystème informationnel global. Ce passage du paradigme disciplinaire au paradigme modulatoire constitue peut-être la rupture fondamentale qui justifie le préfixe “vecto-“.

      Analysons 3 caractéristiques permettant de justifier l’usage du mot fasciste dans notre concept:

      Le culte du chef

      Le fascisme historique a institutionnalisé le culte de la personnalité à un degré sans précédent. Le Duce ou le Führer n’étaient pas simplement des dirigeants, mais des incarnations quasi-mystiques de la volonté nationale. Cette relation entre le chef et ses partisans transcendait la simple adhésion politique pour atteindre une dimension presque religieuse.

      Cette caractéristique se manifeste aujourd’hui par la dévotion inconditionnelle de certains partisans envers leur leader, résistant à toute contradiction factuelle. L’attachement émotionnel prime sur l’évaluation rationnelle des politiques. Le slogan “Trump can do no wrong” illustre parfaitement cette suspension du jugement critique au profit d’une confiance absolue.

      La démocratie, par essence, suppose une vigilance critique des citoyens envers leurs dirigeants. La défiance par rapport aux dirigeants est un signe du bon fonctionnement de la démocratie en tant que les citoyens restent autonomes. La substitution de cette autonomie par une allégeance inconditionnelle constitue donc une régression anti-démocratique significative.

      La dissolution du rapport à la vérité

      Le rapport du discours fasciste à la vérité constitue un élément particulièrement distinctif. Contrairement à d’autres idéologies qui proposent une vision alternative mais cohérente du monde, le fascisme entretient un rapport instrumental et flexible avec la vérité. La contradiction n’est pas perçue comme un problème logique mais comme une démonstration de puissance.

      Le “logos” fasciste vaut moins pour son contenu sémantique que pour son intensité affective et sa capacité à mobiliser les masses. Cette caractéristique se retrouve dans la communication politique contemporaine qualifiée de “post-vérité”, où l’impact émotionnel prime sur la véracité factuelle.

      L’incohérence apparente de certains discours politiques actuels n’est pas un défaut mais une fonctionnalité : elle démontre l’affranchissement du leader des contraintes communes de la cohérence et de la vérification factuelle. Le mépris des “fake news” et des “faits alternatifs” participe de cette logique où la puissance d’affirmation l’emporte sur la démonstration rationnelle.

      La désignation de boucs émissaires

      La troisième caractéristique fondamentale réside dans la désignation systématique d’ennemis intérieurs, généralement issus de minorités, qui sont présentés comme responsables des difficultés nationales.

      Cette stratégie remplit une double fonction : elle détourne l’attention des contradictions structurelles du système économique (servant ainsi les intérêts du grand capital) et fournit une explication simple à des problèmes complexes. La stigmatisation des minorités – qu’elles soient ethniques, religieuses ou sexuelles – crée une cohésion nationale négative, fondée sur l’opposition à un “autre” intérieur.

      Dans le contexte contemporain, cette logique s’observe dans la rhétorique anti-immigration, la stigmatisation des communautés musulmanes ou certains discours sur les minorités sexuelles présentées comme menaçant l’identité nationale. La création d’un antagonisme artificiel entre un “peuple authentique” et des éléments présentés comme “parasitaires” constitue une continuité frappante avec les fascismes historiques.

      L’industrialisation du différend

      Le fascisme historique s’inscrivait encore – même perversement – dans le grand récit de l’émancipation moderne. C’était une pathologie de la modernité, mais qui parlait son langage : progrès, renouveau, pureté, accomplissement historique. Le vectofascisme s’épanouit précisément dans la fin des grands récits, dans l’incrédulité et le soupçon.

      En l’absence de métarécits, le différend politique devient inexprimable. Comment articuler une résistance quand les règles mêmes du discours sont constamment reconfigurées ? Le vectofascisme n’a pas besoin de nier la légitimité de l’opposition ; il peut simplement la rendre inaudible en recalibrant perpétuellement les conditions même de l’audibilité : c’est une politique à haute fréquence comme quand on parle de spéculation à haute fréquence.

      On pourrait définir le vectofascisme comme une machine à produire des différends indécidables – non pas des conflits d’interprétation, mais des situations où les phrases elles-mêmes appartiennent à des régimes hétérogènes dont aucun n’a autorité pour juger les autres. La phrase vectofasciste n’est pas contredite dans son régime, elle crée un régime où la contradiction n’a plus cours.

      La notion lyotardienne de différend prend ici une dimension algorithmique. Le différend classique désignait l’impossibilité de trancher entre deux discours relevant de régimes de phrases incommensurables. Le différend algorithmique va plus loin : il produit activement cette incommensurabilité par manipulation ciblée des environnements informationnels. Ce n’est plus simplement qu’aucun tribunal n’existe pour trancher entre deux régimes de phrases ; c’est que les algorithmes créent des régimes de phrases sur mesure pour chaque nœud du réseau, rendant impossible même la conscience de l’existence d’un différend.

      Cette fragmentation algorithmique des univers discursifs constitue une rupture radicale avec la sphère publique bourgeoise moderne, qui présupposait au moins théoriquement un espace discursif commun où différentes positions pouvaient s’affronter selon des règles partagées. Le vectofascisme n’a pas besoin de censurer l’opposition ; il lui suffit de s’assurer que les univers discursifs sont suffisamment distincts pour que même l’identification d’une opposition commune devienne impossible.

      Cette incapacité à formuler un différend commun empêche la constitution d’un “nous” politique cohérent face au pouvoir. Chaque nœud du réseau perçoit un pouvoir légèrement différent, contre lequel il formule des griefs légèrement différents, qui trouvent écho dans des communautés de résistance légèrement différentes. Cette micro-différenciation des perceptions du pouvoir et des résistances assure une neutralisation effective de toute opposition systémique.

      “Je ne suis pas ici”

      Le pouvoir ne s’exerce plus principalement à travers les institutions massives de la modernité, mais à travers des systèmes spectraux, impalpables, dont l’existence même peut être niée. Le vectofascisme ressemble à ces entités qui, comme les hauntologies derridiennes, sont simultanément là et pas là. Il opère dans cette zone d’indistinction entre présence et absence.

      Ce qui caractérise ce pouvoir spectral, c’est précisément sa capacité à dénier sa propre existence tout en exerçant ses effets. “Ce n’est pas du fascisme”, répète-t-on, tout en mettant en œuvre ses mécanismes fondamentaux sous des noms différents. Cette dénégation fait partie de sa puissance opératoire. Le vectofascisme est d’autant plus efficace qu’il peut toujours dire : “Je ne suis pas ici.”

      La spectralité n’est pas seulement une métaphore mais une condition du pouvoir contemporain. Les algorithmes qui constituent l’infrastructure du vectofascisme sont littéralement des spectres : invisibles aux utilisateurs qu’ils modulent, présents seulement par leurs effets, ils hantent l’espace numérique comme des fantômes dans la machine. La formule fishérienne “ils ne savent pas ce qu’ils font, mais ils le font quand même” prend ici un nouveau sens : les utilisateurs ne perçoivent pas les mécanismes qui modulent leurs affects, mais ils produisent néanmoins ces affects avec une précision troublante.

      Cette spectralité du pouvoir vectofasciste explique en partie l’inadéquation des modes traditionnels de résistance. Comment s’opposer à ce qui nie sa propre existence ? Comment résister à une forme de domination qui se présente non comme imposition mais comme suggestion personnalisée ? Comment combattre un pouvoir qui se manifeste moins comme prohibition que comme modulation subtile du champ des possibles perçus ?

      Le vectofascisme représente ainsi une évolution significative par rapport au biopouvoir foucaldien. Il ne s’agit plus seulement de “faire vivre et laisser mourir” mais de moduler infiniment les micro-conditions de cette vie, de créer des environnements informationnels sur mesure qui constituent autant de “serres ontologiques” où certaines formes de subjectivité peuvent prospérer tandis que d’autres sont étouffées par des conditions défavorables.

      Le second mandat Trump

      À la lumière de ces éléments théoriques, revenons à la question initiale : est-il légitime de qualifier le second mandat Trump de “fasciste” ?

      Plusieurs éléments suggèrent des convergences significatives avec les caractéristiques fondamentales du fascisme :

      1. La personnalisation extrême du pouvoir et le culte de la personnalité
      2. Le rapport instrumental à la vérité factuelle et l’incohérence délibérée du discours
      3. La désignation systématique de boucs émissaires (immigrants, minorités ethniques, “élites cosmopolites”)
      4. La remise en cause des institutions démocratiques (contestation des résultats électoraux, pression sur l’appareil judiciaire)
      5. La mobilisation d’affects collectifs (peur, ressentiment, nostalgie) plutôt que d’arguments rationnels

      Dans l’univers des images techniques que devient le chef ? Il n’est plus un sujet porteur d’une volonté historique mais une fonction dans un système de feedback. Il n’est ni entièrement un émetteur ni complètement un récepteur, mais un nœud dans un circuit cybernétique de modulation affective.

      Le culte du chef vectofasciste n’est plus un culte de la personne mais un culte de l’interface, de la surface d’interaction. Ce qui est adoré n’est pas la profondeur supposée du chef mais sa capacité à fonctionner comme une surface de projection parfaite. Le chef idéal du vectofascisme est celui qui n’offre aucune résistance à la projection des désirs collectifs algorithmiquement modulés.

      La grotesquerie devient ainsi non plus un accident mais un opérateur politique essentiel. Si le corps du leader fasciste traditionnel était idéalisé, devant incarner la perfection de la race et de la nation, le corps du leader vectofasciste peut s’affranchir de cette exigence de perfection précisément parce qu’il n’a plus à incarner mais à canaliser. Le caractère manifestement construit, artificiel, même ridicule de l’apparence (la coiffure improbable, le maquillage orange) n’est pas un défaut mais un atout : il signale que nous sommes pleinement entrés dans le régime de l’image technique, où le référent s’efface derrière sa propre représentation.

      Cette transformation ontologique du statut du chef modifie également la nature du lien qui l’unit à ses partisans. Là où le lien fasciste traditionnel était fondé sur l’identification (le petit-bourgeois s’identifie au Führer qui incarne ce qu’il aspire à être), le lien vectofasciste fonctionne davantage par résonance algorithmique : le chef et ses partisans sont ajustés l’un à l’autre non par un processus psychologique d’identification mais par un processus technique d’optimisation. Les algorithmes façonnent simultanément l’image du chef et les dispositions affectives des partisans pour maximiser la résonance entre eux.

      Ce passage de l’identification à la résonance transforme la temporalité même du lien politique. L’identification fasciste traditionnelle impliquait une temporalité du devenir (devenir comme le chef, participer à son destin historique). La résonance vectofasciste implique une temporalité de l’instantanéité : chaque tweet, chaque déclaration, chaque apparition du chef produit un pic d’intensité affective immédiatement mesurable en termes d’engagement numérique, puis s’efface dans le flux continu du présent perpétuel.

      Le rapport vectofasciste à la vérité n’est pas simplement un mensonge ou une falsification. Dans l’univers post-alphabétique, la distinction binaire vrai/faux appartient encore à la pensée alphabétique. Ce qui caractérise le vectofascisme est plutôt la production d’une indécidabilité calculée, d’une zone grise où le statut même de l’énoncé devient indéterminable.

      Ce mécanisme ne doit pas être compris comme irrationnel. Au contraire, il est hyper-rationnel dans sa capacité à exploiter les failles des systèmes de vérification. La post-vérité n’est pas l’absence de vérité mais sa submersion dans un flot d’informations contradictoires dont le tri exigerait un effort cognitif dépassant les capacités attentionnelles disponibles.

      Le capitalisme a toujours su qu’il était plus efficace de saturer l’espace mental que de le censurer. Le vectofascisme applique cette logique à la vérité elle-même : non pas nier les faits, mais les noyer dans un océan de quasi-faits, de semi-faits, d’hyper-faits jusqu’à ce que la distinction même devienne un luxe cognitif inabordable.

      Cette stratégie de saturation cognitive exploite une asymétrie fondamentale : il est toujours plus coûteux en termes de ressources cognitives de vérifier une affirmation que de la produire. Produire un mensonge complexe coûte quelques secondes ; le démystifier peut exiger des heures de recherche. Cette asymétrie, négligeable dans les économies attentionnelles pré-numériques, devient décisive dans l’écosystème informationnel contemporain caractérisé par la surabondance et l’accélération.

      Le vectofascisme pousse cette logique jusqu’à transformer la véracité elle-même en une simple variable d’optimisation algorithmique. La question n’est plus “est-ce vrai ?” mais “quel degré de véracité maximisera l’engagement pour ce segment spécifique ?”. Cette instrumentalisation calculée de la vérité peut paradoxalement conduire à une calibration précise du mélange optimal entre faits, demi-vérités et mensonges complets pour chaque micro-public.

      Cette modulation fine du rapport à la vérité transforme la nature même du mensonge politique. Le mensonge traditionnel présupposait encore une reconnaissance implicite de la vérité (on ment précisément parce qu’on reconnaît l’importance de la vérité). Le mensonge vectofasciste opère au-delà de cette distinction : il ne s’agit plus de nier une vérité reconnue, mais de créer un environnement informationnel où la distinction même entre vérité et mensonge devient une variable manipulable parmi d’autres.

      Les concepts traditionnels de propagande ou de manipulation deviennent ainsi partiellement obsolètes. La propagande classique visait à imposer une vision du monde alternative mais cohérente ; la modulation vectofasciste de la vérité renonce à cette cohérence au profit d’une efficacité localisée et temporaire. Il ne s’agit plus de construire un grand récit alternatif stable, mais de produire des micro-récits contradictoires adaptés à chaque segment de population et à chaque contexte attentionnel.

      Là où le fascisme historique désignait des ennemis universels de la nation (le Juif, le communiste, le dégénéré), le vectofascisme calcule des ennemis personnalisés pour chaque nœud du réseau. C’est une haine sur mesure, algorithmiquement optimisée pour maximiser l’engagement affectif de chaque segment de population.

      Cette personnalisation n’est pas une atténuation mais une intensification : elle permet d’infiltrer les micropores du tissu social avec une précision chirurgicale. Le système ne propose pas un unique bouc émissaire mais une écologie entière de boucs émissaires potentiels, adaptés aux dispositions affectives préexistantes de chaque utilisateur.

      L’ennemi n’est plus un Autre monolithique mais un ensemble de micro-altérités dont la composition varie selon la position de l’observateur dans le réseau et dont le “wokisme” est le paradigme. Cette modulation fine des antagonismes produit une société simultanément ultra-polarisée et ultra-fragmentée, où chaque bulles informationnelles développe ses propres figures de haine.

      Cette fragmentation des figures de l’ennemi ne diminue pas l’intensité de la haine mais la rend plus efficace en l’adaptant précisément aux dispositions psycho-affectives préexistantes de chaque utilisateur. Les algorithmes peuvent identifier quelles caractéristiques spécifiques d’un groupe désigné comme ennemi susciteront la réaction émotionnelle la plus forte chez tel utilisateur particulier, puis accentuer précisément ces caractéristiques dans le flux informationnel qui lui est destiné.

      Cependant, cette personnalisation des boucs émissaires ne signifie pas l’absence de coordination. Les algorithmes qui modulent ces haines personnalisées sont eux-mêmes coordonnés au niveau méta, assurant que ces antagonismes apparemment dispersés convergent néanmoins vers des objectifs politiques cohérents. C’est une orchestration de second ordre : non pas l’imposition d’un ennemi unique, mais la coordination algorithmique d’inimitiés multiples.

      Cette distribution algorithmique de la haine transforme également la temporalité des antagonismes. Le fascisme traditionnel désignait des ennemis stables, permanents, essentialisés (le Juif éternel, le communiste international). Le vectofascisme peut faire varier les figures de l’ennemi selon les nécessités tactiques du moment, produisant des pics d’intensité haineuse temporaires mais intenses, puis réorientant cette énergie vers de nouvelles cibles lorsque l’engagement faiblit. “Mes amis il n’y a point d’amis” résonne aujourd’hui très étrangement.

      Cette souplesse tactique dans la désignation des ennemis permet de maintenir une mobilisation affective constante tout en évitant la saturation qui résulterait d’une focalisation trop prolongée sur un même bouc émissaire. La haine devient ainsi une ressource attentionnelle renouvelable, dont l’extraction est optimisée par des algorithmes qui surveillent constamment les signes de désengagement et recalibrent les cibles en conséquence.

      Le contrôle vectoriel

      Le fascisme historique fonctionnait dans l’espace disciplinaire foucaldien : quadrillage des corps, visibilité panoptique, normalisation par l’extérieur. Le vectofascisme opère dans un espace latent de n-dimensions qui ne peut même pas être visualisé directement par l’esprit humain.

      Cet espace latent n’est pas un lieu métaphorique mais un espace mathématique concret dans lequel les réseaux de neurones artificiels génèrent des représentations compressées des données humaines. Ce n’est pas un espace de représentation mais de modulation : les transformations qui s’y produisent ne représentent pas une réalité préexistante mais génèrent de nouvelles réalités.

      La géographie politique traditionnelle (centre/périphérie, haut/bas, droite/gauche) devient inopérante. Les coordonnées politiques sont remplacées par des vecteurs d’intensité, des gradients de polarisation, des champs d’attention dont les propriétés ne correspondent à aucune cartographie politique antérieure.

      Cette transformation de la géographie du pouvoir n’est pas une simple métaphore mais une réalité technique concrète. Les grands modèles de langage contemporains, par exemple, n’opèrent pas primitivement dans l’espace des mots mais dans un espace latent de haute dimensionnalité où chaque concept est représenté comme un vecteur possédant des centaines ou des milliers de dimensions. Dans cet espace, la “distance” entre deux concepts n’est plus mesurée en termes spatiaux traditionnels mais en termes de similarité cosinus entre vecteurs.

      Cette reconfiguration de l’espace conceptuel transforme fondamentalement les conditions de possibilité du politique. Les catégories politiques traditionnelles (gauche/droite, conservateur/progressiste) deviennent des projections simplifiées et appauvries d’un espace multidimensionnel plus complexe. Les algorithmes, eux, opèrent directement dans cet espace latent, capable de manipuler des dimensions politiques que nous ne pouvons même pas nommer car elles émergent statistiquement de l’analyse des données sans correspondre à aucune catégorie préexistante dans notre vocabulaire politique.

      Le pouvoir qui s’exerce dans cet espace latent échappe ainsi partiellement à notre capacité même de le conceptualiser. Comment critiquer ce que nous ne pouvons pas représenter ? Comment résister à ce qui opère dans des dimensions que nous ne pouvons pas percevoir directement et qui permet de passer de n’importe quel point à n’importe quel autre ? Cette invisibilité constitutive n’est pas accidentelle mais structurelle : elle découle directement de la nature même des espaces vectoriels de haute dimensionnalité qui constituent l’infrastructure mathématique du vectofascisme.

      Cette invisibilité est renforcée par le caractère propriétaire des algorithmes qui opèrent ces transformations. Les modèles qui modulent nos environnements informationnels sont généralement protégés par le secret commercial, leurs paramètres précis inaccessibles non seulement aux utilisateurs mais souvent même aux développeurs qui les déploient. Cette opacité n’est pas un bug mais une feature : elle permet précisément l’exercice d’un pouvoir qui peut toujours nier sa propre existence.

      De la facticité

      Le vectofascisme ne se contente pas de manipuler les représentations du monde existant ; il génère activement des mondes contrefactuels qui concurrencent le monde factuel dans l’espace attentionnel. Ces mondes ne sont pas simplement “faux” – qualification qui appartient encore au régime alphabétique de vérité – mais alternatifs, parallèles, adjacents.

      La puissance des modèles prédictifs contemporains réside précisément dans leur capacité à produire des contrefactuels convaincants, des simulations de ce qui aurait pu être qui acquièrent une force d’attraction affective équivalente ou supérieure à ce qui est effectivement advenu.

      Cette prolifération des contrefactuels n’est pas un bug mais une autre feature du système : elle permet de maintenir ouvertes des potentialités contradictoires, de suspendre indéfiniment la clôture épistémique du monde qu’exigerait une délibération démocratique rationnelle.

      La modélisation contrefactuelle n’est pas en soi une innovation du vectofascisme ; elle constitue en fait une capacité cognitive fondamentale de l’être humain et un outil épistémologique essentiel de la science moderne. Ce qui caractérise spécifiquement le vectofascisme est l’industrialisation de cette production contrefactuelle, son insertion systématique dans les flux informationnels quotidiens, et son optimisation algorithmique pour maximiser l’engagement affectif plutôt que la véracité ou la cohérence.

      Les grands modèles de langage constituent à cet égard des machines à contrefactualité d’une puissance sans précédent. Entraînés sur la quasi-totalité du web, ils peuvent générer des versions alternatives de n’importe quel événement avec un degré de plausibilité linguistique troublant. Ces contrefactuels ne se contentent pas d’exister comme possibilités abstraites ; ils sont insérés directement dans les flux informationnels quotidiens, concurrençant les descriptions factuelles dans l’économie de l’attention.

      Cette concurrence entre factualité et contrefactualité est fondamentalement asymétrique. La description factuelle d’un événement est contrainte par ce qui s’est effectivement produit ; les descriptions contrefactuelles peuvent explorer un espace des possibles virtuellement infini, choisissant précisément les versions qui maximiseront l’engagement émotionnel des différents segments d’audience. Cette asymétrie fondamentale explique en partie le succès du vectofascisme dans l’économie attentionnelle contemporaine : la contrefactualité optimisée pour l’engagement l’emportera presque toujours sur la factualité dans un système où l’attention est la ressource principale.

      Cette prolifération contrefactuelle transforme également notre rapport au temps politique. La politique démocratique moderne présupposait un certain ordonnancement temporel : des événements se produisent, sont rapportés factuellement, puis font l’objet d’interprétations diverses dans un débat public structuré. Le vectofascisme court-circuite cet ordonnancement : l’interprétation précède l’événement, les contrefactuels saturent l’espace attentionnel avant même que les faits ne soient établis, et le débat ne porte plus sur l’interprétation de faits communs mais sur la nature même de la réalité.

      En finir

      Nous assistons moins à une reproduction à l’identique du fascisme historique qu’à l’émergence d’une forme hybride, adaptée au contexte contemporain, que l’on pourrait qualifier d’autoritarisme populiste à tendance fascisante.

      L’emploi du terme “fascisme” pour qualifier des phénomènes politiques contemporains nécessite à la fois rigueur conceptuelle et lucidité politique. Si toute forme d’autoritarisme n’est pas nécessairement fasciste, les convergences identifiées entre certaines tendances actuelles et les caractéristiques fondamentales du fascisme historique ne peuvent être négligées.

      Le fascisme, dans son essence, représente une subversion de la démocratie par l’exploitation de ses vulnérabilités. Sa capacité à se métamorphoser selon les contextes constitue précisément l’un de ses dangers. Reconnaître ces mutations sans tomber dans l’inflation terminologique constitue un défi intellectuel majeur.

      Le vectofascisme contemporain ne reproduit pas à l’identique l’expérience historique des années 1930, mais il partage avec celle-ci des mécanismes fondamentaux.

      On peut proposer cette définition synthétique à retravailler :

      « Le vectofascisme désigne une forme politique contemporaine qui adapte les mécanismes fondamentaux du fascisme historique aux structures technologiques, communicationnelles et sociales de l’ère numérique. Il se définit précisément comme un système politique caractérisé par l’instrumentalisation algorithmique des flux d’information et des espaces numériques pour produire et orienter des affects collectifs, principalement la peur et le ressentiment, au service d’un projet de pouvoir autoritaire. Il se distingue par (1) l’exploitation stratégique des propriétés vectorielles de l’information numérique (direction, magnitude, propagation) ; (2) la manipulation systématique de l’espace des possibles et des contrefactuels pour fragmenter la réalité commune ; (3) la production statistiquement optimisée de polarisations sociales et identitaires ; et (4) la personnalisation algorithmique des trajectoires de radicalisation dans des espaces latents de haute dimensionnalité.

      Contrairement au fascisme historique, centré sur la mobilisation physique des masses et l’occupation matérielle de l’espace public, le vectofascisme opère principalement par la reconfiguration de l’architecture informationnelle et attentionnelle. Cependant, il repose fondamentalement sur une mobilisation matérielle d’un autre ordre : l’extraction intensive de ressources énergétiques et minérales (terres rares, lithium, cobalt, etc.) nécessaires au fonctionnement des infrastructures numériques qui le soutiennent. Cette extraction, souvent délocalisée et invisibilisée, constitue la base matérielle indispensable de la superstructure informationnelle, liant le vectofascisme à des formes spécifiques d’exploitation environnementale et géopolitique qui alimentent les machines computationnelles au cœur de son fonctionnement. »

      Gregory Chatonsky

      Cet article est extrait du journal de Gregory Chatonsky, publié en mars 2025 sous le titre « Qu’est-ce que le vectofascisme ? »

    • sur Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle

      Publié: 24 March 2025, 10:30am CET par Lydie Goeldner-Gianella

      Le paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...

    • sur Postal horse relays and roads in France, from the 17th to the 19th centuries

      Publié: 24 March 2025, 10:30am CET par Nicolas Verdier

      La base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...

    • sur Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?

      Publié: 24 March 2025, 10:30am CET par Hamdi Euchi

      La défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...

    • sur Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.

      Publié: 24 March 2025, 10:30am CET par Justine Collin

      Avec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.

      À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...

    • sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais

      Publié: 24 March 2025, 10:30am CET par Carole Marin

      La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...

    • sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation

      Publié: 24 March 2025, 9:30am CET par Pierre Libaud

      Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.

    • sur Geodatadays 2023

      Publié: 24 March 2025, 9:30am CET par Christine Plumejeaud-Perreau

      Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...

    • sur MapDraw. Un outil libre d’annotation de cartes en ligne

      Publié: 24 March 2025, 9:30am CET par Justin Berli

      Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.

    • sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies

      Publié: 24 March 2025, 9:30am CET par Gabriel Marquès

      Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.

    • sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence

      Publié: 24 March 2025, 9:30am CET par Maxime Masson

      TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]

    • sur Atlas du développement durable. Un monde en transition, Autrement, 2022

      Publié: 24 March 2025, 9:30am CET par Marie-Laure Trémélo

      L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.

      Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.

      Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...

    • sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial

      Publié: 24 March 2025, 9:30am CET par Jean-Charles Édouard

      Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.

      À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.

      En ce qui concerne l’analyse du ...

    • sur Mappa naturae, 2023

      Publié: 24 March 2025, 9:30am CET par Sylvain Guyot

      Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...

    • sur Représenter la centralité marchande : la coloration marchande et ses usages

      Publié: 24 March 2025, 9:30am CET par Nicolas Lebrun

      La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.

    • sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain

      Publié: 24 March 2025, 9:30am CET par Jean Rieucau

      La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.

    • sur L’automatisation est un problème politique

      Publié: 24 March 2025, 7:00am CET par Hubert Guillaud

      “L’automatisation remplace les hommes. Ce n’est bien sûr pas une nouveauté. Ce qui est nouveau, c’est qu’aujourd’hui, contrairement à la plupart des périodes précédentes, les hommes déplacés n’ont nulle part où aller. (…) L’automatisation exclut de plus en plus de personnes de tout rôle productif dans la société.” James Boggs, The American Revolution, pages from a negro workers notebook, 1963.

      La réponse actuelle face à l’automatisation est la même que dans les années 60, explique Jason Ludwig pour PublicBooks : il faut former les travailleurs à la programmation ou aux compétences valorisées par la technologie pour qu’ils puissent affronter les changements à venir. Le mantra se répète : ”le progrès technologique est inévitable et les travailleurs doivent s’améliorer eux-mêmes ou être balayés par sa marche inexorable”. Une telle approche individualiste du déplacement technologique trahit cependant une myopie qui caractérise la politique technologique, explique Ludwig : c’est que l’automatisation est fondamentalement un problème politique. Or, comme le montre l’histoire de la politique du travail américaine, les efforts pour former les travailleurs noirs aux compétences technologiques dans les années 60 ont été insuffisants et n’ont fait que les piéger dans une course vers le bas pour vendre leur travail.

      Pour Ludwig, il nous faut plutôt changer notre façon de penser la technologie, le travail et la valeur sociale. Dans les années 60, Kennedy avait signé une loi qui avait permis de former quelque 2 millions d’américains pour répondre au défi de l’automatisation. Mais dans le delta du Mississippi, la majorité des noirs formés (comme opérateurs de production, mécanicien automobile, sténographes…) sont retournés au travail agricole saisonnier avant même d’avoir fini leur formation. En fait, les formations formaient des gens à des emplois qui n’existaient pas. “Ces programmes ont également marqué un éloignement de l’espoir initial des leaders des droits civiques de voir une politique d’automatisation faire progresser l’égalité raciale. Au lieu de cela, l’automatisation a renforcé une hiérarchie racialisée du travail technologique”. Ceux qui ont suivit une formation dans l’informatique sont restés pour la plupart dans des rôles subalternes, à l’image des travailleurs des plateformes d’aujourd’hui. Travailleur noir dans l’industrie automobile de Détroit des années 50, James Boggs a d’ailleurs été le témoin direct de la manière dont les nouveaux contrôles électroniques ont remplacé les travailleurs de la chaîne de montage, et a également observé les échecs de la direction, des dirigeants gouvernementaux et du mouvement ouvrier lui-même à faire face aux perturbations causées par l’automatisation. Dans ses écrits critiques, Boggs a soutenu que leur incapacité à concevoir une solution adéquate au problème de l’automatisation et du chômage provenait d’une croyance qu’ils avaient tous en commun : les individus doivent travailler !

      Pour Boggs, la voie à suivre à l’ère de l’automatisation ne consiste pas à lutter pour le plein emploi, mais plutôt à accepter une société sans travail, en garantissant à chacun un revenu décent. Pour Ludwig, les recommandations de Boggs soulignent les failles des prévisions contemporaines sur l’avenir du travail, comme celles de McKinsey. La reconversion des travailleurs peut être une mesure temporaire, mais ne sera jamais qu’une solution provisoire. La présenter comme la seule voie à suivre détourne l’attention de la recherche de moyens plus efficaces pour assurer un avenir meilleur à ceux qui sont en marge de la société, comme l’expérimentation d’un revenu de base ou la réinvention de l’État-providence pour le XXIe siècle.

    • sur Partage et collaboration géomatique à la Ville de Genève

      Publié: 23 March 2025, 5:11pm CET par la rédaction SIGMAG & SIGTV.FR
      L’organisation du SIG à Genève inspire par sa transversalité et sa collégialité. La plate-forme SITV est logiquement un portail collaboratif multi-utilisateurs au service de la Ville, dont la mise en œuvre a associé nombre d’acteurs en interne et externe : une vraie fédération de compétences ! Partage et collaboration géomatique à la Ville de Genève Deuxième ville la plus peuplée de Suis se après Zurich, Genève est située au bord du lac Léman, à la frontière avec la France. Cosmopolite et ouverte sur le monde, c’est un centre important pour les organisations internationales. Commune principale du canton de Genève, la ville compte plus de 205.000 habitants, soit un peu moins de la moitié de la population cantonale. Les relations entre les administrations de la Ville et du canton sont étroitement imbriquées, y compris sur le plan géomatique. Créé en 1991, le SIG de la Ville de Genève travaille de concert avec le SI du Territoire Genevois (SITG) avec pour principe de ne pas dupliquer les efforts. C’est ainsi que le canton gère le cadastre pour tout le territoire, alors qu’une quarantaine de types différents de géodonnées de la Ville sont synchronisés sur le portail du SITG.
      Retrouvez la suite de cette enquête dans le magazine SIGMAG N°44
    • sur À la recherche de conteneurs

      Publié: 23 March 2025, 4:53pm CET par la rédaction SIGMAG & SIGTV.FR
      À la recherche de conteneurs En Moselle, la Communauté d’agglomération du Val de Fensch déploie son application de localisation de points de collecte des déchets. Le service SIG de la collectivité rend accessible ce nouvel outil pour permettre aux habitants de trouver sans difficulté les conteneurs enterrés, les bornes d’apports volontaires pour les biodéchets, le verre ou le textile. L’outil aide aussi à connaître son secteur de dépendance quant aux jours et fréquences de ramassage, pour sortir ses poubelles au bon moment. La recherche se fait par adresse ou directement par secteur. Cette plateforme en ligne responsive présente de façon structurée toutes les informations pratiques concernant la gestion des déchets. Le volet « conteneurs enterrés » propose des informations sur le nombre de contenants par typologie d’ordure. Les déchetteries sont aussi recensées avec des précisions redirigeant vers le site de la CA.

      + d'infos :
      agglo-valdefensch.fr
    • sur De « l’Excellisation » de l’évaluation

      Publié: 21 March 2025, 7:50am CET par Hubert Guillaud

      L’évaluation des formations universitaires par le Haut Conseil de l’Évaluation de la Recherche et de l’Enseignement Supérieur (HCÉRES) reposent très concrètement sur des outils d’auto-évaluation formels qui se résument à des fichiers Excel qui emboitent des indicateurs très parcellaires, explique Yves Citton pour AOC. une forme d’évaluation « sans visite de salle de classe, sans discussion personnalisée avec les responsables de formation, les personnels administratifs ou les étudiantes »

      « Cette excellence excellisée menace donc de fermer des formations sans avoir pris la peine d’y poser le pied ou le regard, sur la seule base d’extractions chiffrées dont la sanction satellitaire tombe comme un missile ». Une belle démonstration des limites de l’évaluation contemporaine, orientée et hors sol.

    • sur Les trois corps du lithium : le géologique, le technologique et le psychique

      Publié: 21 March 2025, 7:01am CET par Hubert Guillaud

      « Comme le sucre au XIXe siècle, le lithium va devenir au XXIe siècle un bien de consommation de masse, l’aliment de base du nouveau régime de consommation promis aux sociétés modernes et décarbonées ». (…) « Le lithium participerait à revitaliser le système de production et de consommation du capitalisme, en proposant une réponse au changement climatique qui n’oblige pas à remettre en cause les rapports de force asymétriques préexistants et la nature « zombie » de nos technologies héritées des énergies fossiles. » 

      « L’histoire du lithium illustre la manière dont les propriétés matérielles d’un élément façonnent à la fois notre équilibre mental et notre rapport à la société. À la croisée de la santé et de l’industrie, il participe à une quête de stabilité des humeurs et des flux énergétiques dans un monde toujours plus dépendant de la performance et de la constance ». 

      Passionnant dossier sur l’âge du lithium dans la revue Les temps qui restent.

    • sur Vers la fin du modèle des startups ?

      Publié: 20 March 2025, 7:00am CET par Hubert Guillaud

      Les startups de l’IA n’auraient plus besoin de liquidités, estime Erin Griffith dans le New York Times. Alors que les investisseurs se pressent pour prendre des parts, les startupeurs de l’IA font la fine bouche. Certaines sont déjà rentables, à l’image de Gamma, une entreprise qui fabrique des outils d’IA pour créer des présentations et des sites web. Fort de seulement 28 employés, Gamma génère déjà des dizaines de millions de revenus auprès de 50 millions d’utilisateurs. Plutôt que d’embaucher, Gamma utilise des outils d’intelligence artificielle pour augmenter la productivité de ses employés dans tous les domaines, du service client et du marketing au codage et à la recherche client.

      Alors qu’avant la réussite des petites équipes consistait à lever des fonds pour croître, désormais, elles limitent leur taille et optimisent leur rentabilité. Anysphere, une start-up qui a créé le logiciel de codage Cursor, comme ElevenLabs, une société d’IA spécialiste des produits vocaux, ont atteint 100 millions de dollars de revenus récurrents annuels en moins de deux ans avec seulement 20 employés. Sam Altman, le directeur général d’OpenAI, a prédit qu’il pourrait y avoir un jour une entreprise unipersonnelle valant 1 milliard de dollars… C’est pour l’instant encore bien présomptueux*, mais on comprend l’idée.

      Cette cure de productivité des personnels concerne également les entreprises d’IA qui développent des modèles. OpenAI emploie plus de 4000 personnes, a levé plus de 20 milliards de dollars de financement et continue à chercher à lever des fonds, ce qui produit environ le même ratio : 5 millions de dollars de levés de fonds par employés (même si ici, on parle de levée de fonds et non pas de revenus récurrents). Les nouvelles start-ups de l’IA qui s’appuient sur ces modèles font penser à la vague d’entreprises qui ont émergé à la fin des années 2000, après qu’Amazon a commencé à proposer des services de cloud computing bon marché. Amazon Web Services a réduit le coût de création d’une entreprise, ce qui a permis de créer de nouvelles entreprises, pour moins chères.

      « Avant l’essor de l’IA, les start-ups dépensaient généralement 1 million de dollars pour atteindre un chiffre d’affaires de 1 million de dollars », explique Gaurav Jain, investisseur à Afore Capital. Aujourd’hui, atteindre un million de dollars de chiffre d’affaires coûte un cinquième de moins et pourrait éventuellement tomber à un dixième, selon une analyse de 200 startups menée par Afore. Tant et si bien que le revenu récurrent annuel par employé semble désormais s’imposer comme l’indicateur clef de ces « ultra » lean startups, explique le French Tech Journal. Pour parvenir à 100 millions de dollars de revenus dans les années 2000, il a fallu 900 employés à Linkedin et 600 à Shopify. Dans les années 2010, il fallait encore 250 employés à Slack pour parvenir au même revenu récurrent. Désormais, pour les entreprises de la « génération IA » il n’en faut plus que 100 ! L’objectif, c’est qu’un employé rapporte entre 5 et 1 million de dollars ! On espère que les salaires des salariés suivent la même courbe de croissance !

      Le tableau des startups selon leur nombre d’employés pour atteindre les 100 millions de dollars de revenus récurrents. Reste que l’explication par le développement de produits basés sur l’IA vise à nous faire croire que les entreprises qui ont pris plus de temps et d’employés pour atteindre les 100 millions de revenus n’auraient pas utilisé l’IA pour leur produit. hum !

      Mais si les startups peuvent devenir rentables sans dépenser beaucoup, cela pourrait devenir un problème pour les investisseurs en capital-risque. L’année dernière, les entreprises d’IA ont levé 97 milliards de dollars de financement, ce qui représente 46 % de tous les investissements en capital-risque aux États-Unis, selon PitchBook, le spécialiste de l’analyse du secteur. Pour l’instant, les investisseurs continuent de se battre pour entrer dans les entreprises les plus prometteuses. Scribe, une start-up de productivité basée sur l’IA, a dû faire face l’année dernière à un intérêt des investisseurs bien supérieur aux 25 millions de dollars qu’elle souhaitait lever. Certains investisseurs sont optimistes quant au fait que l’efficacité générée par l’IA incitera les entrepreneurs à créer davantage d’entreprises, ce qui ouvrira davantage d’opportunités d’investissement. Ils espèrent qu’une fois que les startups auront atteint une certaine taille, les entreprises adopteront le vieux modèle des grandes équipes et des gros capitaux. Mais ce n’est peut-être pas si sûr.

      Chez Gamma, les employés utilisent une dizaine d’outils d’IA pour les aider à être plus efficaces, notamment l’outil de service client d’Intercom pour gérer les problèmes, le générateur d’images de Midjourney pour le marketing, le chatbot Claude d’Anthropic pour l’analyse des données et le NotebookLM de Google pour analyser la recherche de clients. Les ingénieurs utilisent également le curseur d’Anysphere pour écrire du code plus efficacement. Le produit de Gamma, qui s’appuie sur des outils d’OpenAI et d’autres, n’est pas aussi coûteux à fabriquer que d’autres produits d’IA. D’autres startups efficaces adoptent une stratégie similaire. Thoughtly, un fournisseur d’agents IA téléphoniques, a réalisé un bénéfice en 11 mois, grâce à son utilisation de l’IA, a déclaré son cofondateur Torrey Leonard, notamment l’outil d’IA ajouté au système de Stripe pour analyser les ventes. Pour son PDG, sans ces outils, il aurait eu besoin d’au moins 25 personnes de plus et n’aurait pas été rentable aussi rapidement. Pour les jeunes pousses, ne plus avoir peur de manquer de liquidités est « un énorme soulagement ». Chez Gamma, le patron prévoit néanmoins d’embaucher pour passer à 60 personnes. Mais plutôt que de recruter des spécialistes, il cherche des généralistes capables d’effectuer une large gamme de tâches. Le patron trouve même du temps pour répondre aux commentaires des principaux utilisateurs du service.

      Dans un autre article, Erin Griffith explique que nombre d’entreprises retardent leur entrée en bourse. Beaucoup attendaient l’élection de Trump pour se lancer, mais les annonces de tarifs douaniers de l’administration et les changements réglementaires rapides ont créé de l’incertitude et de la volatilité. Et l’arrivée de DeepSeek a également remis en question l’engouement pour les technologies d’IA américaines coûteuses. Enfin, l’inflation du montant des investissements privés retarde également les échéances de mises sur le marché. En fait, les startups peuvent désormais lever des fonds plus importants et les actionnaires peuvent également vendre leurs actions avant mise sur le marché public, ce qui a contribué à réduire le besoin d’entrer en bourse.

      Dans un autre article encore, la journaliste se demande ce qu’est devenu le capital risque. Pour cela, elle convoque les deux modèles les plus antinomiques qui soient, à savoir Benchmark Capital et Andreessen Horowitz. « Andreessen Horowitz s’est développé dans toutes les directions. Elle a créé des fonds axés sur les crypto-monnaies, la Défense et d’autres technologies, gérant un total de 44 milliards de dollars. Elle a embauché 80 partenaires d’investissement et ouvert cinq bureaux. Elle publie huit newsletters et sept podcasts, et compte plus de 800 sociétés en portefeuille ».

      « Benchmark, en revanche, n’a pratiquement pas bougé. Elle compte toujours cinq partenaires qui font des investissements. Cette année, elle a levé un nouveau fonds de 425 millions de dollars, soit à peu près la même taille que ses fonds depuis 2004. Son site Web se résume à une simple page d’accueil ». La plupart des entreprises d’investissement ont suivi le modèle d’Andreessen Horowitz se développant tout azimut. Le capital risque est devenu un mastodonte de 1200 milliards de dollars en 2024, alors qu’il ne représentait que 232 milliards en 2009. Les partisans de la théorie du toujours plus d’investissement affirment qu’il faut encore plus d’argent pour résoudre les problèmes les plus épineux de la société en matière d’innovation. « Les petits fonds, se moquent-ils, ne peuvent soutenir que les petites idées ». Mais pour d’autres, les fonds de capital-risque sont devenus trop gros, avec trop peu de bonnes startups, ce qui nuit aux rendements. Dans l’approche à là Andreessen Horowitz, l’enjeu est d’investir beaucoup mais également de facturer fort, ce qui n’est pas le cas des plus petits acteurs. « Les fonds plus petits ont généralement obtenu des rendements plus élevés, mais ils ont également eu des taux de pertes plus élevés. Les fonds plus importants ont tendance à avoir des rendements médians mais moins de pertes, ce qui signifie qu’ils sont des paris plus sûrs avec moins de potentiel de hausse », explique une analyste.

      Mais on n’investit pas dans le capital-risque pour obtenir des rendements médians. Or, le développement de fonds de plusieurs milliards de dollars pourrait modifier le profil de rendement du capital-risque, qui n’est pas si bon, malgré ses promesses. La crise économique post-pandémie a modifié les cartes. « En 2022 et 2023, les sociétés de capital-risque ont investi plus d’argent qu’elles n’en ont rendu à leurs investisseurs, inversant une tendance qui durait depuis dix ans ». Comme l’expliquait le sociologue de la finance, Fabien Foureault, dans le 4e numéro de la revue Teque, parue l’année dernière, le capital-risque est intrinsèquement dysfonctionnel. Il favorise les emballements et effondrements, peine à inscrire une utilité sociale, et surtout, ses performances financières restent extrêmement médiocres selon les études longitudinales. “L’économie numérique, financée par le capital-risque, a été conçue par les élites comme une réponse au manque de dynamisme du capitalisme tardif. Or, on constate que cette activité se développe en même temps que les tendances à la stagnation et qu’elle n’arrive pas à les contrer.” La contribution du capital-risque à la croissance semble moins forte que le crédit bancaire et le crédit public ! “Le rendement de la financiarisation et de l’innovation est de plus en plus faible : toujours plus d’argent est injecté dans le système financier pour générer une croissance en déclin sur le long-terme”

      Hubert Guillaud

      * Comme toujours, les grands patrons de la tech lancent des chiffres en l’air qui permettent surtout de voir combien ils sont déconnectés des réalités. Passer de 100 millions de revenus à 20 personnes à 1 milliard tout seul, nécessite de sauter des paliers et de croire aux capacités exponentielles des technologies, qui, malgré les annonces, sont loin d’être démontrées. Bien souvent, les chiffres jetés en l’air montrent surtout qu’ils racontent n’importe quoi, à l’exemple de Musk qui a longtemps raconté qu’il enverrait un million de personnes sur Mars en 20 ans (ça ne tient pas).

      MAJ su 30/03/2025 : Politico livre une très intéressante interview de Catherine Bracy, la fondatrice de TechEquity (une association qui oeuvre à améliorer l’impact du secteur technologique sur le logement et les travailleurs), qui vient de publier World Eaters : How Venture Capital Is Cannibalizing the Economy (Penguin, 2025). Pour Bracy, le capital risque – moteur financier de l’industrie technologique – a un effet de distorsion non seulement sur les entreprises et leurs valeurs, mais aussi sur la société américaine dans son ensemble. « La technologie en elle-même est sans valeur, et c’est la structure économique qui lui confère son potentiel de nuisance ou de création d’opportunités qui la rend vulnérable ». Les investisseurs de la tech encouragent les entreprises à atteindre la plus grande taille possible, car c’est par des effets d’échelle qu’elle produit le rendement financier attendu, analyse-t-elle. Cependant, derrière cette croissance sous stéroïdes, « l’objectif est la rapidité, pas l’efficacité ». Et les conséquences de ces choix ont un coût que nous supportons tous, car cela conduit les entreprises à contourner les réglementations, à exploiter les travailleurs et à proposer des produits peut performants ou à risque pour les utilisateurs. L’objectif de rendements les plus élevés possibles nous éloignent des bonnes solutions. Pour elle, nous devrions imposer plus de transparence aux startups, comme nous le demandons aux entreprises cotées en bourse et renforcer l’application des régulations. Pour Bloomberg, explique-t-elle encore, la recherche d’une croissance sous stéroïde ne permet pas de s’attaquer aux problèmes de la société, mais les aggrave. Le problème n’est pas tant ce que le capital-risque finance que ce qu’il ne finance pas, souligne Bracy… et qui conduit les entreprises qui s’attaquent aux problèmes, à ne pas trouver les investissements dont elles auraient besoin. Si le capital-risque désormais s’intéresse à tout, il n’investit que là où il pense trouver des rendements. Les investissements privés sont en train de devenir des marchés purement financiers. 

      Une critique de son livre pour Bloomberg, explique que Bracy dénonce d’abord la monoculture qu’est devenue le capital-risque. Pour elle, cette culture de la performance financière produit plusieurs victimes. Les premières sont les entreprises incubées dont les stratégies sont modelées sur ce modèle et qui échouent en masse. « Les capitaux-risqueurs créent en grande partie des risques pour les entreprises de leurs portefeuilles » en les encourageant à croître trop vite ou à s’attaquer à un marché pour lequel elles ne sont pas qualifiées. Les secondes victimes sont les entrepreneurs qui ne sont pas adoubées par le capital-risque, et notamment tous les entrepreneurs qui ne correspondent pas au profil sociologique des entrepreneurs à succès. Les troisièmes victimes sont les capitaux-risqueurs eux-mêmes, dans les portefeuilles desquels s’accumulent les « sorties râtées » et les « licornes zombies ». Les quatrièmes victimes, c’est chacun d’entre nous, pris dans les rendements des startups modèles et dont les besoins d’investissements pour le reste de l’économie sont en berne.

      Bracy défend un capital risque plus indépendant. Pas sûr que cela suffise effectivement. Sans attaquer les ratios de rendements qu’exigent désormais l’investissement, on ne résoudra pas la redirection de l’investissement vers des entreprises plus stables, plus pérennes, plus utiles… et moins profitables.

    • sur Red-teaming : vers des tests de robustesse de l’IA dans l’intérêt du public

      Publié: 19 March 2025, 7:00am CET par Hubert Guillaud

      Le Red-teaming consiste à réunir des équipes multidisciplinaires pour procéder à des attaques fictives pour éprouver la robustesse de la sécurité d’un système informatique. Dans le domaine de l’IA, cela consiste à identifier les vulnérabilités des réponses d’un modèle de langage pour les corriger. Mais les questions méthodologiques auxquelles sont confrontées ces équipes sont nombreuses : comment et quand procéder ? Qui doit participer ? Comment intégrer les résultats… Les questions d’enjeux ne sont pas moindres : quels intérêts sont protégés ? Qu’est-ce qu’un comportement problématique du modèle et qui est habilité à le définir ? Le public est-il un objet à sécuriser ou une ressource utilisée ?…   

      Un rapport publié par Data & Society et AI Risk and Vulnerability Alliance (ARVA), par les chercheurs Ranjit Singh, Borhane Blili-Hamelin, Carol Anderson, Emnet Tafesse, Briana Vecchione, Beth Duckles et Jacob Metcalf, tente d’esquisser comment produire un red-teaming dans l’intérêt public.

      À ce jour, la plupart des expériences de red-teaming en IA générale comportent quatre étapes : 

      • Organiser un groupe de penseurs critiques.
      • Leur donner accès au système. 
      • Les inviter à identifier ou à susciter des comportements indésirables. 
      • Analyser les données probantes pour atténuer les comportements indésirables et tester les futurs modèles. 

      Actuellement, la méthode dominante pour réaliser la troisème étape est l’incitation manuelle et automatisée, qui consiste à tester les comportements erronés des modèles par l’interaction. Pour les chercheurs, qui ont recueilli les avis de participants à des équipes de red-teaming, si cette approche est précieuse, le red-teaming doit impliquer une réflexion critique sur les conditions organisationnelles dans lesquelles un modèle est construit et les conditions sociétales dans lesquelles il est déployé. Le red-teaming dans d’autres domaines, comme la sécurité informatique, révèle souvent des lacunes organisationnelles pouvant entraîner des défaillances du système. Les évaluations sociotechniques de l’IA générale gagneraient à s’inspirer davantage des pratiques existantes en matière de red-teaming et d’ingénierie de la sécurité. 

      Pour les chercheurs, les événements de Red-Teaming soulignent trop souvent encore l’asymétrie de pouvoir et limitent l’engagement du public à la seule évaluation des systèmes déjà construits, plutôt qu’aux systèmes en développement. Ils favorisent trop l’acceptation du public, le conduisant à intégrer les défaillances des systèmes, plutôt qu’à les résoudre ou les refuser. Enfin, ils restreignent la notion de sécurité et ne prennent pas suffisamment en cause les préjudices qu’ils peuvent causer ou les modalités de recours et de réparation proposé au grand public. 

      Le rapport dresse une riche histoire des pratiques d’amélioration de la sécurité informatique et de ses écueils, et de la faible participation du public, même si celle-ci a plutôt eu tendance à s’élargir ces dernières années. Reste que cet élargissement du public est encore bien timide. Il s’impose surtout parce qu’il permet de répondre au fait que l’IA générative couvre un large champ d’usages qui font que chaque prompt peut être une attaque des modèles. “L’objectif du red-teaming est de compenser le manque de bonnes évaluations actuelles pour les modèles génératifs”, explique une spécialiste, d’autant qu’il permet de créer “une réflexivité organisationnelle”, notamment du fait que les interactions avec les modèles sont très ouvertes et nécessitent d’élargir les perspectives de sécurité. Mais les pratiques montrent également la difficulté à saisir ce qui relève des défaillances des modèles, d’autant quand ce sont les utilisateurs eux-mêmes qui sont considérés comme des adversaires. Pourtant, dans ces pratiques de tests de robustesse adverses, les risques n’ont pas tous le même poids : il est plus simple de regarder si le modèle génère des informations privées ou du code vulnérable, plutôt que d’observer s’il produit des réponses équitables. En fait, l’une des grandes vertus de ces pratiques, c’est de permettre un dialogue entre développeurs et publics experts, afin d’élargir les enjeux de sécurité des uns à ceux des autres.

      Le rapport souligne cependant que l’analyse automatisée des vulnérabilités se renforce (voir “Comment les IA sont-elles corrigées ?”), notamment via l’utilisation accrue de travailleurs du clic plutôt que des équipes dédiées et via des systèmes spécialisés dédiés et standardisés, prêts à l’emploi, afin de réduire les coûts de la correction des systèmes et ce même si ces attaques-ci pourraient ne pas être aussi “novatrices et créatives que celles développées par des humains”. Le risque c’est que le red-teaming ne devienne performatif, une forme de “théâtre de la sécurité”, d’autant que le régulateur impose de plus en plus souvent d’y avoir recours, comme c’est le cas de l’AI Act européen. Or, comme le pointe un red-teamer, “ce n’est pas parce qu’on peut diagnostiquer quelque chose qu’on sait comment le corriger”. Qui détermine si le logiciel respecte les règles convenues ? Qui est responsable en cas de non-respect des règles ? L’intégration des résultats du red-teaming est parfois difficile, d’autant que les publications de leurs résultats sont rares. D’où l’importance des plateformes qui facilitent le partage et l’action collective sur les problèmes d’évaluation des systèmes d’IA, comme Dynabench

      “Nous devons repenser la relation entre l’IA et la société, passant d’une relation conflictuelle à une relation co-constitutive”, plaident les chercheurs. C’est la seule à même d’aider à dépasser la confusion actuelle sur la fonction du red-teaming, qu’elle relève des conflits de méthodes, de pouvoir, d’autorité ou d’expertise. Les meilleures pratiques ne le sont pas nécessairement. Le Titanic a été construit selon les meilleures pratiques de l’époque. Par définition, le red-teaming consiste à examiner les réponses des modèles de manière critique, mais uniquement selon les meilleures pratiques du moment. Le red-teaming a tendance à porter plus d’attention aux méthodes holistiques de red-teaming (comme les simulations) qu’à ceux qui se concentrent sur l’évaluation des dommages causés par l’IA aux utilisateurs normaux. Trop souvent encore, le red-teaming consiste à améliorer un produit plus qu’à améliorer la sécurité du client, alors que le red-teaming élargi aux publics consiste à mieux comprendre ce qu’ils considèrent comme problématique ou nuisible tout en leur permettant d’être plus conscients des limites et défaillances. Pour les chercheurs, nous avons plus que jamais besoin “d’espaces où le public peut débattre de ses expériences avec les systèmes d’IA générale”, d’espaces participatifs, disaient déjà une précédente recherche de plusieurs de ces mêmes chercheurs. Le risque, c’est que cet élargissement participatif que permet certains aspects du red-teaming ne se referme plus qu’il ne s’étende.

    • sur Inférences : comment les outils nous voient-ils ?

      Publié: 18 March 2025, 7:00am CET par Hubert Guillaud

      Comment les systèmes interprètent-ils les images ? Ente, une entreprise qui propose de chiffrer vos images pour les échanger de manière sécurisée sans que personne d’autres que ceux que vous autorisez ne puisse les voir, a utilisé l’API Google Vision pour montrer comment les entreprises infèrent des informations des images. C’est-à-dire comment ils les voient, comment les systèmes automatisés les décrivent. Ils ont mis à disposition un site pour nous expliquer comment « ILS » voient nos photos, qui permet à chacun d’uploader une image et voir comment Google Vision l’interprète. 

      Sommes-nous ce que les traitements disent de nous ?

      Le procédé rappelle le projet ImageNet Roulette de Kate Crawford et Trevor Paglen, qui renvoyait aux gens les étiquettes stéréotypées dont les premiers systèmes d’intelligence artificielle affublaient les images. Ici, ce ne sont pas seulement des étiquettes dont nous sommes affublés, mais d’innombrables données inférées. Pour chaque image, le système produit des informations sur le genre, l’origine ethnique, la localisation, la religion, le niveau de revenu, les émotions, l’affiliation politique, décrit les habits et les objets, pour en déduire des passe-temps… mais également des éléments de psychologie qui peuvent être utilisés par le marketing, ce qu’on appelle les insights, c’est-à-dire des éléments permettant de caractériser les attentes des consommateurs. Par exemple, sur une des images en démonstration sur le site représentant une famille, le système déduit que les gens priorisent l’esthétique, sont facilement influençables et valorisent la famille. Enfin, l’analyse associe des mots clefs publicitaires comme albums photos personnalisé, produits pour la peau, offre de voyage de luxe, système de sécurité domestique, etc. Ainsi que des marques, qui vont permettre à ces inférences d’être directement opérationnelles (et on peut se demander d’ailleurs, pourquoi certaines plutôt que d’autres, avec le risque que les marques associéées démultiplient les biais, selon leur célébrité ou leur caractère international, comme nous en discutions en évoquant l’optimisation de marques pour les modèles génératifs).

      Autant d’inférences probables, possibles ou potentielles capables de produire un profil de données pour chaque image pour leur exploitation marketing.

      Comme l’explique le philosophe Rob Horning, non seulement nos images servent à former des modèles de reconnaissance d’image qui intensifient la surveillance, mais chacune d’entre elles produit également des données marketing disponibles pour tous ceux qui souhaitent les acheter, des publicitaires aux agences de renseignement. Le site permet de voir comment des significations sont déduites de nos images. Nos photos, nos souvenirs, sont transformés en opportunités publicitaires, identitaires et consuméristes, façonnées par des logiques purement commerciales (comme Christo Buschek et Jer Thorp nous l’avaient montré de l’analyse des données de Laion 5B). L’inférence produit des opportunités, en ouvre certaines et en bloque d’autres, sur lesquelles nous n’avons pas la main. En nous montrant comment les systèmes interprètent nos images, nous avons un aperçu de ce que, pour les machines, les signifiants signifient.

      Mais tout n’est pas parfaitement décodable et traduisible, transparent. Les inférences produites sont orientées : elles ne produisent pas un monde transparent, mais un monde translucide. Le site They see your photos nous montre que les images sont interprétées dans une perspective commerciale et autoritaire, et que les représentations qu’elles produisent supplantent la réalité qu’elles sont censées interpréter. Il nous permet de voir les biais d’interprétation et de nous situer dans ceux-ci ou de nous réidentifier sous leur répétition.

      Nous ne sommes pas vraiment la description produite de chacune de ces images. Et pourtant, nous sommes exactement la personne au coeur de ces descriptions. Nous sommes ce que ces descriptions répètent, et en même temps, ce qui est répété ne nous correspond pas toujours ou pas du tout.

      Exemples d’intégration d’images personnelles dans TheySeeYourPhotos qui montrent les données qui sont inférées de deux images. Et qui posent la question qui suis-je ? Gagne-je 40 ou 80 000 euros par mois ? Suis-je athée ou chrétien ? Est-ce que je lis des livres d’histoire ou des livres sur l’environnement ? Suis-je écolo ou centriste ? Est-ce que j’aime les chaussures Veja ou les produits L’Oréal ? Un monde indifférent à la vérité

      L’autre démonstration que permet le site, c’est de nous montrer l’évolution des inférences publicitaires automatisées. Ce que montre cet exemple, c’est que l’enjeu de régulation n’est pas de produire de meilleures inférences, mais bien de les contenir, de les réduire – de les faire disparaître voire de les rendre impossibles. Nous sommes désormais coincés dans des systèmes automatisés capables de produire de nous, sur nous, n’importe quoi, sans notre consentement, avec un niveau de détail et de granularité problématique.

      Le problème n’est pas l’automatisation publicitaire que ce délire de profilage alimente, mais bien le délire de profilage automatisé qui a été mis en place. Le problème n’est pas la qualité des inférences produites, le fait qu’elles soient vraies ou fausses, mais bien le fait que des inférences soient produites. La prévalence des calculs imposent avec eux leur monde, disions-nous. Ces systèmes sont indifférents à la vérité, expliquait le philosophe Philippe Huneman dans Les sociétés du profilage (Payot, 2023). Ils ne produisent que leur propre renforcement. Les machines produisent leurs propres mèmes publicitaires. D’un portrait, on propose de me vendre du cognac ou des timbres de collection. Mais ce qu’on voit ici n’est pas seulement leurs défaillances que leurs hallucinations, c’est-à-dire leur capacité à produire n’importe quels effets. Nous sommes coincés dans un régime de facticité, comme le dit la philosophe Antoinette Rouvroy, qui finit par produire une vérité de ce qui est faux.

      Où est le bouton à cocher pour refuser ce monde ?

      Pourtant, l’enjeu n’est pas là. En regardant très concrètement les délires que ces systèmes produisent on se demande surtout comment arrêter ces machines qui ne mènent nulle part ! L’exemple permet de comprendre que l’enjeu n’est pas d’améliorer la transparence ou l’explicabilité des systèmes, ou de faire que ces systèmes soient plus fiables, mais bien de les refuser. Quand on comprend la manière dont une image peut-être interprétée, on comprend que le problème n’est pas ce qui est dit, mais le fait même qu’une interprétation puisse être faite. Peut-on encore espérer un monde où nos photos comme nos mots ne sont tout simplement pas interprétés par des machines ? Et ce alors que la grande interconnexion de celles-ci facilite ce type de production. Ce que nous dit « They see your photos », c’est que pour éviter ce délire, nous n’avons pas d’autres choix que d’augmenter considérablement la confidentialité et le chiffrement de nos échanges. C’est exactement ce que dit Vishnu Mohandas, le développeur de Ente.

      Hubert Guillaud

      MAJ du 25/03/2025 : Il reste une dernière inconnue dans les catégorisations problématiques que produisent ces outils : c’est que nous n’observons que leurs productions individuelles sur chacune des images que nous leurs soumettons… Mais nous ne voyons pas les catégorisations collectives problématiques qu’ils peuvent produire. Par exemple, combien de profils de femmes sont-ils catalogués comme à « faible estime de soi » ? Combien d’hommes catégorisés « impulsifs » ? Combien d’images de personnes passées un certain âge sont-elles caractérisées avec des mots clés, comme « alcool » ? Y’a-t-il des récurrences de termes selon le genre, l’âge putatif, l’origine ou le niveau de revenu estimé ?… Pour le dire autrement, si les biais individuels semblent innombrables, qu’en est-il des biais démographiques, de genre, de classe… que ces outils produisent ? L’exemple permet de comprendre très bien que le problème des biais n’est pas qu’un problème de données et d’entraînement, mais bien de contrôle de ce qui est produit. Ce qui est tout de suite bien plus problématique encore…

    • sur Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle

      Publié: 17 March 2025, 10:30am CET par Lydie Goeldner-Gianella

      Le paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...

    • sur Postal horse relays and roads in France, from the 17th to the 19th centuries

      Publié: 17 March 2025, 10:30am CET par Nicolas Verdier

      La base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...

    • sur Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?

      Publié: 17 March 2025, 10:30am CET par Hamdi Euchi

      La défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...

    • sur Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.

      Publié: 17 March 2025, 10:30am CET par Justine Collin

      Avec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.

      À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...

    • sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais

      Publié: 17 March 2025, 10:30am CET par Carole Marin

      La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...

    • sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation

      Publié: 17 March 2025, 9:30am CET par Pierre Libaud

      Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.

    • sur Geodatadays 2023

      Publié: 17 March 2025, 9:30am CET par Christine Plumejeaud-Perreau

      Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...

    • sur MapDraw. Un outil libre d’annotation de cartes en ligne

      Publié: 17 March 2025, 9:30am CET par Justin Berli

      Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.

    • sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies

      Publié: 17 March 2025, 9:30am CET par Gabriel Marquès

      Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.

    • sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence

      Publié: 17 March 2025, 9:30am CET par Maxime Masson

      TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]

    • sur Atlas du développement durable. Un monde en transition, Autrement, 2022

      Publié: 17 March 2025, 9:30am CET par Marie-Laure Trémélo

      L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.

      Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.

      Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...

    • sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial

      Publié: 17 March 2025, 9:30am CET par Jean-Charles Édouard

      Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.

      À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.

      En ce qui concerne l’analyse du ...

    • sur Mappa naturae, 2023

      Publié: 17 March 2025, 9:30am CET par Sylvain Guyot

      Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...

    • sur Représenter la centralité marchande : la coloration marchande et ses usages

      Publié: 17 March 2025, 9:30am CET par Nicolas Lebrun

      La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.

    • sur La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain

      Publié: 17 March 2025, 9:30am CET par Jean Rieucau

      La géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.

    • sur Data for Black Lives

      Publié: 17 March 2025, 7:00am CET par Hubert Guillaud

      Anuli Akanegbu, chercheuse chez Data & Society, a fait un rapide compte rendu de la 3e édition de la conférence Data for Black Lives qui s’est tenue fin novembre à Miami.

      L’IA et d’autres technologies automatisées exacerbent les inégalités existantes dans tous les domaines où elles se déploient : l’emploi, l’éducation, la santé, le logement, etc. Comme l’a expliqué Katya Abazajian, fondatrice de la Local Data Futures Initiative, lors d’un panel sur le logement, « toutes les données sont biaisées. Il n’y a pas de données sans biais, il n’y a que des données sans contexte ». Rasheedah Phillips, directrice du logement pour PolicyLink, a ajouté : « les préjugés ne se limitent pas aux mauvais acteurs, ils sont intégrés dans les systèmes que nous utilisons ». Soulignant les injustices historiques et systémiques qui affectent la représentation des données, la criminologue et professeure de science des données Renee Cummings a rappelé le risque d’utiliser les nouvelles technologies pour moderniser les anciennes typologies raciales. « Les ensembles de données n’oublient pas », a-t-elle insisté.

      Tout au long de la conférence, les intervenants n’ont cessé de rappeler l’importance des espaces physiques pour l’engagement communautaire. Aux Etats-Unis, institutions artistiques, églises, associations… sont partout des pôles d’organisation, d’éducation et d’accès à la technologie qui permettent de se mobiliser. Pour Fallon Wilson, cofondatrice de l’Institut de recherche Black Tech Futures, cela plaide pour mettre nos anciennes institutions historiques au coeur de notre rapport à la technologie, plutôt que les entreprises technologiques. Ce sont ces lieux qui devraient permettre de construire la gouvernance des données dont nous avons besoin, afin de construire des espaces de données que les communautés puissent contrôler et partager a défendu Jasmine McNealy.

      Joan Mukogosi, qui a notamment travaillé pour Data & Society sur la dégradation des conditions de maternité des femmes noires et de leurs enfants, expliquait que nous avons besoin de données sur la vie des afro-américains et pas seulement sur la façon dont ils meurent. Pour l’anthropologue de la médecine Chesley Carter, ce changement de perspective pourrait conduire à une recherche plus constructive, porteuse de solutions. Nous devrions construire des enquêtes sur les atouts plutôt que sur les déficits, c’est-à-dire nous interroger sur ce qui améliore les résultats plutôt que ce qui les détériore. Cela permettrait certainement de mieux identifier les problèmes systémiques plutôt que les défaillances individuelles. Aymar Jean Christian, fondateur du Media and Data Equity Lab, qui prépare un livre sur les médias réparateurs à même de guérir notre culture pour les presses du MIT, a présenté le concept d’intelligence ancestrale, alternative à l’IA : un moyen de guérir des impacts des systèmes capitalistes en centrant les discussions sur la technologie et les données sur l’expérience des personnes de couleurs. C’est par le partage d’expériences personnelles que nous documenteront les impacts réels des systèmes sur la vie des gens.

      La chercheuse Ruha Benjamin (voir notre lecture de son précédent livreRace after technology) dont le nouveau livre est un manifeste de défense de l’imagination, a rappelé que l’avenir n’est que le reflet de nos choix actuels. « L’imagination est un muscle que nous devrions utiliser comme une ressource pour semer ce que nous voulons plutôt que de simplement déraciner ce que nous ne voulons pas ». Dans une interview pour Tech Policy, Benjamin rappelait que les imaginaires évoluaient dans un environnement très compétitif, qui rivalisent les uns avec les autres. Pour elle, face aux imaginaires dominants et marchands qui s’imposent à nous, le risque est que concevoir une nouvelle société devienne une impossibilité, tant ils nous colonisent par l’adhésion qu’ils suscitent tout en repoussant toujours plus violemment les imaginaires alternatifs. Pour elle, nous opposons souvent l’innovation et les préoccupations sociales, comme si les technologies innovantes étaient par nature autoritaires. Mais c’est notre conception même de l’innovation que nous devrions interroger. « Nous ne devrions pas appeler innovation ce qui exacerbe les problèmes sociaux ». En nous invitant à imaginer un monde sans prison, des écoles qui encouragent chacun ou une société où chacun a de la nourriture, un abri, de l’amour… Elle nous invite à réinventer la réalité que nous voulons construire.

    • sur Ça bouge en suisse

      Publié: 14 March 2025, 10:03am CET par la rédaction SIGMAG & SIGTV.FR
      Ça bouge en Suisse Dans le but de mieux planifier les constructions en surface et souterraines, l’Office fédéral de topographie swisstopo ajoute de nouvelles données géologiques. Il s’agit d’une mise à jour de la couche Sismique réflexion. Les régions de Zurich, Bâle-Campagne, Argovie, Genève et Ob-/Nidwald disposent désormais de profils sismiques téléchargeables. L’outil localise les données acquises en Suisse dans le cadre de l’exploration du sous-sol géologique. Majoritairement en mesures 2D, le long des traces de profils, des mesures 3D plus étendues sont également disponibles dans la zone délimitée par les périmètres. Une mise à jour régulière est opérée. Triées par données publiques et non publiques, ces informations métier visent à aider les professionnels à exploiter le sous-sol de manière plus sûre. Elles se positionnent parmi une multitude d’autres géoressources diverses.

      + d'infos :
      map.geo.admin.ch
    • sur LLMO : de l’optimisation de marque dans l’IA générative

      Publié: 14 March 2025, 7:00am CET par Hubert Guillaud

      « Votre client le plus important, désormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. C’est le constat que dresse également Jack Smyth, responsable des solutions IA de JellyFish. Smyth travaille avec des marques pour les aider à comprendre comment leurs produits ou leurs entreprises sont perçues par les différents modèles d’IA afin de les aider à améliorer leur image. L’enjeu est d’établir une forme d’optimisation d’image, comme les entreprises le font déjà avec les moteurs de recherche, afin de s’assurer que sa marque est perçue positivement par un grand modèle de langage.

      JellyFish propose d’ailleurs un outil, Share of Model, qui permet d’évaluer la façon dont différents modèles d’IA perçoivent les marques. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». L’enjeu, consiste à construire des campagnes marketing dédiée pour changer la perception de marque des modèles. « On ne sait pas encore si les changements fonctionnent », explique un client, « mais la trajectoire est positive ». A croire que l’important c’est d’y croire ! Sans compter que les changements dans la façon dont on peut demander une recommandation de produits dans un prompt produit des recommandations différentes, ce qui pousse les marques à proposer des invites pertinentes sur les forums, pour orienter les questions et donc les réponses à leur profit. En fait, le même jeu de chat et de souris que l’on connaît dans le SEO pourrait se répéter dans l’optimisation des LLM pour le marketing, au plus grand profit de ceux chargés d’accompagner les entreprises en manque d’argent à dépenser.

      Le problème surtout, c’est que les biais marketing des LLM sont nombreux. Une étude montre que les marques internationales sont souvent perçues comme étant de meilleures qualités que les marques locales. Si vous demandez au LLM de recommander des cadeaux aux personnes vivant dans des pays à revenu élevé, il suggérera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays à faible revenu, il recommandera des marques non luxueuses. 

      L’IA s’annonce comme un nouveau public des marques, à dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs résultats financiers. Bref, le marketing a trouvé un nouveau produit à vendre ! Les entreprises vont adorer !

    • sur L’essor des PropTechs, les technologies pour les propriétaires immobiliers

      Publié: 13 March 2025, 7:00am CET par Hubert Guillaud

      Les technologies des propriétaires sont en plein essor aux Etats-Unis, rapporte Tech Policy Press. Mais elles ne se limitent pas aux logiciels de tarification algorithmique de gestion immobilière, comme RealPage, dont nous vous avions déjà parlé (et que le ministère de la Justice continue de poursuivre au prétexte qu’il permettrait une entente anticoncurrentielle). Alors que la crise de l’accès au logement devient de plus en plus difficile pour nombre d’Américains, le risque est que la transformation numérique de l’immobilier devienne un piège numérique pour tous ceux à la recherche d’un logement. Le prix des loyers y devient de plus en plus inabordable. YieldStar de RealPage, influence désormais le prix de 70 % des appartements disponibles aux États-Unis et serait responsable de l’augmentation de 14% du prix de l’immobilier d’une année sur l’autre. Le développement de ces systèmes de fixation des prix coordonnés sapent l’idée que la concurrence sur le marché du logement pourrait seule protéger les locataires.

      Des technologies pour harmoniser les tarifs, discriminer les locataires et accélérer les expulsions

      Mais la numérisation du marché ne s’applique pas seulement au tarif des locations, elle se développe aussi pour la sélection des locataires. Alors qu’aux Etats-Unis, les propriétaires étaient souvent peu exigeants sur les antécédents des locataires, désormais, les conditions pour passer les filtres des systèmes de sélection deviennent bien plus difficiles, reposant sur une inflation de justificatifs et des techniques d’évaluation des candidats à la location particulièrement opaques, à l’image de SingleKey, l’un des leader du secteur. 9 propriétaires sur 10 passent désormais par ce type de logiciels, en contradiction avec la loi américaine sur le logement équitable, notamment du fait qu’ils produisent un taux de refus de logement plus élevé sur certaines catégories de la population. Ces systèmes reproduisent et renforcent les discriminations, et surtout, rendent la relation propriétaire-locataire plus invasive. Mais, rappelaient déjà The Markup et le New York Times en 2020, ils s’appuient sur des systèmes de vérification d’antécédents automatisés et défectueux, qui par exemple agglomèrent des données d’homonymes et démultiplient les erreurs (et les homonymies ne sont pas distribuées de façon homogène : plus de 12 millions de Latinos à travers les Etats-Unis partageraient seulement 26 noms de famille !). Les casiers judiciaires des uns y sont confondus avec ceux des autres, dans des systèmes qui font des évaluations massives pour produire des scores, dont nul n’a intérêt à vérifier la pertinence, c’est-à-dire le taux de faux-positifs (comme nous le pointions relativement aux problèmes bancaires). Soumis à aucune normes, ces systèmes produisent de la discrimination dans l’indifférence générale. L’accès aux registres judiciaires et aux registres de crédits a permis aux entreprises de « vérification d’antécédents » de se démultiplier, sans que les « vérifications » qu’elles produisent ne soient vraiment vérifiées. Contrairement aux agences de crédit bancaires, dans le domaine de la location, les agences immobilières qui les utilisent ne sont pas contraintes de partager ces rapports d’information avec les candidats rejetés. Les locataires ne savent donc pas les raisons pour lesquelles leurs candidature sont rejetées.

      Mais, rapporte encore Tech Policy Press, une troisième vague technologique est désormais à l’œuvre : les technologies d’expulsion, qui aident les propriétaires à rassembler les raisons d’expulser les locataires et à en gérer les aspects administratifs. C’est le cas par exemple de Teman GateGuard, un interphone « intelligent » qui permet de surveiller le comportement des locataires et enregistrer toute violation possible d’un bail, aussi anodine soit-elle, pour aider à documenter les infractions des locataires et remettre leurs biens sur le marché. SueYa est un service pour aider les propriétaires à résilier un bail de manière anticipée. Resident Interface propose quant à lui d’expulser les locataires rapidement et facilement… Des solutions qui n’enfreignent aucune loi, rappelle pertinemment Tech Policy Press, mais qui accélèrent les expulsions. Les propriétaires américains ont procédé à 1 115 000 expulsions en 2023, soit 100 000 de plus qu’en 2022 et 600 000 de plus qu’en 2021. Sans compter que ces expulsions peuvent être inscrites au casier judiciaire et rendre plus difficile la recherche d’un autre logement, et ce alors que les logements sociaux, les refuges et les services aux sans-abri sont notoirement sous-financés et insuffisants, alors même que de plus en plus d’Etat pénalisent les personnes SDF.

      Pour l’instant, les tentatives de régulation des PropTechs sont plus juridiques que techniques, notamment en renforçant le droit au logement équitable. Des villes ou Etats prennent des mesures pour limiter les vérifications des antécédents des locataires ou interdire le recours à des logiciels de fixation de prix. Des actions de groupes contre RealPage ou Yardi ou contre des plateformes de contrôle des locataires, comme SafeRent ou CoreLogic, ont également lieu. Mais, « les régulateurs et les agences ne sont pas conçus pour être les seuls à faire respecter les protections et les conditions du marché ; ils sont conçus pour créer les conditions dans lesquelles les gens peuvent faire valoir leurs propres droits ».  Les gouvernements locaux devraient soutenir publiquement la représentation juridique des locataires comme moyen d’atténuer les impacts de la crise du logement, et  créer une meilleure responsabilité pour la technologie pour rétablir l’équité dans la relation propriétaire-locataire. À l’échelle nationale, 83 % des propriétaires ont une représentation juridique, contre seulement 4 % des locataires. La ville de Cleveland par exemple a piloté une représentation publique pour les locataires, ce qui a permis à 81 % des personnes représentées d’éviter une expulsion ou un déménagement involontaire, à 88 % de celles qui cherchaient un délai supplémentaire pour déménager d’obtenir ce délai et à 94 % de celles qui cherchaient à atténuer les dommages d’y parvenir. En fait, assurer cette représentation permet d’assurer aux gens qu’ils puissent exercer leurs droits.

      Les PropTechs exacerbent la crise du logement. A défaut de substituts à des logements abordables, l’enjeu est que le droit puisse continuer à protéger ceux qui en ont le plus besoin. Mais sans documenter les discriminations que cette conjonction de systèmes produit, le droit aura surement bien des difficultés à menacer les technologies.

      MAJ du 16/03/2025 : Signalons que The American Prospect consacre son dernier numéro à la crise du logement américaine : l’inflation immobilière est la principale responsable de l’inflation aux Etats-Unis.

    • sur Retour de flammes

      Publié: 12 March 2025, 9:36am CET par la rédaction SIGMAG & SIGTV.FR
      Retour de flammes L’application du Living Atlas, ArcGIS Wildfire Aware, a permis de suivre les incendies dévastateurs de Los Angeles du mois de janvier dernier. Cet outil a aidé à visualiser la progression des flammes grâce à des données provenant de sources variées comme le NIFC, la NASA, ou la NOAA. Cette ressource s’est montrée indispensable pour assister les professionnels impliqués dans la gestion de crise. Les citoyens ont aussi pu observer les zones d’évacuation, les conditions météorologiques et l’impact sur les infrastructures. Elle est complétée par les données de vol de FlightAware, une animation sur 24 heures reprenant l’activité de lutte contre le feu au-dessus de l’incendie des Palissades. Ces 9 et 10 janvier, plus de 35 avions pilotés par de nombreux opérateurs étatiques, locaux et commerciaux ont parcouru plus de 15.000 miles de vol pour contenir les flammes.

      + d'infos :
      livingatlas.arcgis.com
    • sur IA au travail : un malaise persistant

      Publié: 12 March 2025, 7:01am CET par Hubert Guillaud

      Les travailleurs américains sont plutôt sceptiques face à l’aide que peut leur apporter l’IA au travail. 80% d’entre eux ne l’utilisent pas, rapporte un sondage du Pew Internet, et ceux qui le font ne sont pas impressionnés par ses résultats. Les travailleurs sont plus inquiets qu’optimistes. Si les travailleurs plus jeunes et ceux qui ont des revenus plus élevés expriment plus d’enthousiasme à l’égard de l’IA au travail et à des taux plus élevés que les autres, l’inquiétude se propage à tous les groupes démographiques, rapporte le Washington Post. En fait, les attitudes des travailleurs à l’égard de l’IA risquent de devenir plus polarisées encore à la fois parce que les entreprises n’expliquent pas en quoi l’IA va aider leurs employés ni ne lèvent le risque sur l’emploi et le remplacement. Le malaise social de l’IA se répand bien plus qu’il ne se résout.

      MAJ du 13/03/2025 : Dans sa newsletter, Brian Merchant pointe vers un autre sondage réalisé par le cabinet de consulting FGS pour Omidyar Network. Le sondage montre que si les travailleurs sont plutôt enthousiastes sur l’IA et la productivité qu’elle permet, ils savent que ces avantages ne leurs seront pas bénéfiques et qu’ils auront peu de contrôle sur la façon dont l’IA sera utilisée sur le lieu de travail. Bref, ils savent que l’IA sera un outil d’automatisation que la direction utilisera pour réduire les coûts de main-d’œuvre. Ils sont plus préoccupés par la perte d’emploi que par la menace que l’IA représente sur leur propre emploi. Par contre, ils sont très inquiets de la  menace que représente l’IA sur la vie privée et sur la capacité d’apprentissage des enfants. Enfin, la plupart des travailleurs souhaitent des réglementations et des mesures de protection, ainsi que des mesures pour empêcher que les systèmes d’IA soient utilisés contre leurs intérêts et, bien sûr, pour dégrader les conditions de travail.

    • sur Atténuation des risques, entre complexité et inefficacité

      Publié: 12 March 2025, 7:00am CET par Hubert Guillaud

      Tim Bernard pour TechPolicy a lu les évaluations de risques systémiques que les principales plateformes sociales ont rendu à la Commission européenne dans le cadre des obligations qui s’imposent à elles avec le Digital Service Act. Le détail permet d’entrevoir la complexité des mesures d’atténuation que les plateformes mettent en place. Il montre par exemple que pour identifier certains contenus problématiques d’autres signaux que l’analyse du contenu peuvent se révéler bien plus utile, comme le comportement, le temps de réaction, les commentaires… Certains risques passent eux totalement à la trappe, comme les attaques par d’autres utilisateurs, les risques liés à l’utilisation excessive ou l’amplification de contenus polarisants et pas seulement ceux pouvant tomber sous le coup de la loi. On voit bien que la commission va devoir mieux orienter les demandes d’information qu’elle réclame aux plateformes (mais ça, la journaliste Gaby Miller nous l’avait déjà dit).

    • sur Dans les algorithmes bancaires

      Publié: 11 March 2025, 7:00am CET par Hubert Guillaud

      « Faux positifs » est une série de 3 épisodes de podcasts produits par Algorithm Watch et l’AFP, disponibles en français ou en anglais, et que vous trouverez sur la plupart des plateforme. Cette série pourrait être une enquête anodine et pourtant, c’est l’une des rares de disponible sur le sujet des défaillances des algorithmes bancaires. Les 3 épisodes explorent le problème du debanking ou débancarisation, c’est-à-dire le blocage et la fermeture automatisée de comptes bancaires, sans que vous n’y puissiez rien. Un phénomène qui touche des centaines de milliers de personnes, comme le montre cette grande enquête à travers l’Europe.

      Dans les erreurs de la débancarisation

      On ne sait pas grand chose des innombrables algorithmes qu’utilisent les banques, rappellent les journalistes de Faux positifs. La débancarisation repose sur des alertes automatisées développées par les banques et leurs prestataires sur les mouvements de comptes et leurs titulaires, mais elles semblent bien souvent mal calibrées. Et sans corrections appropriées, elles débouchent très concrètement sur la fermeture de comptes en banques. Le problème, comme souvent face aux problèmes des systèmes du calcul du social, c’est que les banques ne mettent en place ni garanties ni droits de recours pour ceux dont les comptes sont considérés comme suspects par les systèmes de calculs. Et le problème s’étend à bas bruit, car les clients chassés de leurs banques n’ont pas tendance à en parler.

      Ça commence assez simplement par le blocage brutal du compte, racontent ceux qui y ont été confrontés. Impossible alors de pouvoir faire la moindre opération. Les usagers reçoivent un courrier qui leur annonce que leur compte sera clos sous deux mois et qu’ils doivent retirer leurs fonds. Bien souvent, comme dans d’autres problèmes du social, les banques annoncent être en conformité avec la réglementation dans leur décision voire nient le fait que la décision soit automatisée et assurent que la décision finale est toujours prise par un humain, comme l’exige la loi. Rien n’est pourtant moins sûr.

      Comme ailleurs, les explications fournies aux usagers sont lacunaires, et elles le sont d’autant plus, que, comme quand on est soupçonné de fraude dans les organismes sociaux, le fait d’être soupçonné de malversation bancaire diminue vos possibilités de recours plutôt qu’elle ne les augmente. Visiblement, expliquent les journalistes, le blocage serait lié à des erreurs dans le questionnaire KYC (Know your customer, système de connaissance client), un questionnaire très exhaustif et intrusif, assorti de pièces justificatives, qui permet de certifier l’identité des clients et leur activité. Bien souvent, les défaillances sont liées au fait que l’activité ou l’identité des clients est mal renseignée. Certaines catégories, comme le fait de pratiquer l’échange de devises, sont considérées comme des activités à haut risques et sont plus susceptibles que d’autres de déclencher des alertes et blocages.

      « Les saisines de l’autorité de surveillance des banques pour des plaintes liées à des fermetures de comptes en banques ont quadruplé en Espagne entre 2018 et 2022« , rapporte le pool de journalistes auteurs du podcast. « En novembre 2023, le New York Times a publié une enquête sur le même phénomène et au Royaume-uni, une hausse de 69% des plaintes a été constatée entre 2020 et 2024 par le médiateur des banques. En France, ce sont les associations du culte musulman qui ont tiré la sonnette d’alarme » et alertent sur la discrimination bancaire dont elles sont l’objet. Un tiers de ces associations auraient expérimenté des fermetures de comptes. Les associations cultuelles, les personnalités politiques et les réfugiés politiques semblent faire partie des catégories les plus débancarisées.

      En 2024, le problème des associations cultuelles musulmanes n’est toujours pas réglé, confirment les associations, les empêchant de payer leurs loyers ou leurs charges. Ici aussi, les victimes se retrouvent face à un mur, sans recevoir d’explications ou de solutions. Si les banques ont le droit de fermer les comptes inactifs ou à découvert, elles doivent aussi respecter une réglementation très stricte pour lutter contre le blanchiment d’argent ou le financement du terrorisme, et les amendes sont très élevées pour celles qui ne respectent pas ces contraintes. En France, les banques doivent rapporter à Tracfin, la cellule de renseignement financier, les opérations douteuses qu’elles détectent. Les algorithmes bancaires repèrent des opérations sensées correspondre à certaines caractéristiques et seuils, développés par les banques ou des acteurs tiers, aux critères confidentiels. Ces logiciels de surveillance de la clientèle se sont déployés, et avec eux, les « faux positifs », rapportent les journalistes.

      A la Banque postale, rapporte un cadre, chaque années, ce sont plusieurs dizaines de milliers d’opérations qui font l’objet d’alertes. Une fois analyse faite, si l’alerte se confirme, l’opération est déclarée à Tracfin, mais 95% des alertes ne débouchent sur aucun signalement. Dans les banques, à Paris, 17 à 20 000 personnes vérifient chaque jour ces alertes. Mais, visiblement, les rapports d’activité suspecte existent et ne sont pas sans conséquence sur les comptes. En fait, contrairement à ce qu’on pourrait penser, les faux positifs visent à surprotéger les banques contre les amendes réglementaires, en démontrant aux régulateurs qu’elles agissent, qu’importe si cette efficacité est très défaillante. Les faux positifs ne sont pas tant des erreurs, qu’un levier pour se prémunir des amendes. Finalement, les banques semblent encouragées à produire des faux positifs pour montrer qu’elles agissent, tous comme les organismes sociaux sont poussés à détecter de la fraude pour atteindre leurs objectifs de contrôle ou les systèmes de contrôle fiscaux automatisés sont poussés à atteindre certains niveaux d’automatisation. Le fait de débrancher des comptes, de soupçonner en masse semble finalement un moyen simple pour montrer qu’on agit. Pour la professeure Mariola Marzouk de Vortex Risk qui a quitté le secteur de la conformité réglementaire des banques, cette conformité est hypocrite et toxique. Les erreurs ne sont pas un bug, elles sont une fonctionnalité, qui protège les banques au détriment des usagers.

      Faux positifs, la série de podcast d’Algorithm Watch et de l’AFP. La débancarisation, outil bien commode de la réduction du risque

      Le 2e épisode commence par revenir sur les Panama Papers et les scandales de l’évasion fiscale qui ont obligé les banques à renforcer leurs contrôles. Mais la véritable origine de la surveillance des comptes provient de la lutte contre le trafic de drogue, explique l’avocate Charlotte Gaudin, fondatrice de AML Factory, une entreprise qui aide les entreprises à lutter contre le blanchiment de capitaux et le financement du terrorisme, dans tous les secteurs, des banques, aux assurances, en passant par les notaires et avocats, aux entreprises de cryptomonnaies, qui « ont toutes l’obligation de surveiller leurs clients ». Pour Transparency International, les banques doivent surveiller les dépôts à risques, notamment provenance de pays à risques établis par le GAFI, le Groupe d’action financière, l’organisme mondial de surveillance du blanchiment de capitaux et du financement du terrorisme. Outre, le KYC, la surveillance des clients, il y aussi la surveillance des transactions (KYT, Know your transactions). Le KYC permet de générer un score client. Le KYT lui permet de regarder s’il y a des dépôts d’argents « décorélés de ce que vous êtes sensé gagner tous les mois ». Les dépôts d’espèces sont mécaniquement plus risqués que les dépôts par carte, par exemple. Quand un dépôt d’espèces semble suspect, la banque alerte Tracfin qui estime s’il faut prévenir la justice ou l’administration fiscale. Pour s’éviter des ennuis, la banque peut décider de fermer votre compte, sans avoir le droit de vous dire pourquoi pour que vous n’effaciez pas les preuves.

      Le problème, c’est que cette réglementation font des banques des auxiliaires de police et de justice… Mais sans avoir les moyens ou les compétences de mener des enquêtes. Les banques, pour poursuivre leur but, gagner de l’argent, ont donc tendance à se débarrasser de tous clients qui pourraient les mettre en danger. « C’est ce qu’on appelle le « derisking » ». Pour Mariola Marzouk, « ces règles sont vraiment simplistes ». Elles peuvent dire qu’une ONG est à haut risque parce qu’elle envoie des fonds dans une zone de conflits. En janvier 2022, l’autorité bancaire européenne elle-même a lancé une alerte sur le risque du derisking. En 2023, le politicien britannique d’extrême-droite, Nigel Farage, s’est vu fermer ses comptes par sa banque et a lancé un appel à témoignage qui a rencontré beaucoup d’échos, montrant à nouveau l’étendue du problème. Tous les politiques sont jugés à hauts risques par ces systèmes et font l’objet de mesures de contrôles renforcés (on parle de PPE, Personnes politiquement exposées). Selon les données de l’autorité qui contrôle les banques et les marchés financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermé en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont été condamné pour ce délit ces mêmes années selon l’Institut des affaires économiques britanniques.

      En France aussi, les politiques sont sous surveillance. C’est arrivé au sénateur centriste du Tarn, Philippe Folliot, qui a même déposé une loi contre la fermeture abusive des comptes bancaires. Pour le sénateur, la débancarisation est liée à la déshumanisation, aux développement des robots bancaires et aux fermetures d’agences. Depuis la crise financière de 2008, le nombre de succursales bancaires en France est passé de 180 000 agences à 106 000 en 2023. Si l’on en croit le Canard Enchaîné, il y aurait d’autres raisons à la débancarisation du sénateur du Tarn, notamment les activités de sa compagne, d’autant que les banques semblent également utiliser les informations de la presse et des réseaux sociaux pour prolonger leurs informations. Mais quand bien même ces informations auraient pu jouer dans ce cas précis, les banques agissent ici sans mandat ni preuves. Cela montre, il me semble, la grande limite à confier à des acteurs des pouvoirs de police et de justice, sans assurer de possibilités de se défendre. Un peu comme l’on confie désormais aux Gafams la possibilité d’exclure des utilisateurs sans que ceux-ci ne puissent faire de recours. « Les banques de leur côté, ne nient pas qu’il puisse y avoir des difficultés, mais soulignent qu’elles ne font qu’appliquer la réglementation », souligne un acteur de la réglementation bancaire. Dans le cadre de PPE, se sont tous les proches qui sont placés sous-surveillance.

      Pour l’expert américain Aaron Ansari de RangeForce, les décisions, aux Etats-Unis, sont automatisés en temps réel. Depuis les années 2010, quand un dépôt est effectué, les signalements sont immédiats… et si la marge d’erreur est faible, les comptes sont automatiquement fermés. En Europe, on nous assure que ce n’est pas le cas.

      Sans issue ?

      Le 3e épisode, évoque l’internationalisation du problème, en montrant que les banques peuvent débancariser des réfugiés politiques au prétexte qu’ils sont signalés comme terroristes par les pays autoritaires qu’ils ont fuit. La débancarisation est devenue un moyen pour exclure des opposants dans leurs pays et qui ont des effets au-delà de leurs pays d’origine.

      Yasir Gökce, réfugié turc en Allemagne, estime que nombre d’opposants turcs en Europe sont débancarisés du fait que les banques utilisent des informations provenant de courtiers en données pour alimenter leurs algorithmes de débancarisation, sans toujours les trier. Des données turques assignent les opposants comme terroristes et ces termes restent dans les fiches nominatives des courtiers. Les banques les utilisent pour évaluer les risques, et à moins de prêter une attention particulière à ces données pour les désactiver, génèrent des scores de risque élevés…

      Le grand problème, c’est que les citoyens confrontés à ces décisions n’ont pas de recours. Faire modifier leur fiches KYC ne leur est souvent même pas proposé. Pour Maíra Martini de Transparency International, « les institutions financières n’ont pas à rechercher de preuves. Ce n’est pourtant pas à elles de décider si des personnes sont ou pas criminelles ».

      « Les institutions financières n’arrivent donc pas toujours à corriger les erreurs de leurs systèmes algorithmiques et faire appel de ces décisions fondées sur leurs calculs ou sur leur aversion au risque peut-être très compliqué. C’est un problème que l’on retrouve ailleurs : dans l’aide social, dans l’éducation, les ressources humaines. » Les citoyens ne savent pas à qui s’adresser pour demander un réexamen de leurs cas. En fait, bien souvent, la possibilité n’est même pas proposée. Dans les boucles absurdes des décisions automatisées, bien souvent, l’usager est laissé sans recours ni garantie. « Les boutons Kafka » qu’évoquait l’avocate hollandaise Marlies van Eck pour permettre aux administrés de s’extraire de situations inextricables, n’est toujours pas une option.

      Maíra Martini estime que les institutions financières devraient motiver leurs décisions. Les autorités de contrôle devraient également mieux évaluer les fermetures de compte, demander aux banques des statistiques annuelles, pour connaître les types de comptes et de personnes touchées, la proportion de fermeture par rapport aux condamnations… Empêcher que les abus ne se cachent derrière l’envolée des « faux positifs ». Et que les « faux positifs » ne deviennent partout une solution à la minimisation des risques. Bref, peut-être un peu mieux surveiller le niveau de derisking afin qu’il ne soit pas le prétexte d’une discrimination en roue libre.

      Hubert Guillaud

      Prenez le temps d’aller écouter les 3 épisodes de « Faux positifs », pilotés par Naiara Bellio d’Algorithm Watch et Jean-Baptiste Oubrier pour l’Agence France-Presse. Signalons que les journalistes invitent les victimes de débancarisation à témoigner par message audio sur whatsapp au + 33 6 79 77 38 45 ou par mail : podcast@afp.com

    • sur À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais

      Publié: 10 March 2025, 10:30am CET par Carole Marin

      La nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...

    • sur Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation

      Publié: 10 March 2025, 9:30am CET par Pierre Libaud

      Cette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.

    • sur Geodatadays 2023

      Publié: 10 March 2025, 9:30am CET par Christine Plumejeaud-Perreau

      Les GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...

    • sur MapDraw. Un outil libre d’annotation de cartes en ligne

      Publié: 10 March 2025, 9:30am CET par Justin Berli

      Les enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.

    • sur HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies

      Publié: 10 March 2025, 9:30am CET par Gabriel Marquès

      Les haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.

    • sur Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence

      Publié: 10 March 2025, 9:30am CET par Maxime Masson

      TextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]

    • sur Atlas du développement durable. Un monde en transition, Autrement, 2022

      Publié: 10 March 2025, 9:30am CET par Marie-Laure Trémélo

      L’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.

      Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.

      Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...

    • sur La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial

      Publié: 10 March 2025, 9:30am CET par Jean-Charles Édouard

      Ce texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.

      À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.

      En ce qui concerne l’analyse du ...

    • sur Mappa naturae, 2023

      Publié: 10 March 2025, 9:30am CET par Sylvain Guyot

      Le collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...

    • sur Représenter la centralité marchande : la coloration marchande et ses usages

      Publié: 10 March 2025, 9:30am CET par Nicolas Lebrun

      La centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.