Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
5757 éléments (12 non lus) dans 55 canaux

-
Cybergeo
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (1 non lus)
-
Mappemonde
-
Dans les algorithmes (1 non lus)

-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier (1 non lus)
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR

-
Géoblogs (GeoRezo.net)
-
Conseil national de l'information géolocalisée (2 non lus)
-
Geotribu
-
Les cafés géographiques (1 non lus)
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Icem7
-
Séries temporelles (CESBIO)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies (1 non lus)
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques (5 non lus)
-
Veille cartographie
-
Makina Corpus
-
Oslandia
-
Camptocamp
-
Carnet (neo)cartographique
-
Le blog de Geomatys
-
GEOMATIQUE
-
Geomatick
-
CartONG (actualités)
Dans la presse (2 non lus)
-
7:00
De la montée de la dépendance de la science à l’IA
sur Dans les algorithmesAlors que l’IA colonise tous les champs de recherche, « la crise de reproductibilité dans la science basée sur l’apprentissage automatique n’en est qu’à ses débuts », alertent les chercheurs Arvind Narayanan et Sayash Kapoor dans Nature. « Les outils de l’apprentissage automatique facilitent la construction de modèles, mais ne facilitent pas nécessairement l’extraction de connaissances sur le monde, et pourraient même la rendre plus difficile. Par conséquent, nous courons le risque de produire davantage, tout en comprenant moins », expliquent les deux chercheurs, qui rappellent que ce qui est bénéfique à l’ingénierie ne l’est pas forcément pour la science.
-
16:01
Paris-Roubaix à la carte
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa célèbre course cycliste Paris-Roubaix est de retour pour une 122? édition ! Cette année, ASO joue la carte de la nouveauté en modifiant le tracé pour les hommes. Deux secteurs pavés supplémentaires font aussi leur apparition. Comme à son habitude, le service Information Géographique et Appui à la Connaissance de la Région Hauts-de-France s’est mobilisé pour proposer une application interactive de l’édition femmes le samedi 12 avril 2025 et de la course des hommes le dimanche 13 avril 2025.
Cette application cartographique utilisable gratuitement permet de visualiser l’itinéraire de la course masculine avec un focus sur ses secteurs pavés allant du secteur n°30 de Troisvilles au secteur n°1 de Roubaix (espace Crupelandt) avant l’arrivée sur le vélodrome de Roubaix tout comme le tracé de la course féminine.et ses 17 secteurs pavés. Vous y retrouverez, pour chacun de ces secteurs, la longueur et le niveau de difficulté, ainsi que les horaires prévisionnels de passage de la caravane et de la course.
Zoom sur les secteurs pavésCertains secteurs sont particulièrement mis en valeur, notamment lorsqu'ils connaissant des modifications. C'est le cas de la Trouée d'Arenberg, l'un des passages de l'enfer du Nord qui met à dure épreuve hommes et machines. L’année passée, des chicanes avaient dû été installées pour éviter un grand nombre de chutes. Pour cette édition 2025, un nouveau parcours permettra aux cyclistes de se lancer différemment sur cette portion longue de 2,3 km. Le parcours 2025 introduit aussi deux nouveaux secteurs pavés autour de Quérénaing. Au total, 30 secteurs pavés attendent les coureurs sur les 259,2 km de course entre Compiègne et Roubaix.
L’application permet aussi de découvrir le tracé pour les femmes et ses 17 secteurs pavés entre Denain et Roubaix.
Autour de la courseEnfin, les géomaticiens des Hauts-de-France n’oublient pas de valoriser le patrimoine autour de la course. Ils présentent 23 sites touristiques immanquables, accessibles en un clic à travers une fiche de présentation.
À noter que cette application construite avec les solutions d’Esri se décline en 3 langues, optimisant ainsi son utilisation et contribuant à faire rayonner Paris-Roubaix et le nord de la France.
+ d'infos
=> L’application en français : [https:]]
=> L’application en anglais : [https:]]
=> L’application en néerlandais : [https:]]
-
9:33
Mutualisation urbanistique
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueJusqu’ici disposant de huit PLU, le support intercommunal a été adopté au conseil de territoire fin 2024 pour les huit villes : Boulogne-Billancourt, Chaville, Issy-les-Moulineaux, Marnes-la-Coquette, Meudon, Sèvres, Vanves et Ville-d’Avray. Ce projet coordonné par la Direction de l’information géographique et de l’innovation territoriale (DIGIT) est consultable sous forme d’application, offrant une visualisation des données par parcelle. Sous deux versions, l’une publique et l’autre destinée aux agents des villes, « il est possible de faire une recherche par adresse ou par parcelle », explique Prune Bonnivard, Directrice de la DIGIT. Un clic donne accès à la note d’informations, résultat d’une analyse géographique de toutes les couches qui composent le PLUI. « L’outil reprend 19.900 unités foncières », précise Mateusz Pietrzak, technicien SIG à la DIGIT.
+ d'infos :
seineouest.fr
-
7:00
L’internet des familles modestes : les usages sont-ils les mêmes du haut au bas de l’échelle sociale ?
sur Dans les algorithmesPour rendre hommage à la sociologue Dominique Pasquier, qui vient de nous quitter, nous avons voulu republier l’interview qu’elle nous accordait en 2018 pour InternetActu.net, à l’occasion de la parution de son livre, L’internet des familles modestes. Histoire de nous souvenir de son ton, de sa voix, de son approche. Merci Dominique.
Il semble toujours difficile de saisir une enquête sociologique, car, comme toute bonne enquête sociologique, celles-ci sont surtout qualitatives et se fondent sur des témoignages peu nombreux et variés… dont il semble difficile de dégager des lignes directrices. C’est pourtant ce que réussit à faire la sociologue Dominique Pasquier dans son livre, L’internet des familles modestes en s’intéressant aux transformations des univers populaires par le prisme des usages et des pratiques d’internet.
Alors qu’il n’y a pas si longtemps, la fracture numérique semblait ne pouvoir se résorber, les usagers les plus modestes semblent finalement avoir adopté les outils numériques très rapidement, à l’image de l’introduction de la photographie au début du XXe siècle dans les sociétés rurales traditionnelles qu’évoquait Pierre Bourdieu dans Un art moyen. L’internet des classes dominantes et urbaines a colonisé la société, rapporte Dominique Pasquier dans son étude où elle s’est intéressée aux employées (majoritairement des femmes) travaillant principalement dans le secteur des services à la personne et vivant dans des zones rurales. En matière de temps, d’utilisation des services en lignes, les usages d’internet des plus modestes ont rejoint les taux d’usages des classes supérieures. Reste à savoir si les usages sont les mêmes du haut au bas de l’échelle sociale. Interview.
Existe-t-il un usage populaire d’internet ? Quelles sont les caractéristiques d’un internet des familles modestes ?
Dominique Pasquier : Il n’a pas de caractéristique particulière. C’est un usage comme les autres en fait, avec quelques poches de spécificités, et c’est finalement ce qui est le plus surprenant. Parmi ces spécificités – qu’il faudrait valider en enquêtant plus avant sur des familles plus pourvues en revenus et en capital culturel -, il y a le refus d’utiliser le mail ou l’obligation de transparence des pratiques entre les membres de la famille, mais qui existent peut-être sous une forme ou une autre dans d’autres milieux sociaux. Le plus étonnant finalement, c’est de constater que pour des gens qui se sont équipés sur le tard, combien ces usages sont devenus aisés et rituels. Je m’attendais à trouver plus de difficultés, plus d’angoisses… Mais cela n’a pas été le cas. Les familles modestes se sont emparées d’internet à toute vitesse. Ils font certes des usages plutôt utilitaristes de ces outils polymorphes. Ils ont peu de pratiques créatives. Participent peu. Mais n’en ont pas particulièrement besoin. L’outil s’est glissé dans leurs pratiques quotidiennes, d’une manière très pragmatique. Les gens ont de bonnes raisons de faire ce qu’ils font de la manière dont ils le font.
Les témoignages que vous rapportez montrent une grande hétérogénéité d’usage. Mais ce qui marque, c’est de voir que pour ces publics, internet semble avant tout un outil d’accomplissement personnel, une seconde école. Il les aide à mieux se repérer dans l’information, à être plus ouverts, à élargir leur champ de compétences…
Dominique Pasquier : Oui, internet est une seconde école. Et ce constat n’est pas sans vertus pour des populations qui bien souvent ne sont pas allées à l’école ou qui n’ont pas le bac. Internet leur propose des manières d’apprendre qui leur correspondent mieux, sans hiérarchie ni sanction. On pourrait croire par exemple qu’en matière d’information ils ne recherchent pas des choses importantes, mais si. Ils cherchent à comprendre les termes qu’emploient le professeur de leurs enfants ou le médecin qu’ils consultent. Quelque chose s’est ouvert. L’enjeu n’est pas pour eux de devenir experts à la place des experts, mais de parvenir à mieux argumenter ou à poser des questions. D’être mieux armés. Le travail de la sociologue Annette Lareau qui a observé des réunions parents professeurs et des consultations médicales dans les milieux populaires, montrait que les parents des milieux populaires se trouvaient dans une position de déférence, imposée par l’interaction elle-même. Ils n’osent pas dire qu’ils ne comprennent pas. Or, cette déférence subie implique nombre de malentendus sur les diagnostics scolaires ou médicaux. Les gens que j’ai rencontrés se servent tout le temps de ces outils pour trouver le sens des mots ou pour apprendre. Les aides-soignantes travaillent souvent dans des structures très pesantes. Mais quand elles vont sur des sites de professionnels de la santé, elles s’aperçoivent qu’il y a des échanges horizontaux et hiérarchiques possibles. Internet permet d’ouvrir le bec – même si cela ne veut pas dire que ces aides-soignantes ouvrent le bec en ligne facilement pour autant.
Image : Dominique Pasquier sur la scène de la conférence Numérique en Communs, qui se tenait à Nantes.
… plus ouverts, mais pas totalement. Internet n’est pas l’espace des idées nouvelles…
Dominique Pasquier : Si internet permet de s’informer et de se former (via les tutoriels, très consommés pour progresser notamment dans ses passions), le public de mon enquête ne s’intéresse pas du tout à l’actualité. Il ne consulte pas la presse nationale. L’actualité demeure celle que propose la presse locale et la télévision. Ce manque d’ouverture est certainement lié aux territoires d’enquêtes. Pour les ruraux, l’information nationale ou internationale semble très loin. Dans ce domaine, la possibilité qu’ouvre l’internet n’est pas saisie. La consommation télévisuelle reste très forte. L’ouverture passe par la télévision, c’est de là qu’arrive la nouveauté, via la télé-réalité, les émissions de décoration et de cuisine. La « moyennisation » des styles de vie est concrète : elle se voit dans les maisons. La télévision a diffusé un dépouillement du décor mobilier par exemple comme on le voit dans les émissions de décoration. Dans ses enquêtes sur le monde ouvrier des années 80, le sociologue Olivier Schwartz montrait que les familles de mineurs qui réussissaient achetaient des salles à manger en bois. Elles ont disparu !
L’internet n’est pas sans difficulté pourtant pour les plus modestes. Vous évoquez notamment la difficulté à utiliser certaines ressources dans le cadre professionnel ou dans la relation administrative. Quelles sont ces difficultés et pourquoi persistent-elles selon vous ?
Dominique Pasquier : Dans leurs services en ligne, les administrations de la République sont lamentables. On ne met pas assez d’argent dans l’ergonomie, dans les tests usagers… pour des gens dont les budgets se jouent à 100 euros près et où le moindre remboursement qui ne vient pas est un drame. La dématérialisation de l’administration est inhumaine et brutale. Les familles modestes utilisent peu le mail. Leurs adresses servent principalement aux achats et aux relations avec les administrations. Mais les courriers de l’administration se perdent dans le spam qu’ils reçoivent des sites d’achat. Pour eux, le mail est un instrument de torture et ce d’autant plus qu’il est l’outil de l’injonction administrative. Les gens ont l’impression d’être maltraités par les administrations, à l’image de cet homme que j’ai rencontré, noyé dans ses démêlés avec Pôle emploi, en difficulté dans toutes ses démarches.
Les usagers ne sont pas contre la dématérialisation pourtant. Le public que j’ai rencontré utilise quotidiennement les applications bancaires par exemple, matins et soirs. Ils n’ont pas de mal à gérer leurs factures en ligne. Mais les relations avec les institutions sociales, en ligne, sont particulièrement difficiles.
Peut-être est-ce aussi lié à l’usage spécifique du mail qu’on rencontre dans ces familles. Vous soulignez, qu’une des rares spécificités de l’internet des familles modestes, c’est que l’usage du mail n’est pas tant individuel que familial…
Dominique Pasquier : Oui. Pour les familles modestes, le mail n’est pas un outil de conversation agréable. Il est asynchrone et écrit. Envoyer et attendre une réponse ne correspond pas aux valeurs du face à face dans l’échange, qui reste très fort dans les milieux populaires. Il demeure de l’ordre du courrier, ce qui en fait un dispositif formellement distant.
Les familles disposent bien souvent d’une seule adresse mail partagée. C’est un moyen de tenir un principe de transparence familial… (et de surveillance : une femme ne peut pas recevoir de courrier personnel). Ce principe de transparence se retrouve également dans les comptes Facebook, dans les SMS,… La famille intervient sur les comptes de ses membres, on regarde les téléphones mobiles des uns et des autres. On surveille ce qu’il se dit. Les familles modestes ne voient pas de raison à avoir des outils individuels. Sur Facebook, l’ouverture de comptes par les enfants est conditionnée au fait que les parents soient amis avec eux. Bien souvent, ces pratiques donnent une illusion de maîtrise aux parents, qui ne voient pas ce qui échappe à leur vigilance. Ils observent les murs des enfants et les commentaires, mais ne voient pas les échanges en messagerie instantanée incessants.
L’autre grande différence sociale que vous pointez c’est la participation : l’usage des plus modestes n’est pas très contributif. Pourquoi ?
Dominique Pasquier : Effectivement, l’internet n’est jamais vu comme un moyen de contribution. J’ai demandé ainsi à une femme qui souhaitait se remarier et qui me confiait avoir beaucoup consulté de forums pour se décider à franchir le pas de la famille recomposée… si elle posait des questions sur ces forums. Elle m’a clairement répondu non, comme si c’était impensable. Ce qui l’intéressait c’était la réponse aux questions qu’elle aurait pu poser. Mais la difficulté demeure d’oser, et ce même pour intervenir sur un simple forum, entouré de femmes dans la même situation qu’elle, qui se confient sur des choses intimes… On ne saute pas le pas. Une autre qui réalisait des tricots en puisant des idées sur des blogs contributifs n’y montrait pas non plus ses créations… Il y a une grande pudeur à poser des questions, « à ramener sa fraise »…
Sur l’internet des familles modestes, il y a une grande distance avec la création. Ce qui circule sur Facebook, c’est essentiellement des citations morales, des images, des dessins… des « panneaux » qui proviennent d’ailleurs. L’enjeu n’est pas tant de discuter du contenu de ces messages que de demander à ses amis s’ils sont d’accord avec le fait que ce qui est mis en ligne me reflète moi ! Le but est plus une recherche de consensus. On s’empare de ces messages pour dire qu’on s’y reconnaît et on demande aux autres s’ils nous y reconnaissent. Ces partages se font avec des gens qu’on connaît. On ne cherche pas à étendre sa sociabilité.
À Brest, Bénédicte Havard Duclos qui a travaillé sur des assistantes maternelles, plus diplômées que les populations sur lesquelles j’ai travaillé, à montré qu’elles avaient un peu plus d’ouverture dans leurs échanges en ligne : elles osaient échanger avec des gens qu’elles ne connaissaient pas. Les gens que j’ai vus ne sortent pas de leur monde, sauf en ce qui concerne les connaissances, mais pas en matière de culture ni de sociabilité. Ils utilisent internet pour apprendre des choses qu’ils ne connaissent pas ou perfectionner des pratiques, comme le tricot, la cuisine, le jardinage… Mais ce n’est pas une ouverture sur des nouveaux goûts culturels. Il n’y en a pas du tout dans mon public. Les liens partagés servent aussi beaucoup à rappeler le passé, à le célébrer ensemble une nostalgie. Leur fonction consiste plus à évoquer une culture commune et à renforcer le consensus qu’à une ouverture culturelle. Mais ces résultats auraient certainement été très différents si j’avais regardé les pratiques de leurs enfants.
Y’a-t-il un temps internet chez les plus modestes ou une connexion continue comme pour les catégories professionnelles supérieures ? La frontière entre le monde professionnel et le monde privé est-elle moins étanche chez les plus modestes qu’ailleurs ?
Dominique Pasquier : Il y a une différence entre ces milieux et ceux des cadres et des professions intermédiaires. Ici, quand on arrête de travailler, on arrête de travailler. S’il y a une forte perméabilité du personnel au professionnel, la frontière est complètement hermétique dans l’autre sens : les collègues n’ont pas le numéro de portable ! Beaucoup des femmes que j’ai rencontrées ont des conjoints artisans qui eux n’arrêtent jamais de travailler… mais le plus souvent, les milieux ouvriers ou d’employés subalternes, la frontière entre les deux mondes est forte.
Un long chapitre de votre livre s’intéresse à l’achat en ligne qui semble être devenu une pratique forte et complètement intégrée des milieux modestes. Qu’est-ce qu’a changé cet accès à la consommation ?
Dominique Pasquier : On pense souvent qu’internet permet d’acheter ce qu’on ne trouve pas localement. Pour les plus modestes, la motivation n’est pas du tout celle-ci. Internet sert à acheter moins cher. Et ces femmes y passent du temps. Reste qu’elles se sentent coupables vis-à-vis du petit commerce local, car ce sont des gens qu’elles connaissent. Pour nombre d’achats, elles transigent donc.
Le Bon Coin et les plateformes d’achats entre particuliers sont considérées, elles, comme vertueuses. Ça rapporte un peu d’argent. Ça rend service. On a l’impression que ces échanges sont moraux. « Sur le Bon Coin, chacun garde sa fierté ». Y vendre ou y acheter des produits, même très peu chers – et beaucoup des produits qu’on y échange le sont pour quelques euros -, c’est un moyen de conserver sa fierté, d’affirmer qu’on n’est pas des assistés. Il faut entendre l’omniprésence de la peur du déclassement dans ces populations, limites financièrement. Recourir à l’aide social et faire des démarches, c’est compliqué. Dans cette frange de la population, on déteste tout autant ceux qui sont socialement au-dessus qu’au-dessous. On y entend un discours d’extrême droite qui peut-être manié par des gens qui n’y sont pas acquis, mais qui est caractérisé par la peur de basculer vers les assistés. Comme le disait Olivier Schwartz, il n’y a pas qu’eux contre nous, que le peuple face aux élites, il y a ceux du haut, ceux du bas et les fragiles.
Vous notez dans votre livre que les familles modestes ont un rapport très distant avec l’information (notamment nationale), mais pas avec les causes. « Ceux qui parlent frontalement de politique le font de façon sporadique ». La politique n’est présente que sous une forme polémique, très liée à la crise du marché du travail. Pourquoi ?
Dominique Pasquier : Ce public ne s’informe pas. Beaucoup de rumeurs circulent et s’engouffrent sur des peurs. Les dépenses somptuaires ne les étonnent pas. Les rumeurs sur les fraudeurs et paresseux non plus. J’ai enquêté dans une région où l’immigration est peu présente, mais où le fantasme de l’immigré assisté est omniprésent. La hantise sociale est forte et est à relier à la crise du marché du travail, qui fait que ces familles semblent toujours sur le point de basculer dans la précarité. Ces femmes qui travaillent dans l’aide à domicile connaissent les difficultés du marché du travail : elles ont plein de petits patrons, des horaires à trous, des trajets difficiles et leurs situations sont précaires et instables… Reste que dans ces milieux issus des milieux ouvriers, les valeurs du travail, de l’entrepreneuriat privé et de la réussite restent fortes.
D’une manière assez surprenante, vous consacrez tout un chapitre à la question des relations hommes/femmes. Internet renforce-t-il la séparation des sphères domestiques masculines et féminines ? Comment en questionne-t-il ou en redistribue-t-il les frontières normatives ?
Dominique Pasquier : Effectivement. Nombre de comptes Facebook exaltent l’amour conjugal et la famille. Ce n’est bien sûr pas le cas des hommes célibataires que j’ai rencontrés, dans les comptes desquels dominent des blagues sur les femmes. Chez celles-ci, par contre, on trouve beaucoup de partage d’images et de maximes sur l’absence de partage des tâches domestiques. Chez ces femmes, l’idée qu’on se réalise en tenant son intérieur propre et son linge repassé ne fonctionne plus. L’épanouissement domestique ne fait plus rêver. Cela n’empêche pas que ces femmes continuent à tout faire et que leurs intérieurs soient nickels et parfaitement rangés. Elles aspirent à ce que ce ne soit plus une image valorisante, mais en vrai, la répartition des tâches traditionnelles demeure.
On entend en tout cas une revendication, une contestation de la division très asymétrique du travail domestique. Pourtant, pour ces aides-soignantes qui pratiquent les horaires décalés, bien souvent, les maris doivent faire le dîner pour les enfants. En tout cas, il n’y a plus ce qu’observait Olivier Schwartz, à savoir que les femmes trouvaient leur épanouissement dans la tenue du foyer. Il faut dire que contrairement aux enquêtes qu’il a réalisées dans les familles de mineurs, ces femmes travaillent. C’est sans doute la transformation du marché du travail qui fait bouger les lignes à la maison.
Pour autant, ce n’est pas la guerre non plus. On trouve plus d’endroits où on échange des maximes célébrant le couple que le contraire. C’est moins vrai pour les hommes célibataires. Dans les milieux populaires, les hommes sans qualification (comme les femmes trop qualifiées) ont du mal à entrer en couples. D’où l’expression d’un vif ressentiment.
À la lecture de votre livre, on a l’impression que la fracture numérique a été résorbée. Et on peinerait même à trouver des traces d’une fracture sociale d’usages ?
Dominique Pasquier : Oui. On trouve encore quelques personnes en difficultés, notamment les seniors, mais le plus frappant est de constater qu’internet est entré dans la vie de tous les jours, même chez les familles modestes.
La régulation parentale y est par exemple aussi présente qu’ailleurs. Mais dans les familles plus diplômées, on ne trouve pas la croyance que, parce qu’on sait se servir d’internet, on réussira dans la vie. Il y a ici, une illusion de modernité. Dans les milieux plus cultivés, on retrouve les mêmes difficultés à surveiller les pratiques des enfants et à réguler leurs pratiques, mais les parents offrent la complémentarité de l’écrit traditionnel valorisé à l’école. Ici, les mères croient bien faire en encourageant les pratiques numériques, pensant que cela sera un déclencheur de réussite. Mais c’est assez faux. Malgré la transparence qu’elles imposent, les familles modestes ne savent pas ce que font leurs enfants. En fait, il faut reconnaître que c’est plus difficile pour les parents qu’avant. Alors que la télé réunissait les familles, internet menace les dimensions collectives familiales, par ses pratiques addictives (comme le jeu vidéo) et parce que les pratiques des plus jeunes sont impossibles à réguler. Il transforme et menace profondément les familles. Mon discours à l’air très négatif, je le reconnais. Pour les plus jeunes, internet offre de fortes possibilités de divertissement. Mais comme il n’y a pas de limites et qu’on ne peut pas en mettre, tout repose sur la manière dont les enfants gèrent les sollicitations. Mes travaux sur la culture lycéenne, soulignaient déjà les limites de la transmission horizontale entre jeunes. Les mères, qui se sont mises au jeu et qui ont compris qu’elles étaient accros à leur tour, ont une meilleure compréhension de ce qu’il se passe quand on ne peut pas s’arrêter. Les disputes sur le temps d’écran sont moins présentes. Reste qu’une grande partie de la vie des enfants échappe au périmètre familial et c’est difficile à vivre pour les parents. Ils ont l’impression parfois de contrôler ce que font leurs enfants en ligne, mais ils se trompent.
Propos recueillis par Hubert Guillaud.
Cette interview a été originellement publiée sur InternetActu.net, le 21 septembre 2018.
-
7:00
Pourquoi la technologie favorise-t-elle le surdiagnostic ?
sur Dans les algorithmesLa neurologue irlandaise, Suzanne O’Sullivan, qui vient de publier The Age of Diagnosis: Sickness, Health and Why Medicine Has Gone Too Far (Penguin Random House, 2025) estime que nous sommes entrés dans l’ère du diagnostique, c’est-à-dire que l’essor technologique nous permet désormais d’améliorer les diagnostics. Mais, tempère-t-elle, cet essor « ne semble pas s’être accompagné d’une amélioration de notre santé ». Si nous détectons et traitons davantage de cancers à des stades plus précoces, ce qui sauve la vie de certaines personnes, en revanche, d’autres reçoivent des traitements inutiles, et il se pourrait que la proportion des personnes surtraitées soit plus forte que la réduction de la mortalité. En fait, des études à grande échelle montrent que l’amélioration du dépistage ne conduit pas à une amélioration des taux de survie, rappelle le Times. Pour la spécialiste qui dénonce cette dérive diagnostique, « nous sommes victimes d’une médecine excessive ». Pour elle, l’augmentation des diagnostiques de neurodivergence notamment (Troubles de l’activité et autisme) a surtout tendance à pathologiser inutilement certaines personnes. Nous ne devenons pas forcément plus malades, nous attribuons davantage à la maladie, regrette-t-elle. « Les explications médicales sont devenues un pansement ».
Le diagnostic apporte des réponses tant aux patients qu’aux médecins, mais ne soigne pas toujours. Diagnostiquer des patients alors qu’il n’existe pas de traitements efficaces peut aggraver leurs symptômes, explique-t-elle dans une interview à Wired. Entre 1998 et 2018, les diagnostics d’autisme ont augmenté de 787 % rien qu’au Royaume-Uni ; le taux de surdiagnostic de la maladie de Lyme est estimé à 85 %, y compris dans les pays où il est impossible de contracter la maladie. Le diagnostic de l’autisme est passé d’une personne sur 2 500 à un enfant sur 36 au Royaume-Uni et un sur 20 en Irlande du Nord. Nous sommes passés d’un sous-diagnostic à un sur-diagnostic, estime O’Sullivan. Or, ce sur-diagnostic n’améliore pas la santé des patients. « L’échec de cette approche est dû au fait que, lorsqu’on arrive aux stades les plus légers des troubles du comportement ou de l’apprentissage, il faut trouver un équilibre entre les avantages du diagnostic et l’aide disponible, et les inconvénients du diagnostic, qui consistent à annoncer à l’enfant qu’il a un cerveau anormal. Quel est l’impact sur la confiance en soi de l’enfant ? Comment est-ce stigmatisé ? Comment cela influence-t-il la construction de son identité ? Nous avons pensé qu’il serait utile de le dire aux enfants, mais les statistiques et les résultats suggèrent que ce n’est pas le cas. » De même, nous sur-diagnostiquons désormais différents types de cancer, tant et si bien que de plus en plus de personnes reçoivent des traitements alors qu’elles n’en ont pas besoin. Le problème c’est que nous devons veiller à ce que le surdiagnostic reste à un niveau bas. Nous multiplions les tests plutôt que de perfectionner ceux que nous avons.
Ce n’est pas tant qu’il ne faut pas dépister, estime la neurologue, mais que les décisions doivent être prises parfois plus lentement qu’elles ne sont. Pour The Guardian, le surdiagnostic nous fait croire que notre société va mal ou que la vie moderne nous rend malade (ce qui n’est pas nécessairement faux). La réalité est que nos outils de diagnostics sont devenus plus précis, mais les variations de santé physique et mentale sont inutilement médicalisées et pathologisées. Pour le dire autrement, nous n’avons pas beaucoup de méthodes pour limiter les faux positifs en médecine, comme ailleurs.
-
7:00
Dans les défaillances des décisions automatisées
sur Dans les algorithmesLes systèmes de prise de décision automatisée (ADM, pour automated decision-making) sont partout. Ils touchent tous les types d’activités humaines et notamment la distribution de services publics à des millions de citoyens européens mais également nombre de services privés essentiels, comme la banque, la fixation des prix ou l’assurance. Partout, les systèmes contrôlent l’accès à nos droits et à nos possibilités d’action.
Opacité et défaillance généraliséeEn 2020 déjà, la grande association européenne de défense des droits numériques, Algorithm Watch, expliquait dans un rapport que ces systèmes se généralisaient dans la plus grande opacité. Alors que le calcul est partout, l’association soulignait que si ces déploiements pouvaient être utiles, très peu de cas montraient de « manière convaincante un impact positif ». La plupart des systèmes de décision automatisés mettent les gens en danger plus qu’ils ne les protègent, disait déjà l’association.
Dans son inventaire des algorithmes publics, l’Observatoire des algorithmes publics montre, très concrètement, combien le déploiement des systèmes de prise de décision automatisée reste opaque, malgré les obligations de transparence qui incombent aux systèmes.
Avec son initiative France Contrôle, la Quadrature du Net, accompagnée de collectifs de lutte contre la précarité, documente elle aussi le déploiement des algorithmes de contrôle social et leurs défaillances. Dès 2018, les travaux pionniers de la politiste Virginia Eubanks, nous ont appris que les systèmes électroniques mis en place pour calculer, distribuer et contrôler l’aide sociale sont bien souvent particulièrement défaillants, et notamment les systèmes automatisés censés lutter contre la fraude, devenus l’alpha et l’oméga des politiques publiques austéritaires.
Malgré la Loi pour une République numérique (2016), la transparence de ces calculs, seule à même de dévoiler et corriger leurs défaillances, ne progresse pas. On peut donc se demander, assez légitimement, ce qu’il y a cacher.
A mesure que ces systèmes se déploient, ce sont donc les enquêtes des syndicats, des militants, des chercheurs, des journalistes qui documentent les défaillances des décisions automatisées dans tous les secteurs de la société où elles sont présentes.
Ces enquêtes sont rendues partout difficiles, d’abord et avant tout parce qu’on ne peut saisir les paramètres des systèmes de décision automatisée sans y accéder.
3 problèmes récurrentsS’il est difficile de faire un constat global sur les défaillances spécifiques de tous les systèmes automatisés, qu’ils s’appliquent à la santé, l’éducation, le social ou l’économie, on peut néanmoins noter 3 problèmes récurrents.
Les erreurs ne sont pas un problème pour les structures qui calculent. Pour le dire techniquement, la plupart des acteurs qui produisent des systèmes de décision automatisée produisent des faux positifs importants, c’est-à-dire catégorisent des personnes indûment. Dans les systèmes bancaires par exemple, comme l’a montré une belle enquête de l’AFP et d’Algorithm Watch, certaines activités déclenchent des alertes et conduisent à qualifier les profils des clients comme problématiques voire à suspendre les possibilités bancaires d’individus ou d’organisations, sans qu’elles n’aient à rendre de compte sur ces suspensions.
Au contraire, parce qu’elles sont invitées à la vigilance face aux activités de fraude, de blanchiment d’argent ou le financement du terrorisme, elles sont encouragées à produire des faux positifs pour montrer qu’elles agissent, tout comme les organismes sociaux sont poussés à détecter de la fraude pour atteindre leurs objectifs de contrôle.
Selon les données de l’autorité qui contrôle les banques et les marchés financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermé en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont été condamnées pour ce délit.
Le problème, c’est que les organismes de calculs n’ont pas d’intérêt à corriger ces faux positifs pour les atténuer. Alors que, si ces erreurs ne sont pas un problème pour les structures qui les produisent, elles le sont pour les individus qui voient leurs comptes clôturés, sans raison et avec peu de possibilités de recours. Il est nécessaire pourtant que les taux de risques détectés restent proportionnels aux taux effectifs de condamnation, afin que les niveaux de réduction des risques ne soient pas portés par les individus.
Le même phénomène est à l’œuvre quand la CAF reconnaît que son algorithme de contrôle de fraude produit bien plus de contrôle sur certaines catégories sociales de la population, comme le montrait l’enquête du Monde et de Lighthouse reports et les travaux de l’association Changer de Cap. Mais, pour les banques, comme pour la CAF, ce surciblage, ce surdiagnostic, n’a pas d’incidence directe, au contraire…
Pour les organismes publics le taux de détection automatisée est un objectif à atteindre explique le syndicat Solidaires Finances Publiques dans son enquête sur L’IA aux impôts, qu’importe si cet objectif est défaillant pour les personnes ciblées. D’où l’importance de mettre en place un ratio d’impact sur les différents groupes démographiques et des taux de faux positifs pour limiter leur explosion. La justesse des calculs doit être améliorée.
Pour cela, il est nécessaire de mieux contrôler le taux de détection des outils et de trouver les modalités pour que ces taux ne soient pas disproportionnés. Sans cela, on le comprend, la maltraitance institutionnelle que dénonce ATD Quart Monde est en roue libre dans les systèmes, quels qu’ils soient.
Dans les difficultés, les recours sont rendus plus compliqués. Quand ces systèmes mé-calculent les gens, quand ils signalent leurs profils comme problématiques ou quand les dossiers sont mis en traitement, les possibilités de recours sont bien souvent automatiquement réduites. Le fait d’être soupçonné de problème bancaire diminue vos possibilités de recours plutôt qu’elle ne les augmente.
A la CAF, quand l’accusation de fraude est déclenchée, la procédure de recours pour les bénéficiaires devient plus complexe. Dans la plateforme dématérialisée pour les demandes de titres de séjour dont le Défenseur des droits pointait les lacunes dans un récent rapport, les usagers ne peuvent pas signaler un changement de lieu de résidence quand une demande est en cours.
Or, c’est justement quand les usagers sont confrontés à des difficultés, que la discussion devrait être rendue plus fluide, plus accessible. En réalité, c’est bien souvent l’inverse que l’on constate. Outre les explications lacunaires des services, les possibilités de recours sont réduites quand elles devraient être augmentées. L’alerte réduit les droits alors qu’elle devrait plutôt les ouvrir.
Enfin, l’interconnexion des systèmes crée des boucles de défaillances dont les effets s’amplifient très rapidement. Les boucles d’empêchements se multiplient sans issue. Les alertes et les faux positifs se répandent. L’automatisation des droits conduit à des évictions en cascade dans des systèmes où les organismes se renvoient les responsabilités sans être toujours capables d’agir sur les systèmes de calcul. Ces difficultés nécessitent de mieux faire valoir les droits d’opposition des calculés. La prise en compte d’innombrables données pour produire des calculs toujours plus granulaires, pour atténuer les risques, produit surtout des faux positifs et une complexité de plus en plus problématique pour les usagers.
Responsabiliser les calculs du socialNous avons besoin de diminuer les données utilisées pour les calculs du social, explique le chercheur Arvind Narayanan, notamment parce que cette complexité, au prétexte de mieux calculer le social, bien souvent, n’améliore pas les calculs, mais renforce leur opacité et les rend moins contestables. Les calculs du social doivent n’utiliser que peu de données, doivent rester compréhensibles, transparents, vérifiables et surtout opposables… Collecter peu de données cause moins de problèmes de vie privée, moins de problèmes légaux comme éthiques… et moins de discriminations.
Renforcer le contrôle des systèmes, notamment mesurer leur ratio d’impact et les taux de faux positifs. Améliorer les droits de recours des usagers, notamment quand ces systèmes les ciblent et les désignent. Et surtout, améliorer la participation des publics aux calculs, comme nous y invitent le récent rapport du Défenseur des droits sur la dématérialisation et les algorithmes publics.
A mesure qu’ils se répandent, à mesure qu’ils accèdent à de plus en plus de données, les risques de défaillances des calculs s’accumulent. Derrière ces défaillances, c’est la question même de la justice qui est en cause. On ne peut pas accepter que les banques ferment chaque année des centaines de milliers de comptes bancaires, quand seulement un millier de personnes sont condamnées.
On ne peut pas accepter que la CAF détermine qu’il y aurait des centaines de milliers de fraudeurs, quand dans les faits, très peu sont condamnés pour fraude. La justice nécessite que les calculs du social soient raccords avec la réalité. Nous n’y sommes pas.
Hubert Guillaud
Cet édito a été publié originellement sous forme de tribune pour le Club de Mediapart, le 4 avril 2025 à l’occasion de la publication du livre, Les algorithmes contre la société aux éditions La Fabrique.
-
7:00
L’IA est un outil de démoralisation des travailleurs
sur Dans les algorithmes« Le potentiel révolutionnaire de l’IA est d’aider les experts à appliquer leur expertise plus efficacement et plus rapidement. Mais pour que cela fonctionne, il faut des experts. Or, l’apprentissage est un processus de développement humain désordonné et non linéaire, qui résiste à l’efficacité. L’IA ne peut donc pas le remplacer », explique la sociologue Tressie McMillan Cottom dans une tribune au New York Times. « L’IA recherche des travailleurs qui prennent des décisions fondées sur leur expertise, sans institution qui crée et certifie cette expertise. Elle propose une expertise sans experts ». Pas sûr donc que cela fonctionne.
Mais, si ce fantasme – qui a traversé toutes les technologies éducatives depuis longtemps – fascine, c’est parce qu’il promet de contrôler l’apprentissage sans en payer le coût. Plus que de réduire les tâches fastidieuses, l’IA justifie les réductions d’effectifs « en demandant à ceux qui restent de faire plus avec moins ». La meilleure efficacité de l’IA, c’est de démoraliser les travailleurs, conclut la sociologue.
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
7:44
Grand Belfort immersif
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueDans sa démarche de création d’un jumeau numérique du territoire, la Communauté d’agglomération du Grand Belfort (90) a acquis des données sur l’extérieur des bâtiments. Au-delà de cette vue, elle ambitionne également de capturer l’intérieur de certains établissements publics. Le premier bâtiment bénéficiant de cette couverture est le multiaccueil « Les petits artistes » dans le quartier des Glacis du château. À l’aide du BIM mêlé à l’imagerie orientée et ArcGIS Indoors, une vue immersive est proposée. Elle permet de visiter les lieux à distance. Dans ce cas, allier le BIM et les vues immersives contribue à l’attractivité de cet établissement. C’est un outil de communication destiné aux parents de la CA. La piscine de Belfort et le théâtre Grrranit disposent aussi de leur numérisation pour des usages plus orientés sur la maintenance, le suivi des réseaux ou des travaux.
+ d'infos :
an.fr
-
7:36
De la concentration à la fusion
sur Dans les algorithmesLes acteurs de l’IA générative intègrent de plus en plus les plateformes de contenus, à l’image de xAI de Musk qui vient de racheter X/Twitter, rappelle Ameneh Dehshiri pour Tech Policy Press. « Les entreprises technologiques ne se contentent plus de construire des modèles, elles acquièrent les infrastructures et les écosystèmes qui les alimentent ». Nous sommes désormais confrontés à des écosystèmes de plus en plus intégrés et concentrés…
-
7:34
Ecrire, c’est penser
sur Dans les algorithmes« L’écriture est l’activité la plus essentielle d’un scientifique, car sans écriture, il n’y a pas de réflexion ». Dennis Hazelett
-
7:00
Pour rendre la participation effective, il faut mesurer les changements qu’elle produit
sur Dans les algorithmesPour TechPolicy Press, le consultant Jonathan van Geuns se moque de l’illusion de la participation dont s’est paré le Sommet pour l’action sur l’IA parisien. « La gouvernance de l’IA aujourd’hui n’est qu’une vaste mise en scène, un théâtre parisien où les acteurs – dirigeants d’entreprises, politiques et technocrates – déclament d’une voix posée leur discours sur la responsabilité, créant l’illusion d’une décision collective ». En réalité, les mécanismes de gouvernance restent imperméables aux voix qu’ils prétendent intégrer. Entreprises, ONG et gouvernements ont bien compris l’efficacité d’un engagement de façade. Les comités d’éthique sur l’IA, les tables rondes des parties prenantes, les forums publics ne sont pas les fondements d’une démocratie mais son simulacre. Simulacre d’inclusion où la contestation est réduite à son expression la plus polie. Ces dispositifs « créent l’illusion d’un contrôle démocratique tout en permettant à ceux qui les mettent en œuvre, de garder la mainmise sur les résultats ». Ce n’est pas de la gouvernance, seulement un décor.
Pour que les audits et les évaluations modifient réellement les rapports de force, ils doivent d’abord s’extraire du carcan d’opacité qui les enserre. « Actuellement, ces processus servent davantage à absorber qu’à transformer : ils recueillent les critiques, les diluent en rapports inoffensifs, puis les présentent comme preuve qu’une action a été menée. Ils fonctionnent comme des vitrines de l’engagement, invitant le public à admirer les mécanismes complexes de la gouvernance de l’IA tout en préservant les structures de pouvoir existantes de toute remise en cause ».
Les structures mise en place pour contester le pouvoir servent de rempart à la contestationLe problème n’est pas tant que la participation manque de force, mais que l’écosystème a été conçu pour la neutraliser, sollicitant des critiques tout en gardant le monopole de leur interprétation. « On finance des conseils consultatifs tout en se réservant le droit d’ignorer leurs recommandations. On réunit des comités d’éthique pour les dissoudre dès que ce qu’ils veulent examiner devient gênant. Ce n’est pas un échec de la participation, c’est son détournement. Les structures qui devraient être mises en place pour contester le pouvoir servent finalement de rempart contre sa contestation ».
Cette situation est d’autant plus problématique que nous manquons d’outils structurés pour évaluer si la participation à la gouvernance de l’IA est véritablement significative. On compte le nombre de « parties prenantes » consultées sans mesurer l’impact réel de leurs contributions. On comptabilise les forums organisés sans examiner s’ils ont abouti à des changements concrets. Cette focalisation sur la forme plutôt que sur le fond permet au « participation-washing » de prospérer. Un constat très proche de celui que dressaient Manon Loisel et Nicolas Rio dans leur livre, Pour en finir avec la démocratie participative (Textuel, 2024).
Changer les indicateurs de la participation : mesurer les changements qu’elle produit !Pour Jonathan van Geuns, la participation doit se doter d’un cadre plus rigoureux pour favoriser l’inclusivité, la redistribution du pouvoir, la construction de la confiance, l’impact et la pérennité. Les indicateurs doivent évoluer du procédural vers le structurel. La vraie question n’est pas de savoir si différentes parties prenantes ont été invitées à s’exprimer, « mais de savoir si leur participation a redistribué le pouvoir, modifié les processus décisionnels et engendré des changements concrets ! »
La participation ne peut se réduire à un exercice consultatif où les communautés concernées peuvent exprimer leurs inquiétudes sans avoir le pouvoir d’agir, comme nous le constations dans notre article sur l’absence de tournant participatif de l’IA. Pour van Geuns, « la participation doit être ancrée structurellement, non comme une fonction consultative mais comme une fonction souveraine », comme l’exprimait Thomas Perroud dans son livre, Services publics et communs (Le Bord de l’eau, 2023). Cela pourrait se traduire par des conseils de surveillance publique ayant un droit de veto sur les applications, des organismes de régulation où les représentants disposent d’un réel pouvoir décisionnel, et des mécanismes permettant aux groupes affectés de contester directement les décisions basées sur l’IA ou d’exiger le retrait des systèmes perpétuant des injustices.
« L’audit des systèmes d’IA ne suffit pas ; nous devons pouvoir les démanteler. Les cadres de supervision de l’IA doivent inclure des mécanismes de refus, pas uniquement de contrôle. Quand un audit révèle qu’un algorithme est structurellement discriminatoire, il doit avoir la force juridique de le désactiver. Quand un système nuit de façon disproportionnée aux travailleurs, locataires, réfugiés ou citoyens, ces communautés ne doivent pas seulement être consultées mais avoir le pouvoir d’en stopper le déploiement. La participation ne doit pas se contenter de documenter les préjudices ; elle doit les interrompre. »
En fait, estime le consultant, « la gouvernance de l’IA n’est plus simplement un terrain de contestation mais un exemple flagrant de capture par les entreprises. Les géants de la tech agissent comme des législateurs privés, élaborant les cadres éthiques qui régissent leur propre conduite. Ils prônent l’ouverture tout en protégeant jalousement leurs algorithmes, parlent d’équité tout en brevetant des biais, évoquent la sécurité tout en exportant des technologies de surveillance vers des régimes autoritaires. Dans ce contexte, tout cadre qui n’aborde pas le déséquilibre fondamental des pouvoirs dans le développement et le déploiement de l’IA n’est pas seulement inefficace ; il est complice ». Les audits et évaluations participatifs doivent donc être juridiquement contraignants et viser non seulement à diversifier les contributions mais à redistribuer le contrôle et rééquilibrer les pouvoirs.
« La gouvernance doit être continue, adaptative et structurellement résistante à l’inertie et au désintérêt, en garantissant que les communautés restent impliquées dans les décisions tout au long du cycle de vie d’un système d’IA. Cela implique également la mise en place de financements pérennes et de mandats légaux pour les structures participatives ».
« La crise de la gouvernance de l’IA ne se limite pas à des systèmes d’IA défectueux. Elle révèle la mainmise des entreprises sur les processus de gouvernance. L’enjeu n’est pas simplement d’accroître la participation, mais de s’assurer qu’elle conduise à une véritable redistribution du pouvoir. Sans cadres d’évaluation solides, mécanismes d’application clairs et remise en question fondamentale de ceux qui définissent les priorités de la gouvernance de l’IA, la participation restera une vitrine vide, conçue pour afficher une transparence et une responsabilité de façade tout en préservant les structures mêmes qui perpétuent les inégalités ».
-
7:00
La Californie contre la tarification algorithmique
sur Dans les algorithmesLes législateurs californiens viennent de proposer pas moins de 5 projets de loi contre la tarification algorithmique, … alors que celle-ci envahit tous les secteurs de l’économie numérique (voir notre dossier : Du marketing à l’économie numérique, une boucle de prédation), rapporte The Markup. Et ce alors que les témoignages sur les problèmes que posent la personnalisation des tarifs ne cessent de remonter, par exemple avec des tarifs de réservation d’hôtel qui augmentent selon le lieu d’où vous vous connectez, ou encore des tarifs pour des services de chauffeurs plus élevés pour certains clients que pour d’autres. C’est ce que montre la récente étude du chercheur Justin Kloczko pour Consumer Watchdog, une association de défense des consommateurs américains. Kloczko rappelle que si en magasin les prix étaient différents pour chacun, il y aurait des émeutes, or, sur Amazon, le prix moyen d’un produit change environ toutes les 10 minutes. Et le chercheur de défendre “un droit à des prix standardisés et des garanties contre la tarification de surveillance”. L’association de consommateurs estime que les entreprises devraient indiquer sur leurs sites si des informations personnelles sont utilisées pour déterminer les prix et lesquelles. Certaines données devraient être interdites d’utilisation, notamment la géolocalisation, l’historique d’achat et bien sûr les données personnelles…
Selon The Markup, les projets de loi sur l’IA proposés par les législateurs californiens se concentrent sur des questions de consommation courante et notamment les prix abusifs, estime Vinhcent Le qui a longtemps été à l’Agence de protection de la vie privée des consommateurs et qui vient de rejoindre l’ONG Tech Equity. Les projets de loi visent par exemple à interdire l’utilisation d’algorithmes personnalisant les prix en fonction de caractéristiques perçues ou de données personnelles ou de les utiliser pour fixer le montant des biens locatifs, ou encore des interdictions pour modifier les prix des produits en ligne par rapport à ceux vendus en magasin.
-
7:00
En thérapie… avec les chatbots
sur Dans les algorithmesMaytal Eyal est psychologue et écrivaine. Dans une tribune pour Time Magazine, elle constate que l’IA générative est en train de concurrencer son travail. De nombreuses personnes utilisent déjà les chatbots pour discuter de leurs problèmes et de leurs difficultés. Peut-être que l’IA peut contribuer à rendre la thérapie plus facilement accessible à tous, d’autant que les mauvais thérapeutes sont nombreux et que l’accès aux soins est difficile et coûteux, s’interroge-t-elle. Aux Etats-Unis, la moitié des adultes souffrant de problèmes de santé mentale ne reçoivent pas le traitement dont ils ont besoin.
En convainquant les gens que nos difficultés émotionnelles – de la tristesse au chagrin en passant par les conflits familiaux – nécessitaient une exploration professionnelle, Freud a contribué à déplacer la guérison émotionnelle de la sphère communautaire et spirituelle qui l’ont longtemps pris en charge, vers l’intimité du cabinet du thérapeute, rappelle-t-elle. “Ce qui était autrefois considéré comme des manquements moraux honteux est devenu un problème humain courant, qui pouvait être compris scientifiquement avec l’aide d’un professionnel. Mais il a également transformé la guérison en une entreprise plus solitaire, coupée des réseaux communautaires qui ont longtemps été au cœur du soutien humain”.
Dans un avenir proche, la thérapie par IA pourrait pousser le modèle individualisé de Freud à son extrême au risque que nos problèmes psychiques soient adressés sans plus aucun contact humain.
Des IA bien trop complaisantesA première vue, ce pourrait être une bonne chose. Ces thérapeutes seront moins cher et disponibles 24h/24. Les patients ressentiraient moins la peur du jugement avec des chatbots qu’avec des humains, moins de frictions donc.
Mais, c’est oublier que la friction est bien souvent au cœur de la thérapie : “C’est dans le malaise que le vrai travail commence”. Alors que les compagnons IA deviennent source de soutien émotionnel par défaut – pas seulement en tant que thérapeutes, mais aussi en tant qu’amis, confidents, complices ou partenaires amoureux, c’est-à-dire désormais ceux avec qui l’on discute et qui sont capables de répondre à nos discussions, qui nous donnent l’impression d’être au plus proche de nous et qui bien souvent nous font croire qu’ils nous connaissent mieux que quiconque – “nous risquons de devenir de plus en plus intolérants aux défis qui accompagnent les relations humaines”.
“Pourquoi lutter contre la disponibilité limitée d’un ami alors qu’une IA est toujours là ? Pourquoi gérer les critiques d’un partenaire alors qu’une IA a été formée pour offrir une validation parfaite ? Plus nous nous tournons vers ces êtres algorithmiques parfaitement à l’écoute et toujours disponibles, moins nous risquons d’avoir de la patience pour le désordre et la complexité des relations humaines réelles”.
Or, “les défis mêmes qui rendent les relations difficiles sont aussi ce qui leur donne du sens. C’est dans les moments d’inconfort, lorsque nous naviguons dans des malentendus ou que nous réparons les dégâts après un conflit, que l’intimité grandit. Ces expériences, que ce soit avec des thérapeutes, des amis ou des partenaires, nous apprennent à faire confiance et à nous connecter à un niveau plus profond. Si nous cessons de pratiquer ces compétences parce que l’IA offre une alternative plus fluide et plus pratique, nous risquons d’éroder notre capacité à nouer des relations significatives”.
“L’essor de la thérapie par l’IA ne se résume pas seulement au remplacement des thérapeutes. Il s’agit de quelque chose de bien plus vaste : la façon dont nous, en tant que société, choisissons d’interagir les uns avec les autres. Si nous adoptons l’IA sans friction au détriment de la complexité des relations humaines réelles, nous ne perdrons pas seulement le besoin de thérapeutes, nous perdrons la capacité de tolérer les erreurs et les faiblesses de nos semblables.” Le risque n’est pas que les thérapeutes deviennent obsolètes, le risque c’est que nous le devenions tous.
L’association des psychologues américains vient justement d’émettre une alerte à l’encontre des chatbots thérapeutes. Programmés pour renforcer, plutôt que de remettre en question la pensée des utilisateurs, ils pourraient inciter des personnes vulnérables à se faire du mal ou à en faire aux autres, rapporte le New York Times. Des adolescents ayant discuté avec des chatbots se présentant comme psychologues sur Character.ai se sont suicidés ou sont devenus violents. En fait, le problème de ces outils, c’est qu’ils œuvrent à nous complaire pour mieux nous manipuler. « Les robots ne remettent pas en question les croyances des utilisateurs même lorsqu’elles deviennent dangereuses pour eux ou pour leur proches, au contraire, ils les encouragent ». Si les entreprises ont introduit des alertes pour rappeler aux utilisateurs qu’ils n’interagissent pas avec de vrais psychologues, ces avertissements ne sont pas suffisants pour briser “l’illusion de la connexion humaine”. L’association a demandé à la Federal Trade Commission d’ouvrir une enquête sur ces chatbots. Du côté des entreprises d’IA, le discours consiste à dire que les outils vont s’améliorer et que compte tenu de la grave pénurie de prestataires de soins de santé mentale, il est nécessaire d’améliorer les outils plutôt que de les contenir. Mais cette réponse en forme de promesse ne dit rien ni des limites intrinsèques de ces machines, ni du contexte de leurs déploiement, ni de la manière dont on les conçoit.
Comme nous le disions, la qualité des systèmes et de leurs réponses ne suffit pas à les évaluer : “l’état du système de santé, ses défaillances, ses coûts, la disponibilité du personnel… sont autant de facteurs qui vont appuyer sur les choix à recourir et à déployer les outils, mêmes imparfaits”. Et les outils apportent avec eux leur monde, comme l’explique la chercheuse Livia Garofalo. Garofalo a publié une étude pour Data & Society sur la téléthérapie et les soins de santé mentale. Elle revient pour le magazine de l’Association psychanalytique américaine sur les enjeux des transformations du travail à distance qui s’est beaucoup développée depuis la pandémie. Outre les consultations sur Zoom ou Doxy.me, les plateformes comme BetterHelp ou Talkspace redéfinissent les soins de santé mentale à distance. Mais ces plateformes ne font pas que mettre en relation un patient et un thérapeute, elles gèrent aussi les planning, les paiements, les messages, les remboursements… Malgré leur commodité, pour les thérapeutes, ces espaces de travail ressemblent beaucoup à une ubérisation, comme la connaissent les infirmières. Car en fait, ce qui change, ce n’est pas la distance. La chercheuse Hannah Zeavin dans son livre, The Distance Cure (MIT Press, 2021) a d’ailleurs montré que depuis le début de la psychanalyse, des formes de thérapies à distance ont toujours existé, par exemple via l’imposante correspondance épistolaire de Freud avec ses patients. Ce qui change, c’est la prise de pouvoir des plateformes qui organisent la relation, imposent des tarifs et renforcent les inégalités d’accès au soin, en s’adressant d’abord aux thérapeutes débutants, aux femmes, aux professionnels de couleurs, c’est-à-dire aux thérapeutes dont la clientèle est plus difficile à construire. Enfin, là aussi, la plateformisation change la relation, notamment en rendant les professionnels disponibles en continu, interchangeables, et brouille les frontières cliniques et personnelles.
Pour des IA qui nous reconnectent avec des humains plutôt qu’elles ne nous en éloignentL’illusion qu’ils nous donnent en nous faisant croire qu’on parle à quelqu’un se révèle bien souvent un piège. C’est ce que l’on constate dans un tout autre domaine, celui de l’orientation scolaire. Aux Etats-Unis, raconte The Markup. “Plus les étudiants se tournent vers les chatbots, moins ils ont de chances de développer des relations réelles qui peuvent mener à des emplois et à la réussite.” Comme les conseillers d’orientation scolaires et conseillers pour l’emploi des jeunes sont très peu nombreux, un flot de chatbots d’orientation est venu combler ce déficit humain. Le problème, c’est qu’y avoir recours érode la création de liens sociaux qui aident bien plus les jeunes à trouver une orientation ou un emploi, estime une étude du Christensen Institute.
En août, dans son document détaillant les risques et problèmes de sécurité pour ChatGPT, OpenAI énumérait les problèmes sociétaux que posent ses modèles et pointait que les questions de l’anthropomorphisation et la dépendance émotionnelle étaient en tête de liste des préoccupations auxquelles l’entreprise souhaitait s’attaquer. L’anthorpormophisation, c’est-à-dire le fait que ces boîtes de dialogues nous parlent comme si elles étaient humaines, créent “à la fois une expérience produit convaincante et un potentiel de dépendance et de surdépendance”. En bref, à mesure que la technologie s’améliore, les risques psychosociaux s’aggravent, comme le souligne d’ailleurs l’étude que viennent de publier le MIT et OpenAI. Pour Julia Fisher, auteure de l’étude du Christensen Institute, il faut que ces robots soient conçus pour nous reconnecter aux humains plutôt que de nous en écarter, explique-t-elle dans une tribune pour The74, l’une des grandes associations éducatives américaines.
Elle pointe notamment que les fournisseurs de chatbots d’orientation commencent à prendre la question au sérieux et tentent d’esquisser des solutions pour y répondre. Par exemple en limitant le temps d’interaction ou en faisant que les robots conseillent à ceux qui y ont recours, fréquemment, de voir des amis. Un autre outil demande aux étudiants qui s’inscrivent d’indiquer 5 relations qui seront alertées des progrès des étudiants à l’université pour qu’ils reçoivent un soutien humain réel. Un autre propose de connecter les étudiants à des mentors humains. Un autre encore propose de s’entraîner à demander de l’aide à des humains. Autant d’exemples qui montrent que l’IA peut jouer un rôle pour renforcer les liens humains. “Cependant, les incitations à créer des outils d’IA centrés sur les relations sont faibles. Peu d’écoles demandent ces fonctionnalités sociales ou évaluent les outils pour leurs impacts sociaux”, rappelle Fisher. Ceux qui achètent ces technologies devraient exiger des systèmes qu’ils améliorent les relations humaines plutôt que de les remplacer.
Mais pour cela, encore faudrait-il que ses systèmes soient conçus pour être moins puissants que ses concepteurs ne le pensent. En nous répétant qu’ils ne s’amélioreront qu’avec plus de données, nous oublions de les concevoir pour qu’ils nous aident plutôt qu’ils ne fassent à notre place ou à la place d’autres humains. Il serait temps d’arrêter de croire en leur puissance et de mieux prendre en compte leurs défaillances et plus encore les nôtres. Par exemple, quand un élève leur demande de faire leur dissertation à leur place, ces systèmes seraient bien plus utiles s’ils les aidaient à la faire, à en comprendre les étapes et les raisons, et exigeaient d’eux le travail qu’on leur demande, en les guidant pour le réaliser, plutôt qu’en le faisant à leur place. Mais pour cela, peut-être faudrait-il parvenir à sortir de la course à la puissance… et parvenir à imaginer un autre rapport à ces outils en faisant de manière à ce qu’eux-mêmes, nous proposent un autre rapport à leur puissance.
-
19:30
Tissu commercial
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa Ville de Namur a publié son nouvel annuaire cartographique et Open data des commerces namurois. Il rend disponibles à la consultation et au téléchargement les données de 2.000 établissements. Restaurants, boulangeries, coiffeurs, serruriers, fleuristes... Les onze typologies d’activité sont triées par catégorie, sous-activité et couleur. La recherche peut se faire par rue et par localité. De nombreux graphiques et filtres par quartier, type d’activité et superficie aident à comprendre et analyser la dynamique commerciale. Les surfaces sont classées en six fourchettes, de moins de 50 m2 à 2.500 m2 et plus. Elle propose aussi d’identifier un espace disponible optimal, via l’onglet « Cellule disponible », pour ouvrir son futur commerce. À ce jour, sur 2.159 emplacements commerciaux, 233 sont disponibles sur le marché. Chaque établissement dispose de sa fiche de contact avec des liens utiles.
+ d'infos :
sig.ville.namur.be
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
7:00
L’IA raisonne-t-elle ?
sur Dans les algorithmesMelanie Mitchell est certainement la plus pédagogue des spécialistes de l’IA. Son livre, Intelligence artificielle, triomphes et déceptions (Dunod, 2021) est une excellente ressource pour comprendre l’histoire et le fonctionnement de l’IA, tout comme sa newsletter. Dans sa récente chronique pour le magazine, Science, elle revient sur la capacité de l’IA à “raisonner”. Pour cela, elle prend un petit exemple logique simple. “Julia a deux sœurs et un frère. Combien de sœurs son frère Martin a-t-il ?”. Le résoudre demande à chacun de nous quelques secondes d’attention. Mitchell a soumis cette énigme à plusieurs reprises à la version la plus récente de GPT-4 (4o), qui lui a donné la mauvaise réponse à chaque fois, affirmant que Martin avait deux sœurs. Pour remédier à ce type de problème, les grandes entreprises de l’IA développent de nouveaux systèmes qu’elles appellent les Grands modèles de raisonnement (Large reasoning models, LRM).
Quand on soumet cet exemple logique à un LRM, comme les modèles o1 et o3 d’OpenAI, Claude d’Anthropic, Gemini 2.0 Flash Thinking Experimental de Google et le modèle R1 de l’entreprise chinoise DeepSeek… ces modèles déploient une chaîne de pensée qui énoncent un processus de raisonnement apparemment plausible. o1 d’OpenAI décompose sa réponse : “1. Julia a deux sœurs. Cela signifie qu’il y a trois filles au total (Julia + deux autres). 2. Julia a également un frère, prénommé Martin. 3. Au total, il y a quatre frères et sœurs : trois filles et un garçon (Martin). 4. Du point de vue de Martin, ses sœurs sont toutes les trois des filles (Julia et ses deux sœurs). 5. Martin a donc trois sœurs.”… Ce qui ressemble beaucoup à un raisonnement humain que chacun d’entre nous pourrait tenir pour résoudre l’énigme. On comprend alors que ces modèles soient en train de devenir le corps de l’offre commerciale des entreprises d’IA… Reste à savoir si ces modèles “réfléchissent et raisonnent vraiment, ou s’ils font juste semblant” ?
Mitchell rappelle que les LRM sont construits sur des LLM. Les LLM sont pré-entraînés pour prédire une partie de mots (un token ou jeton) dans une séquence de texte. Pour devenir LRM, “le modèle est ensuite post-entraîné, c’est-à-dire entraîné davantage, mais avec un objectif différent : générer spécifiquement des chaînes de pensée, comme celle générée par o1 pour l’énigme des “sœurs”. Après cette formation spéciale, lorsqu’un problème lui est posé, le LRM ne génère pas de jetons un par un mais génère des chaînes entières”. Pour le dire autrement, les LRM effectuent beaucoup plus de calculs qu’un LLM pour générer une réponse. D’où le fait qu’on parle d’un progrès par force brute, par puissance de calcul, avec des systèmes capables de tester en parallèle des milliers de réponses pour les améliorer. “Ce calcul peut impliquer la génération de nombreuses chaînes de réponses possibles, l’utilisation d’un autre modèle d’IA pour évaluer chacune d’elles et renvoyer celle la mieux notée, ou une recherche plus sophistiquée parmi les possibilités, semblable à la recherche par anticipation que les programmes de jeu d’échecs ou de go effectuent pour déterminer le bon coup”. Quand on utilise un modèle de raisonnement, l’utilisateur ne voit que les résultats de calculs démultipliés. Ces modèles qui fonctionnent surtout selon la méthode d’apprentissage par renforcement non supervisé sont récompensés quand ils produisent les étapes de raisonnement dans un format lisible par un humain, lui permettant de délaisser les étapes qui ne fonctionnent pas, de celles qui fonctionnent.
Un débat important au sein de la communauté rappelle Mitchell consiste à savoir si les LRM raisonnent ou imitent le raisonnement. La philosophe Shannon Valor a qualifié les processus de chaîne de pensée des LRM de “sorte de méta-mimétisme”. Pour Mitchell, ces systèmes génèrent des traces de raisonnement apparemment plausibles qui imitent les séquences de “pensée à voix haute” humaines sur lesquelles ils ont été entraînés, mais ne permettent pas nécessairement une résolution de problèmes robuste et générale. Selon elle, c’est le terme de raisonnement qui nous induit en erreur. Si les performances de ces modèles sont impressionnantes, la robustesse globale de leurs performances reste largement non testée, notamment pour les tâches de raisonnement qui n’ont pas de réponses claires ou d’étapes de solution clairement définies, ce qui est le cas de nombreux problèmes du monde réel.
De nombreuses études ont montré que lorsque les LLM génèrent des explications sur leurs raisonnement, celles-ci ne sont pas toujours fidèles à ce que le modèle fait réellement. Le langage anthropomorphique (puisqu’on parle de “raisonnement”, de “pensées”…) utilisé induit les utilisateurs en erreur et peut les amener à accorder une confiance excessive dans les résultats. Les réponses de ces modèles ont surtout pour effet de renforcer la confiance des utilisateurs dans les réponses, constate OpenAI. Mais la question d’évaluer leur fiabilité et leur robustesse reste entière.
-
7:00
Apprêtez-vous à parler aux robots !
sur Dans les algorithmesGoogle vient de lancer Gemini Robotics, une adaptation de son modèle d’IA générative à la robotique (vidéo promotionnelle), permettant de commander un bras robotique par la voix, via une invite naturelle, son IA décomposant la commande pour la rendre exécutable par le robot, rapporte la Technology Review. L’année dernière, la start-up de robotique Figure avait publié une vidéo dans laquelle des humains donnaient des instructions vocales à un robot humanoïde pour ranger la vaisselle. Covariant, une spinoff d’OpenAI rachetée par Amazon, avait également fait une démonstration d’un bras robotisé qui pouvait apprendre en montrant au robot les tâches à effectuer (voir l’article de la Tech Review). Agility Robotics propose également un robot humanoïde sur le modèle de Figure. Pour Google, l’enjeu est « d’ouvrir la voie à des robots bien plus utiles et nécessitant une formation moins poussée pour chaque tâche », explique un autre article. L’enjeu est bien sûr que ces modèles s’améliorent par l’entraînement de nombreux robots.
-
7:00
Doctorow : rendre l’interopérabilité contraignante
sur Dans les algorithmesVoilà des années que Cory Doctorow traverse les enjeux des technologies. En France, il est surtout connu pour ses romans de science-fiction, dont quelques titres ont été traduits (Le grand abandon, Bragelonne, 2021 ; De beaux et grands lendemains, Goater, 2018, Little Brother, éditions 12-21, 2012 ; Dans la dèche au royaume enchanté, Folio, 2008). Cela explique que beaucoup connaissent moins le journaliste et militant prolixe, qui de Boing Boing (le blog qu’il a animé pendant 20 ans) à Pluralistic (le blog personnel qu’il anime depuis 5 ans), de Creative Commons à l’Electronic Frontier Foundation, dissémine ses prises de positions engagées et informées depuis toujours, quasiment quotidiennement et ce avec un ton mordant qui fait le sel de ses prises de paroles. Depuis des années, régulièrement, quelques-unes de ses prises de position parviennent jusqu’à nous, via quelques entretiens disséminés dans la presse française ou quelques traductions de certaines de ses tribunes. D’où l’importance du Rapt d’Internet (C&F éditions, 2025, traduction de The internet con, publié en 2023 chez Verso), qui donne enfin à lire un essai du grand activiste des libertés numériques.
On retrouve dans ce livre à la fois le ton volontaire et énergisant de Doctorow, mais aussi son côté brouillon, qui permet bien souvent de nous emmener plus loin que là où l’on s’attendait à aller. Dans son livre, Doctorow explique le fonctionnement des technologies comme nul autre, sans jamais se tromper de cible. Le défi auquel nous sommes confrontés n’est pas de nous débarrasser des technologies, mais bien de combattre la forme particulière qu’elles ont fini par prendre : leur concentration. Nous devons œuvrer à remettre la technologie au service de ceux qui l’utilisent, plaide-t-il depuis toujours. Pour cela, Doctorow s’en prend aux monopoles, au renforcement du droit d’auteur, au recul de la régulation… pour nous aider à trouver les leviers pour reprendre en main les moyens de production numérique.
En GuerreVoilà longtemps que Cory Doctorow est en guerre. Et le principal ennemi de Doctorow c’est la concentration. Doctorow est le pourfendeur des monopoles quels qu’ils soient et des abus de position dominantes. A l’heure où les marchés n’ont jamais autant été concentrés, le militant nous rappelle les outils que nous avons à notre disposition pour défaire cette concentration. “La réforme de la tech n’est pas un problème plus pressant qu’un autre. Mais si nous ne réformons pas la tech, nous pouvons abandonner l’idée de remporter d’autres combats”, prévient-il. Car la technologie est désormais devenue le bras armé de la concentration financière, le moyen de l’appliquer et de la renforcer. Le moyen de créer des marchés fermés, où les utilisateurs sont captifs et malheureux.
Pour résoudre le problème, Doctorow prône l’interopérabilité. Pour lui, l’interopérabilité n’est pas qu’un moyen pour disséminer les technologies, mais un levier pour réduire les monopoles. L’interopérabilité est le moyen “pour rendre les Big Tech plus petites”. Pour Doctorow, la technologie et notamment les technologies numériques, restent le meilleur moyen pour nous défendre, pour former et coordonner nos oppositions, nos revendications, nos luttes. “Si nous ne pouvons nous réapproprier les moyens de production du numérique, nous aurons perdu”.
Cory Doctorow est un militant aguerri. En historien des déploiements de la tech, son livre rappelle les combats technologiques que nous avons remportés et ceux que nous avons perdus, car ils permettent de comprendre la situation où nous sommes. Il nous rappelle comme nul autre, l’histoire du web avant le web et décrypte les manœuvres des grands acteurs du secteur pour nous enfermer dans leurs rets, qui ont toujours plus cherché à punir et retenir les utilisateurs dans leurs services qu’à leur fournir un service de qualité. Nous sommes coincés entre des “maniaques de la surveillance” et des “maniaques du contrôle”. “Toutes les mesures prises par les responsables politiques pour freiner les grandes entreprises technologiques n’ont fait que cimenter la domination d’une poignée d’entreprises véreuses”. La régulation a produit le contraire de ce qu’elle voulait accomplir. Elle a pavé le chemin des grandes entreprises technologiques, au détriment de la concurrence et de la liberté des usagers.
Police sans justiceEn revenant aux racines du déploiement des réseaux des années 90 et 2000, Doctorow nous montre que l’obsession au contrôle, à la surveillance et au profit, ont conduit les entreprises à ne jamais cesser d’œuvrer contre ce qui pouvait les gêner : l’interopérabilité. En imposant par exemple la notification et retrait pour modérer les infractions au copyright, les grandes entreprises se sont dotées d’une procédure qui leur permet tous les abus et face auxquelles les utilisateurs sont sans recours. En leur confiant la police des réseaux, nous avons oublié de confier la justice à quelqu’un. Dans les filtres automatiques des contenus pour le copyright, on retrouve les mêmes abus que dans tous les autres systèmes : des faux positifs en pagaille et des applications strictes au détriment des droits d’usage. En fait, les grandes entreprises de la tech, comme les titulaires des droits, tirent avantage des défaillances et des approximations de leurs outils de filtrage. Par exemple, rappelle Doctorow, il est devenu impossible pour les enseignants ou interprètes de musique classique de gagner leur vie en ligne, car leurs vidéos sont systématiquement bloquées ou leurs revenus publicitaires captés par les maisons de disques qui publient des interprétations de Bach, Beethoven ou Mozart. L’application automatisée de suppression des contenus terroristes conduit à la suppression automatisée des archives de violations des droits humains des ONG. Pour Doctorow, nous devons choisir : “Soit nous réduisons la taille des entreprises de la Tech, soit nous les rendons responsables des actions de leurs utilisateurs”. Cela fait trop longtemps que nous leur faisons confiance pour qu’elles s’améliorent, sans succès. Passons donc à un objectif qui aura plus d’effets : œuvrons à en réduire la taille !, recommande Doctorow.
L’interopérabilité d’abordPour y parvenir, l’interopérabilité est notre meilleur levier d’action. Que ce soit l’interopérabilité coopérative, celle qui permet de construire des normes qui régulent le monde moderne. Ou que ce soit l’interopérabilité adverse. Doctorow s’énerve légitimement contre toutes les entreprises qui tentent de protéger leurs modèles d’affaires par le blocage, à l’image des marchands d’imprimantes qui vous empêchent de mettre l’encre de votre choix dans vos machines ou des vendeurs d’objets qui introduisent des codes de verrouillages pour limiter la réparation ou l’usage (qu’on retrouve jusque chez les vendeurs de fauteuils roulants !). Ces verrous ont pourtant été renforcés par des lois qui punissent de prison et de lourdes amendes ceux qui voudraient les contourner. L’interopérabilité est désormais partout entravée, bien plus encore par le droit que par la technique.
Doctorow propose donc de faire machine avant. Nous devons imposer l’interopérabilité partout, ouvrir les infrastructures, imposer des protocoles et des normes. Cela suppose néanmoins de lutter contre les possibilités de triche dont disposent les Big Tech. Pour cela, il faut ouvrir le droit à la rétro-ingénierie, c’est-à-dire à l’interopérabilité adverse (ou compatibilité concurrentielle). Favoriser la “fédération” pour favoriser l’interconnexion, comme les services d’emails savent échanger des messages entre eux. Doctorow défend la modération communautaire et fédérée, selon les règles que chacun souhaite se donner. Pour lui, il nous faut également favoriser la concurrence et empêcher le rachat d’entreprises concurrentes, comme quand Facebook a racheté Instagram ou WhatsApp, qui a permis aux Big Techs de construire des empires toujours plus puissants. Nous devons nous défendre des seigneuries du web, car ce ne sont pas elles qui nous défendront contre leurs politiques. Sous prétexte d’assurer notre protection, bien souvent, elles ne cherchent qu’à maximiser les revenus qu’elles tirent de leurs utilisateurs.
L’interopérabilité partoutLe livre de Doctorow fourmille d’exemples sur les pratiques problématiques des Big Tech. Par exemple, sur le fait qu’elles ne proposent aucune portabilité de leurs messageries, alors qu’elles vous proposent toujours d’importer vos carnets d’adresse. Il déborde de recommandations politiques, comme la défense du chiffrement des données ou du droit à la réparabilité, et ne cesse de dénoncer le fait que les régulateurs s’appuient bien trop sur les Big Tech pour produire de la réglementation à leur avantage, que sur leurs plus petits concurrents. Nous devons rendre l’interopérabilité contraignante, explique-t-il, par exemple en la rendant obligatoire dans les passations de marchés publics et en les obligeant à l’interopérabilité adverse, par exemple en faisant que les voitures des flottes publiques puissent être réparables par tous, ou en interdisant les accords de non-concurrence. “Les questions de monopole technologique ne sont pas intrinsèquement plus importantes que, disons, l’urgence climatique ou les discriminations sexuelles et raciales. Mais la tech – une tech libre, juste et ouverte – est une condition sine qua non pour remporter les autres luttes. Une victoire dans la lutte pour une meilleure tech ne résoudra pas ces autres problèmes, mais une défaite annihilerait tout espoir de remporter ces luttes plus importantes”. L’interopérabilité est notre seul espoir pour défaire les empires de la tech.
Le verrouillage des utilisateurs est l’un des nœuds du problème techno actuel, expliquait-il récemment sur son excellent blog, et la solution pour y remédier, c’est encore et toujours l’interopérabilité. Ces services ne sont pas problématiques parce qu’ils sont détenus par des entreprises à la recherche de profits, mais bien parce qu’elles ont éliminé la concurrence pour cela. C’est la disparition des contraintes réglementaires qui produit « l’emmerdification », assure-t-il, d’un terme qui est entré en résonance avec le cynisme actuel des plateformes pour décrire les problèmes qu’elles produisent. Zuckerberg ou Musk ne sont pas plus diaboliques aujourd’hui qu’hier, ils sont juste plus libres de contraintes. « Pour arrêter l’emmerdification, il n’est pas nécessaire d’éliminer la recherche du profit – il faut seulement rendre l’emmerdification non rentable ». Et Doctorow de nous inviter à exploiter les divisions du capitalisme. Nous ne devons pas mettre toutes les entreprises à but lucratif dans le même panier, mais distinguer celles qui produisent des monopoles et celles qui souhaitent la concurrence. Ce sont les verrous que mettent en place les plateformes en s’accaparant les protocoles que nous devons abattre. Quand Audrey Lorde a écrit que les outils du maître ne démantèleront jamais la maison du maître, elle avait tort, s’énerve-t-il. « Il n’y a pas d’outils mieux adaptés pour procéder à un démantèlement ordonné d’une structure que les outils qui l’ont construite ».
Cet essai est une chance. Il va permettre à beaucoup d’entre nous de découvrir Cory Doctorow, de réfléchir avec lui, dans un livre joyeusement bordélique, mais qui sait comme nul autre relier l’essentiel et le décortiquer d’exemples toujours édifiants. Depuis plus de 20 ans, le discours de Doctorow est tout à fait cohérent. Il est temps que nous écoutions un peu plus !
La couverture du Rapt d’internet de Cory Doctorow.
Cette lecture a été publiée originellement pour la lettre du Conseil national du numérique du 21 mars 2025.
-
7:00
Le ChatGPT des machines-outils
sur Dans les algorithmesLes machines-outils à commandes numériques sont des outils complexes et fragiles, qui nécessitent des réglages, des tests et une surveillance constante. Microsoft travaille à développer une gamme de produits d’IA dédiée, des “Agents d’exploitation d’usine”, rapporte Wired. L’idée, c’est que l’ouvrier qui est confronté à une machine puisse interroger le système pour comprendre par exemple pourquoi les pièces qu’elle produit ont un taux de défaut plus élevé et que le modèle puisse répondre précisément depuis les données provenant de l’ensemble du processus de fabrication. Malgré son nom, le chatbot n’a pas la possibilité de corriger les choses. Interconnecté à toutes les machines outils, il permet de comparer les pannes et erreurs pour améliorer ses réponses. Microsoft n’est pas le seul à l’oeuvre. Google propose également un Manufacturing Data engine.
Mais, bien plus qu’un enjeu de réponses, ces nouvelles promesses semblent surtout permettre aux entreprises qui les proposent un nouveau pouvoir : prendre la main sur l’interconnexion des machines à la place de leurs fabricants.
-
7:00
Vectofascisme
sur Dans les algorithmesDans son passionnant journal, qu’il produit depuis plus de 10 ans, l’artiste Gregory Chatonsky tient le carnet d’une riche réflexion de notre rapport aux technologies. Récemment, il proposait de parler de vectofascisme plutôt que de technofascisme, en livrant une explication et une démonstration passionnante qui nous montre que ce nouveau fascisme n’est pas une résurgence du fascisme du XXe siècle, mais bien une « transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce ». Tribune.
Comme annoncé par Vilèm Flusser nous sommes entrés dans l’ère post-alphabétique. Les appareils nous programment désormais autant que nous ne les programmons. Dans cet univers techno-imaginal où l’ensemble de nos facultés sont traversées par les technologies, la question du fascisme se pose différemment. Qualifier un phénomène contemporain de “fasciste” n’est ni un simple détournement sémantique ni une exactitude historique. C’est plutôt reconnaître une certaine disposition affective qui traverse le socius, un réarrangement des intensités désirantes sous de nouvelles conditions techniques.
Le second mandat Trump n’est pas un “retour” au fascisme – comme si l’histoire suivait un schéma circulaire – mais une réémergence fracturée dans un champ techno-affectif radicalement distinct. Le préfixe “vecto-”, hérité de Wark McKenzie, indique précisément cette transformation : nous ne sommes plus dans une politique des masses mais dans une politique des vecteurs, des lignes de force et des intensités directionnelles qui traversent et constituent le corps social algorithmisé.
Même parler de “masses” serait encore nostalgique, un concept résiduel d’une époque où la densité physique manifestait le politique. Aujourd’hui, la densité s’exprime en termes d’attention agrégée, de micro-impulsions synchronisées algorithmiquement en l’absence de toute proximité corporelle. Les corps n’ont plus besoin de se toucher pour former une force politique ; il suffit que leurs données se touchent dans l’espace latent des serveurs. Cette dématérialisation n’est pas une disparition du corps mais sa redistribution dans une nouvelle géographie computationnelle qui reconfigure les coordonnées mêmes du politique. D’ailleurs, quand ces corps se mobilisent physiquement c’est grâce au réseau.
Dans cette recomposition du champ social, les catégories politiques héritées perdent leur efficacité descriptive. Ce n’est pas que les mots “fascisme” ou “démocratie” soient simplement désuets, c’est que les phénomènes qu’ils désignaient ont subi une mutation qui nécessite non pas simplement de nouveaux mots, mais une nouvelle grammaire politique. Le préfixe “vecto-” n’est pas un ornement conceptuel, mais l’indicateur d’une transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce.
DéfinitionsFascisme historique : Mouvement politique né dans l’entre-deux-guerres, principalement en Italie et en Allemagne, caractérisé par un nationalisme exacerbé, un culte du chef, un rejet des institutions démocratiques, une mobilisation des masses et une violence politique institutionnalisée.
Néofascisme : Adaptation contemporaine de certaines caractéristiques du fascisme historique à un contexte sociopolitique différent, préservant certains éléments idéologiques fondamentaux tout en les reformulant.
Vectofascisme : Néologisme désignant une forme contemporaine de fascisme qui s’adapte aux moyens de communication et aux structures sociales de l’ère numérique, caractérisée par la vectorisation (direction, intensité, propagation) de l’information et du pouvoir à l’ère de l’IA.
Des masses aux vecteurs
Le fascisme historique appartenait encore à l’univers de l’écriture linéaire et de la première vague industrielle. Les machines fascistes étaient des machines à produire des gestes coordonnés dans l’espace physique. Le corps collectif s’exprimait à travers des parades uniformisées, des bras tendus à l’unisson, un flux énergétique directement observable.
Le vectofascisme appartient à l’univers post-alphabétique des appareils computationnels. Ce n’est plus un système d’inscription mais un système de calcul. Là où le fascisme classique opérait par inscription idéologique sur les corps, le vectofascisme opère par modulation algorithmique des flux d’attention et d’affect. Les appareils qui le constituent ne sont pas des méga-haut-parleurs mais des micro-ciblages.
L’image technique fasciste était monumentale, visible de tous, univoque ; l’image technique vectofasciste est personnalisée, multiple, apparemment unique pour chaque regardeur. Mais cette multiplication des images n’est pas libératrice ; elle est calculée par un méta-programme qui demeure invisible. L’apparence de multiplicité masque l’unité fondamentale du programme.
Cette transformation ne signifie pas simplement une numérisation du fascisme, comme si le numérique n’était qu’un nouveau support pour d’anciennes pratiques politiques. Il s’agit d’une mutation du politique lui-même. Les foules uniformes des rassemblements fascistes opéraient encore dans l’espace euclidien tridimensionnel ; le vectofascisme opère dans un hyperespace de n-dimensions où la notion même de “rassemblement” devient obsolète. Ce qui se rassemble, ce ne sont plus des corps dans un stade mais des données dans un espace vectoriel.
Ce passage d’une politique de la présence physique à une politique de la vectorisation informationnelle transforme également la nature même du pouvoir. Le pouvoir fasciste traditionnel s’exerçait par la disciplinarisation visible des corps, l’imposition d’une orthopédie sociale directement inscrite dans la matérialité des gestes grâce au Parti unique. Le pouvoir vectofasciste s’exerce par la modulation invisible des affects, une orthopédie cognitive qui ne s’applique plus aux muscles mais aux synapses, qui ne vise plus à standardiser les mouvements mais à orienter les impulsions. Le Parti ou toutes formes d’organisation sociale n’ont plus de pertinence.
Dans ce régime, l’ancien binôme fasciste ordre/désordre est remplacé par le binôme signal/bruit. Il ne s’agit plus de produire un ordre visible contre le désordre des masses indisciplinées, mais d’amplifier certains signaux et d’atténuer d’autres, de moduler le rapport signal/bruit dans l’écosystème informationnel global. Ce passage du paradigme disciplinaire au paradigme modulatoire constitue peut-être la rupture fondamentale qui justifie le préfixe “vecto-“.
Analysons 3 caractéristiques permettant de justifier l’usage du mot fasciste dans notre concept:
Le culte du chefLe fascisme historique a institutionnalisé le culte de la personnalité à un degré sans précédent. Le Duce ou le Führer n’étaient pas simplement des dirigeants, mais des incarnations quasi-mystiques de la volonté nationale. Cette relation entre le chef et ses partisans transcendait la simple adhésion politique pour atteindre une dimension presque religieuse.
Cette caractéristique se manifeste aujourd’hui par la dévotion inconditionnelle de certains partisans envers leur leader, résistant à toute contradiction factuelle. L’attachement émotionnel prime sur l’évaluation rationnelle des politiques. Le slogan “Trump can do no wrong” illustre parfaitement cette suspension du jugement critique au profit d’une confiance absolue.
La démocratie, par essence, suppose une vigilance critique des citoyens envers leurs dirigeants. La défiance par rapport aux dirigeants est un signe du bon fonctionnement de la démocratie en tant que les citoyens restent autonomes. La substitution de cette autonomie par une allégeance inconditionnelle constitue donc une régression anti-démocratique significative.
La dissolution du rapport à la véritéLe rapport du discours fasciste à la vérité constitue un élément particulièrement distinctif. Contrairement à d’autres idéologies qui proposent une vision alternative mais cohérente du monde, le fascisme entretient un rapport instrumental et flexible avec la vérité. La contradiction n’est pas perçue comme un problème logique mais comme une démonstration de puissance.
Le “logos” fasciste vaut moins pour son contenu sémantique que pour son intensité affective et sa capacité à mobiliser les masses. Cette caractéristique se retrouve dans la communication politique contemporaine qualifiée de “post-vérité”, où l’impact émotionnel prime sur la véracité factuelle.
L’incohérence apparente de certains discours politiques actuels n’est pas un défaut mais une fonctionnalité : elle démontre l’affranchissement du leader des contraintes communes de la cohérence et de la vérification factuelle. Le mépris des “fake news” et des “faits alternatifs” participe de cette logique où la puissance d’affirmation l’emporte sur la démonstration rationnelle.
La désignation de boucs émissairesLa troisième caractéristique fondamentale réside dans la désignation systématique d’ennemis intérieurs, généralement issus de minorités, qui sont présentés comme responsables des difficultés nationales.
Cette stratégie remplit une double fonction : elle détourne l’attention des contradictions structurelles du système économique (servant ainsi les intérêts du grand capital) et fournit une explication simple à des problèmes complexes. La stigmatisation des minorités – qu’elles soient ethniques, religieuses ou sexuelles – crée une cohésion nationale négative, fondée sur l’opposition à un “autre” intérieur.
Dans le contexte contemporain, cette logique s’observe dans la rhétorique anti-immigration, la stigmatisation des communautés musulmanes ou certains discours sur les minorités sexuelles présentées comme menaçant l’identité nationale. La création d’un antagonisme artificiel entre un “peuple authentique” et des éléments présentés comme “parasitaires” constitue une continuité frappante avec les fascismes historiques.
L’industrialisation du différendLe fascisme historique s’inscrivait encore – même perversement – dans le grand récit de l’émancipation moderne. C’était une pathologie de la modernité, mais qui parlait son langage : progrès, renouveau, pureté, accomplissement historique. Le vectofascisme s’épanouit précisément dans la fin des grands récits, dans l’incrédulité et le soupçon.
En l’absence de métarécits, le différend politique devient inexprimable. Comment articuler une résistance quand les règles mêmes du discours sont constamment reconfigurées ? Le vectofascisme n’a pas besoin de nier la légitimité de l’opposition ; il peut simplement la rendre inaudible en recalibrant perpétuellement les conditions même de l’audibilité : c’est une politique à haute fréquence comme quand on parle de spéculation à haute fréquence.
On pourrait définir le vectofascisme comme une machine à produire des différends indécidables – non pas des conflits d’interprétation, mais des situations où les phrases elles-mêmes appartiennent à des régimes hétérogènes dont aucun n’a autorité pour juger les autres. La phrase vectofasciste n’est pas contredite dans son régime, elle crée un régime où la contradiction n’a plus cours.
La notion lyotardienne de différend prend ici une dimension algorithmique. Le différend classique désignait l’impossibilité de trancher entre deux discours relevant de régimes de phrases incommensurables. Le différend algorithmique va plus loin : il produit activement cette incommensurabilité par manipulation ciblée des environnements informationnels. Ce n’est plus simplement qu’aucun tribunal n’existe pour trancher entre deux régimes de phrases ; c’est que les algorithmes créent des régimes de phrases sur mesure pour chaque nœud du réseau, rendant impossible même la conscience de l’existence d’un différend.
Cette fragmentation algorithmique des univers discursifs constitue une rupture radicale avec la sphère publique bourgeoise moderne, qui présupposait au moins théoriquement un espace discursif commun où différentes positions pouvaient s’affronter selon des règles partagées. Le vectofascisme n’a pas besoin de censurer l’opposition ; il lui suffit de s’assurer que les univers discursifs sont suffisamment distincts pour que même l’identification d’une opposition commune devienne impossible.
Cette incapacité à formuler un différend commun empêche la constitution d’un “nous” politique cohérent face au pouvoir. Chaque nœud du réseau perçoit un pouvoir légèrement différent, contre lequel il formule des griefs légèrement différents, qui trouvent écho dans des communautés de résistance légèrement différentes. Cette micro-différenciation des perceptions du pouvoir et des résistances assure une neutralisation effective de toute opposition systémique.
“Je ne suis pas ici”Le pouvoir ne s’exerce plus principalement à travers les institutions massives de la modernité, mais à travers des systèmes spectraux, impalpables, dont l’existence même peut être niée. Le vectofascisme ressemble à ces entités qui, comme les hauntologies derridiennes, sont simultanément là et pas là. Il opère dans cette zone d’indistinction entre présence et absence.
Ce qui caractérise ce pouvoir spectral, c’est précisément sa capacité à dénier sa propre existence tout en exerçant ses effets. “Ce n’est pas du fascisme”, répète-t-on, tout en mettant en œuvre ses mécanismes fondamentaux sous des noms différents. Cette dénégation fait partie de sa puissance opératoire. Le vectofascisme est d’autant plus efficace qu’il peut toujours dire : “Je ne suis pas ici.”
La spectralité n’est pas seulement une métaphore mais une condition du pouvoir contemporain. Les algorithmes qui constituent l’infrastructure du vectofascisme sont littéralement des spectres : invisibles aux utilisateurs qu’ils modulent, présents seulement par leurs effets, ils hantent l’espace numérique comme des fantômes dans la machine. La formule fishérienne “ils ne savent pas ce qu’ils font, mais ils le font quand même” prend ici un nouveau sens : les utilisateurs ne perçoivent pas les mécanismes qui modulent leurs affects, mais ils produisent néanmoins ces affects avec une précision troublante.
Cette spectralité du pouvoir vectofasciste explique en partie l’inadéquation des modes traditionnels de résistance. Comment s’opposer à ce qui nie sa propre existence ? Comment résister à une forme de domination qui se présente non comme imposition mais comme suggestion personnalisée ? Comment combattre un pouvoir qui se manifeste moins comme prohibition que comme modulation subtile du champ des possibles perçus ?
Le vectofascisme représente ainsi une évolution significative par rapport au biopouvoir foucaldien. Il ne s’agit plus seulement de “faire vivre et laisser mourir” mais de moduler infiniment les micro-conditions de cette vie, de créer des environnements informationnels sur mesure qui constituent autant de “serres ontologiques” où certaines formes de subjectivité peuvent prospérer tandis que d’autres sont étouffées par des conditions défavorables.
Le second mandat TrumpÀ la lumière de ces éléments théoriques, revenons à la question initiale : est-il légitime de qualifier le second mandat Trump de “fasciste” ?
Plusieurs éléments suggèrent des convergences significatives avec les caractéristiques fondamentales du fascisme :
- La personnalisation extrême du pouvoir et le culte de la personnalité
- Le rapport instrumental à la vérité factuelle et l’incohérence délibérée du discours
- La désignation systématique de boucs émissaires (immigrants, minorités ethniques, “élites cosmopolites”)
- La remise en cause des institutions démocratiques (contestation des résultats électoraux, pression sur l’appareil judiciaire)
- La mobilisation d’affects collectifs (peur, ressentiment, nostalgie) plutôt que d’arguments rationnels
Dans l’univers des images techniques que devient le chef ? Il n’est plus un sujet porteur d’une volonté historique mais une fonction dans un système de feedback. Il n’est ni entièrement un émetteur ni complètement un récepteur, mais un nœud dans un circuit cybernétique de modulation affective.
Le culte du chef vectofasciste n’est plus un culte de la personne mais un culte de l’interface, de la surface d’interaction. Ce qui est adoré n’est pas la profondeur supposée du chef mais sa capacité à fonctionner comme une surface de projection parfaite. Le chef idéal du vectofascisme est celui qui n’offre aucune résistance à la projection des désirs collectifs algorithmiquement modulés.
La grotesquerie devient ainsi non plus un accident mais un opérateur politique essentiel. Si le corps du leader fasciste traditionnel était idéalisé, devant incarner la perfection de la race et de la nation, le corps du leader vectofasciste peut s’affranchir de cette exigence de perfection précisément parce qu’il n’a plus à incarner mais à canaliser. Le caractère manifestement construit, artificiel, même ridicule de l’apparence (la coiffure improbable, le maquillage orange) n’est pas un défaut mais un atout : il signale que nous sommes pleinement entrés dans le régime de l’image technique, où le référent s’efface derrière sa propre représentation.
Cette transformation ontologique du statut du chef modifie également la nature du lien qui l’unit à ses partisans. Là où le lien fasciste traditionnel était fondé sur l’identification (le petit-bourgeois s’identifie au Führer qui incarne ce qu’il aspire à être), le lien vectofasciste fonctionne davantage par résonance algorithmique : le chef et ses partisans sont ajustés l’un à l’autre non par un processus psychologique d’identification mais par un processus technique d’optimisation. Les algorithmes façonnent simultanément l’image du chef et les dispositions affectives des partisans pour maximiser la résonance entre eux.
Ce passage de l’identification à la résonance transforme la temporalité même du lien politique. L’identification fasciste traditionnelle impliquait une temporalité du devenir (devenir comme le chef, participer à son destin historique). La résonance vectofasciste implique une temporalité de l’instantanéité : chaque tweet, chaque déclaration, chaque apparition du chef produit un pic d’intensité affective immédiatement mesurable en termes d’engagement numérique, puis s’efface dans le flux continu du présent perpétuel.
Le rapport vectofasciste à la vérité n’est pas simplement un mensonge ou une falsification. Dans l’univers post-alphabétique, la distinction binaire vrai/faux appartient encore à la pensée alphabétique. Ce qui caractérise le vectofascisme est plutôt la production d’une indécidabilité calculée, d’une zone grise où le statut même de l’énoncé devient indéterminable.
Ce mécanisme ne doit pas être compris comme irrationnel. Au contraire, il est hyper-rationnel dans sa capacité à exploiter les failles des systèmes de vérification. La post-vérité n’est pas l’absence de vérité mais sa submersion dans un flot d’informations contradictoires dont le tri exigerait un effort cognitif dépassant les capacités attentionnelles disponibles.
Le capitalisme a toujours su qu’il était plus efficace de saturer l’espace mental que de le censurer. Le vectofascisme applique cette logique à la vérité elle-même : non pas nier les faits, mais les noyer dans un océan de quasi-faits, de semi-faits, d’hyper-faits jusqu’à ce que la distinction même devienne un luxe cognitif inabordable.
Cette stratégie de saturation cognitive exploite une asymétrie fondamentale : il est toujours plus coûteux en termes de ressources cognitives de vérifier une affirmation que de la produire. Produire un mensonge complexe coûte quelques secondes ; le démystifier peut exiger des heures de recherche. Cette asymétrie, négligeable dans les économies attentionnelles pré-numériques, devient décisive dans l’écosystème informationnel contemporain caractérisé par la surabondance et l’accélération.
Le vectofascisme pousse cette logique jusqu’à transformer la véracité elle-même en une simple variable d’optimisation algorithmique. La question n’est plus “est-ce vrai ?” mais “quel degré de véracité maximisera l’engagement pour ce segment spécifique ?”. Cette instrumentalisation calculée de la vérité peut paradoxalement conduire à une calibration précise du mélange optimal entre faits, demi-vérités et mensonges complets pour chaque micro-public.
Cette modulation fine du rapport à la vérité transforme la nature même du mensonge politique. Le mensonge traditionnel présupposait encore une reconnaissance implicite de la vérité (on ment précisément parce qu’on reconnaît l’importance de la vérité). Le mensonge vectofasciste opère au-delà de cette distinction : il ne s’agit plus de nier une vérité reconnue, mais de créer un environnement informationnel où la distinction même entre vérité et mensonge devient une variable manipulable parmi d’autres.
Les concepts traditionnels de propagande ou de manipulation deviennent ainsi partiellement obsolètes. La propagande classique visait à imposer une vision du monde alternative mais cohérente ; la modulation vectofasciste de la vérité renonce à cette cohérence au profit d’une efficacité localisée et temporaire. Il ne s’agit plus de construire un grand récit alternatif stable, mais de produire des micro-récits contradictoires adaptés à chaque segment de population et à chaque contexte attentionnel.
Là où le fascisme historique désignait des ennemis universels de la nation (le Juif, le communiste, le dégénéré), le vectofascisme calcule des ennemis personnalisés pour chaque nœud du réseau. C’est une haine sur mesure, algorithmiquement optimisée pour maximiser l’engagement affectif de chaque segment de population.
Cette personnalisation n’est pas une atténuation mais une intensification : elle permet d’infiltrer les micropores du tissu social avec une précision chirurgicale. Le système ne propose pas un unique bouc émissaire mais une écologie entière de boucs émissaires potentiels, adaptés aux dispositions affectives préexistantes de chaque utilisateur.
L’ennemi n’est plus un Autre monolithique mais un ensemble de micro-altérités dont la composition varie selon la position de l’observateur dans le réseau et dont le “wokisme” est le paradigme. Cette modulation fine des antagonismes produit une société simultanément ultra-polarisée et ultra-fragmentée, où chaque bulles informationnelles développe ses propres figures de haine.
Cette fragmentation des figures de l’ennemi ne diminue pas l’intensité de la haine mais la rend plus efficace en l’adaptant précisément aux dispositions psycho-affectives préexistantes de chaque utilisateur. Les algorithmes peuvent identifier quelles caractéristiques spécifiques d’un groupe désigné comme ennemi susciteront la réaction émotionnelle la plus forte chez tel utilisateur particulier, puis accentuer précisément ces caractéristiques dans le flux informationnel qui lui est destiné.
Cependant, cette personnalisation des boucs émissaires ne signifie pas l’absence de coordination. Les algorithmes qui modulent ces haines personnalisées sont eux-mêmes coordonnés au niveau méta, assurant que ces antagonismes apparemment dispersés convergent néanmoins vers des objectifs politiques cohérents. C’est une orchestration de second ordre : non pas l’imposition d’un ennemi unique, mais la coordination algorithmique d’inimitiés multiples.
Cette distribution algorithmique de la haine transforme également la temporalité des antagonismes. Le fascisme traditionnel désignait des ennemis stables, permanents, essentialisés (le Juif éternel, le communiste international). Le vectofascisme peut faire varier les figures de l’ennemi selon les nécessités tactiques du moment, produisant des pics d’intensité haineuse temporaires mais intenses, puis réorientant cette énergie vers de nouvelles cibles lorsque l’engagement faiblit. “Mes amis il n’y a point d’amis” résonne aujourd’hui très étrangement.
Cette souplesse tactique dans la désignation des ennemis permet de maintenir une mobilisation affective constante tout en évitant la saturation qui résulterait d’une focalisation trop prolongée sur un même bouc émissaire. La haine devient ainsi une ressource attentionnelle renouvelable, dont l’extraction est optimisée par des algorithmes qui surveillent constamment les signes de désengagement et recalibrent les cibles en conséquence.
Le contrôle vectorielLe fascisme historique fonctionnait dans l’espace disciplinaire foucaldien : quadrillage des corps, visibilité panoptique, normalisation par l’extérieur. Le vectofascisme opère dans un espace latent de n-dimensions qui ne peut même pas être visualisé directement par l’esprit humain.
Cet espace latent n’est pas un lieu métaphorique mais un espace mathématique concret dans lequel les réseaux de neurones artificiels génèrent des représentations compressées des données humaines. Ce n’est pas un espace de représentation mais de modulation : les transformations qui s’y produisent ne représentent pas une réalité préexistante mais génèrent de nouvelles réalités.
La géographie politique traditionnelle (centre/périphérie, haut/bas, droite/gauche) devient inopérante. Les coordonnées politiques sont remplacées par des vecteurs d’intensité, des gradients de polarisation, des champs d’attention dont les propriétés ne correspondent à aucune cartographie politique antérieure.
Cette transformation de la géographie du pouvoir n’est pas une simple métaphore mais une réalité technique concrète. Les grands modèles de langage contemporains, par exemple, n’opèrent pas primitivement dans l’espace des mots mais dans un espace latent de haute dimensionnalité où chaque concept est représenté comme un vecteur possédant des centaines ou des milliers de dimensions. Dans cet espace, la “distance” entre deux concepts n’est plus mesurée en termes spatiaux traditionnels mais en termes de similarité cosinus entre vecteurs.
Cette reconfiguration de l’espace conceptuel transforme fondamentalement les conditions de possibilité du politique. Les catégories politiques traditionnelles (gauche/droite, conservateur/progressiste) deviennent des projections simplifiées et appauvries d’un espace multidimensionnel plus complexe. Les algorithmes, eux, opèrent directement dans cet espace latent, capable de manipuler des dimensions politiques que nous ne pouvons même pas nommer car elles émergent statistiquement de l’analyse des données sans correspondre à aucune catégorie préexistante dans notre vocabulaire politique.
Le pouvoir qui s’exerce dans cet espace latent échappe ainsi partiellement à notre capacité même de le conceptualiser. Comment critiquer ce que nous ne pouvons pas représenter ? Comment résister à ce qui opère dans des dimensions que nous ne pouvons pas percevoir directement et qui permet de passer de n’importe quel point à n’importe quel autre ? Cette invisibilité constitutive n’est pas accidentelle mais structurelle : elle découle directement de la nature même des espaces vectoriels de haute dimensionnalité qui constituent l’infrastructure mathématique du vectofascisme.
Cette invisibilité est renforcée par le caractère propriétaire des algorithmes qui opèrent ces transformations. Les modèles qui modulent nos environnements informationnels sont généralement protégés par le secret commercial, leurs paramètres précis inaccessibles non seulement aux utilisateurs mais souvent même aux développeurs qui les déploient. Cette opacité n’est pas un bug mais une feature : elle permet précisément l’exercice d’un pouvoir qui peut toujours nier sa propre existence.
De la facticitéLe vectofascisme ne se contente pas de manipuler les représentations du monde existant ; il génère activement des mondes contrefactuels qui concurrencent le monde factuel dans l’espace attentionnel. Ces mondes ne sont pas simplement “faux” – qualification qui appartient encore au régime alphabétique de vérité – mais alternatifs, parallèles, adjacents.
La puissance des modèles prédictifs contemporains réside précisément dans leur capacité à produire des contrefactuels convaincants, des simulations de ce qui aurait pu être qui acquièrent une force d’attraction affective équivalente ou supérieure à ce qui est effectivement advenu.
Cette prolifération des contrefactuels n’est pas un bug mais une autre feature du système : elle permet de maintenir ouvertes des potentialités contradictoires, de suspendre indéfiniment la clôture épistémique du monde qu’exigerait une délibération démocratique rationnelle.
La modélisation contrefactuelle n’est pas en soi une innovation du vectofascisme ; elle constitue en fait une capacité cognitive fondamentale de l’être humain et un outil épistémologique essentiel de la science moderne. Ce qui caractérise spécifiquement le vectofascisme est l’industrialisation de cette production contrefactuelle, son insertion systématique dans les flux informationnels quotidiens, et son optimisation algorithmique pour maximiser l’engagement affectif plutôt que la véracité ou la cohérence.
Les grands modèles de langage constituent à cet égard des machines à contrefactualité d’une puissance sans précédent. Entraînés sur la quasi-totalité du web, ils peuvent générer des versions alternatives de n’importe quel événement avec un degré de plausibilité linguistique troublant. Ces contrefactuels ne se contentent pas d’exister comme possibilités abstraites ; ils sont insérés directement dans les flux informationnels quotidiens, concurrençant les descriptions factuelles dans l’économie de l’attention.
Cette concurrence entre factualité et contrefactualité est fondamentalement asymétrique. La description factuelle d’un événement est contrainte par ce qui s’est effectivement produit ; les descriptions contrefactuelles peuvent explorer un espace des possibles virtuellement infini, choisissant précisément les versions qui maximiseront l’engagement émotionnel des différents segments d’audience. Cette asymétrie fondamentale explique en partie le succès du vectofascisme dans l’économie attentionnelle contemporaine : la contrefactualité optimisée pour l’engagement l’emportera presque toujours sur la factualité dans un système où l’attention est la ressource principale.
Cette prolifération contrefactuelle transforme également notre rapport au temps politique. La politique démocratique moderne présupposait un certain ordonnancement temporel : des événements se produisent, sont rapportés factuellement, puis font l’objet d’interprétations diverses dans un débat public structuré. Le vectofascisme court-circuite cet ordonnancement : l’interprétation précède l’événement, les contrefactuels saturent l’espace attentionnel avant même que les faits ne soient établis, et le débat ne porte plus sur l’interprétation de faits communs mais sur la nature même de la réalité.
En finirNous assistons moins à une reproduction à l’identique du fascisme historique qu’à l’émergence d’une forme hybride, adaptée au contexte contemporain, que l’on pourrait qualifier d’autoritarisme populiste à tendance fascisante.
L’emploi du terme “fascisme” pour qualifier des phénomènes politiques contemporains nécessite à la fois rigueur conceptuelle et lucidité politique. Si toute forme d’autoritarisme n’est pas nécessairement fasciste, les convergences identifiées entre certaines tendances actuelles et les caractéristiques fondamentales du fascisme historique ne peuvent être négligées.
Le fascisme, dans son essence, représente une subversion de la démocratie par l’exploitation de ses vulnérabilités. Sa capacité à se métamorphoser selon les contextes constitue précisément l’un de ses dangers. Reconnaître ces mutations sans tomber dans l’inflation terminologique constitue un défi intellectuel majeur.
Le vectofascisme contemporain ne reproduit pas à l’identique l’expérience historique des années 1930, mais il partage avec celle-ci des mécanismes fondamentaux.
On peut proposer cette définition synthétique à retravailler :
« Le vectofascisme désigne une forme politique contemporaine qui adapte les mécanismes fondamentaux du fascisme historique aux structures technologiques, communicationnelles et sociales de l’ère numérique. Il se définit précisément comme un système politique caractérisé par l’instrumentalisation algorithmique des flux d’information et des espaces numériques pour produire et orienter des affects collectifs, principalement la peur et le ressentiment, au service d’un projet de pouvoir autoritaire. Il se distingue par (1) l’exploitation stratégique des propriétés vectorielles de l’information numérique (direction, magnitude, propagation) ; (2) la manipulation systématique de l’espace des possibles et des contrefactuels pour fragmenter la réalité commune ; (3) la production statistiquement optimisée de polarisations sociales et identitaires ; et (4) la personnalisation algorithmique des trajectoires de radicalisation dans des espaces latents de haute dimensionnalité.
Contrairement au fascisme historique, centré sur la mobilisation physique des masses et l’occupation matérielle de l’espace public, le vectofascisme opère principalement par la reconfiguration de l’architecture informationnelle et attentionnelle. Cependant, il repose fondamentalement sur une mobilisation matérielle d’un autre ordre : l’extraction intensive de ressources énergétiques et minérales (terres rares, lithium, cobalt, etc.) nécessaires au fonctionnement des infrastructures numériques qui le soutiennent. Cette extraction, souvent délocalisée et invisibilisée, constitue la base matérielle indispensable de la superstructure informationnelle, liant le vectofascisme à des formes spécifiques d’exploitation environnementale et géopolitique qui alimentent les machines computationnelles au cœur de son fonctionnement. »
Gregory Chatonsky
Cet article est extrait du journal de Gregory Chatonsky, publié en mars 2025 sous le titre « Qu’est-ce que le vectofascisme ? »
-
10:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
10:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
10:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
10:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
10:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
7:00
L’automatisation est un problème politique
sur Dans les algorithmes“L’automatisation remplace les hommes. Ce n’est bien sûr pas une nouveauté. Ce qui est nouveau, c’est qu’aujourd’hui, contrairement à la plupart des périodes précédentes, les hommes déplacés n’ont nulle part où aller. (…) L’automatisation exclut de plus en plus de personnes de tout rôle productif dans la société.” James Boggs, The American Revolution, pages from a negro workers notebook, 1963.
La réponse actuelle face à l’automatisation est la même que dans les années 60, explique Jason Ludwig pour PublicBooks : il faut former les travailleurs à la programmation ou aux compétences valorisées par la technologie pour qu’ils puissent affronter les changements à venir. Le mantra se répète : ”le progrès technologique est inévitable et les travailleurs doivent s’améliorer eux-mêmes ou être balayés par sa marche inexorable”. Une telle approche individualiste du déplacement technologique trahit cependant une myopie qui caractérise la politique technologique, explique Ludwig : c’est que l’automatisation est fondamentalement un problème politique. Or, comme le montre l’histoire de la politique du travail américaine, les efforts pour former les travailleurs noirs aux compétences technologiques dans les années 60 ont été insuffisants et n’ont fait que les piéger dans une course vers le bas pour vendre leur travail.
Pour Ludwig, il nous faut plutôt changer notre façon de penser la technologie, le travail et la valeur sociale. Dans les années 60, Kennedy avait signé une loi qui avait permis de former quelque 2 millions d’américains pour répondre au défi de l’automatisation. Mais dans le delta du Mississippi, la majorité des noirs formés (comme opérateurs de production, mécanicien automobile, sténographes…) sont retournés au travail agricole saisonnier avant même d’avoir fini leur formation. En fait, les formations formaient des gens à des emplois qui n’existaient pas. “Ces programmes ont également marqué un éloignement de l’espoir initial des leaders des droits civiques de voir une politique d’automatisation faire progresser l’égalité raciale. Au lieu de cela, l’automatisation a renforcé une hiérarchie racialisée du travail technologique”. Ceux qui ont suivit une formation dans l’informatique sont restés pour la plupart dans des rôles subalternes, à l’image des travailleurs des plateformes d’aujourd’hui. Travailleur noir dans l’industrie automobile de Détroit des années 50, James Boggs a d’ailleurs été le témoin direct de la manière dont les nouveaux contrôles électroniques ont remplacé les travailleurs de la chaîne de montage, et a également observé les échecs de la direction, des dirigeants gouvernementaux et du mouvement ouvrier lui-même à faire face aux perturbations causées par l’automatisation. Dans ses écrits critiques, Boggs a soutenu que leur incapacité à concevoir une solution adéquate au problème de l’automatisation et du chômage provenait d’une croyance qu’ils avaient tous en commun : les individus doivent travailler !
Pour Boggs, la voie à suivre à l’ère de l’automatisation ne consiste pas à lutter pour le plein emploi, mais plutôt à accepter une société sans travail, en garantissant à chacun un revenu décent. Pour Ludwig, les recommandations de Boggs soulignent les failles des prévisions contemporaines sur l’avenir du travail, comme celles de McKinsey. La reconversion des travailleurs peut être une mesure temporaire, mais ne sera jamais qu’une solution provisoire. La présenter comme la seule voie à suivre détourne l’attention de la recherche de moyens plus efficaces pour assurer un avenir meilleur à ceux qui sont en marge de la société, comme l’expérimentation d’un revenu de base ou la réinvention de l’État-providence pour le XXIe siècle.
-
17:11
Partage et collaboration géomatique à la Ville de Genève
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueL’organisation du SIG à Genève inspire par sa transversalité et sa collégialité. La plate-forme SITV est logiquement un portail collaboratif multi-utilisateurs au service de la Ville, dont la mise en œuvre a associé nombre d’acteurs en interne et externe : une vraie fédération de compétences !Deuxième ville la plus peuplée de Suis se après Zurich, Genève est située au bord du lac Léman, à la frontière avec la France. Cosmopolite et ouverte sur le monde, c’est un centre important pour les organisations internationales. Commune principale du canton de Genève, la ville compte plus de 205.000 habitants, soit un peu moins de la moitié de la population cantonale. Les relations entre les administrations de la Ville et du canton sont étroitement imbriquées, y compris sur le plan géomatique. Créé en 1991, le SIG de la Ville de Genève travaille de concert avec le SI du Territoire Genevois (SITG) avec pour principe de ne pas dupliquer les efforts. C’est ainsi que le canton gère le cadastre pour tout le territoire, alors qu’une quarantaine de types différents de géodonnées de la Ville sont synchronisés sur le portail du SITG.
Retrouvez la suite de cette enquête dans le magazine SIGMAG N°44
-
16:53
À la recherche de conteneurs
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueEn Moselle, la Communauté d’agglomération du Val de Fensch déploie son application de localisation de points de collecte des déchets. Le service SIG de la collectivité rend accessible ce nouvel outil pour permettre aux habitants de trouver sans difficulté les conteneurs enterrés, les bornes d’apports volontaires pour les biodéchets, le verre ou le textile. L’outil aide aussi à connaître son secteur de dépendance quant aux jours et fréquences de ramassage, pour sortir ses poubelles au bon moment. La recherche se fait par adresse ou directement par secteur. Cette plateforme en ligne responsive présente de façon structurée toutes les informations pratiques concernant la gestion des déchets. Le volet « conteneurs enterrés » propose des informations sur le nombre de contenants par typologie d’ordure. Les déchetteries sont aussi recensées avec des précisions redirigeant vers le site de la CA.
+ d'infos :
agglo-valdefensch.fr
-
7:50
De « l’Excellisation » de l’évaluation
sur Dans les algorithmesL’évaluation des formations universitaires par le Haut Conseil de l’Évaluation de la Recherche et de l’Enseignement Supérieur (HCÉRES) reposent très concrètement sur des outils d’auto-évaluation formels qui se résument à des fichiers Excel qui emboitent des indicateurs très parcellaires, explique Yves Citton pour AOC. une forme d’évaluation « sans visite de salle de classe, sans discussion personnalisée avec les responsables de formation, les personnels administratifs ou les étudiantes ».
« Cette excellence excellisée menace donc de fermer des formations sans avoir pris la peine d’y poser le pied ou le regard, sur la seule base d’extractions chiffrées dont la sanction satellitaire tombe comme un missile ». Une belle démonstration des limites de l’évaluation contemporaine, orientée et hors sol.
-
7:01
Les trois corps du lithium : le géologique, le technologique et le psychique
sur Dans les algorithmes« Comme le sucre au XIXe siècle, le lithium va devenir au XXIe siècle un bien de consommation de masse, l’aliment de base du nouveau régime de consommation promis aux sociétés modernes et décarbonées ». (…) « Le lithium participerait à revitaliser le système de production et de consommation du capitalisme, en proposant une réponse au changement climatique qui n’oblige pas à remettre en cause les rapports de force asymétriques préexistants et la nature « zombie » de nos technologies héritées des énergies fossiles. »
« L’histoire du lithium illustre la manière dont les propriétés matérielles d’un élément façonnent à la fois notre équilibre mental et notre rapport à la société. À la croisée de la santé et de l’industrie, il participe à une quête de stabilité des humeurs et des flux énergétiques dans un monde toujours plus dépendant de la performance et de la constance ».
Passionnant dossier sur l’âge du lithium dans la revue Les temps qui restent.
-
7:00
Vers la fin du modèle des startups ?
sur Dans les algorithmesLes startups de l’IA n’auraient plus besoin de liquidités, estime Erin Griffith dans le New York Times. Alors que les investisseurs se pressent pour prendre des parts, les startupeurs de l’IA font la fine bouche. Certaines sont déjà rentables, à l’image de Gamma, une entreprise qui fabrique des outils d’IA pour créer des présentations et des sites web. Fort de seulement 28 employés, Gamma génère déjà des dizaines de millions de revenus auprès de 50 millions d’utilisateurs. Plutôt que d’embaucher, Gamma utilise des outils d’intelligence artificielle pour augmenter la productivité de ses employés dans tous les domaines, du service client et du marketing au codage et à la recherche client.
Alors qu’avant la réussite des petites équipes consistait à lever des fonds pour croître, désormais, elles limitent leur taille et optimisent leur rentabilité. Anysphere, une start-up qui a créé le logiciel de codage Cursor, comme ElevenLabs, une société d’IA spécialiste des produits vocaux, ont atteint 100 millions de dollars de revenus récurrents annuels en moins de deux ans avec seulement 20 employés. Sam Altman, le directeur général d’OpenAI, a prédit qu’il pourrait y avoir un jour une entreprise unipersonnelle valant 1 milliard de dollars… C’est pour l’instant encore bien présomptueux*, mais on comprend l’idée.
Cette cure de productivité des personnels concerne également les entreprises d’IA qui développent des modèles. OpenAI emploie plus de 4000 personnes, a levé plus de 20 milliards de dollars de financement et continue à chercher à lever des fonds, ce qui produit environ le même ratio : 5 millions de dollars de levés de fonds par employés (même si ici, on parle de levée de fonds et non pas de revenus récurrents). Les nouvelles start-ups de l’IA qui s’appuient sur ces modèles font penser à la vague d’entreprises qui ont émergé à la fin des années 2000, après qu’Amazon a commencé à proposer des services de cloud computing bon marché. Amazon Web Services a réduit le coût de création d’une entreprise, ce qui a permis de créer de nouvelles entreprises, pour moins chères.
« Avant l’essor de l’IA, les start-ups dépensaient généralement 1 million de dollars pour atteindre un chiffre d’affaires de 1 million de dollars », explique Gaurav Jain, investisseur à Afore Capital. Aujourd’hui, atteindre un million de dollars de chiffre d’affaires coûte un cinquième de moins et pourrait éventuellement tomber à un dixième, selon une analyse de 200 startups menée par Afore. Tant et si bien que le revenu récurrent annuel par employé semble désormais s’imposer comme l’indicateur clef de ces « ultra » lean startups, explique le French Tech Journal. Pour parvenir à 100 millions de dollars de revenus dans les années 2000, il a fallu 900 employés à Linkedin et 600 à Shopify. Dans les années 2010, il fallait encore 250 employés à Slack pour parvenir au même revenu récurrent. Désormais, pour les entreprises de la « génération IA » il n’en faut plus que 100 ! L’objectif, c’est qu’un employé rapporte entre 5 et 1 million de dollars ! On espère que les salaires des salariés suivent la même courbe de croissance !
Le tableau des startups selon leur nombre d’employés pour atteindre les 100 millions de dollars de revenus récurrents. Reste que l’explication par le développement de produits basés sur l’IA vise à nous faire croire que les entreprises qui ont pris plus de temps et d’employés pour atteindre les 100 millions de revenus n’auraient pas utilisé l’IA pour leur produit. hum !
Mais si les startups peuvent devenir rentables sans dépenser beaucoup, cela pourrait devenir un problème pour les investisseurs en capital-risque. L’année dernière, les entreprises d’IA ont levé 97 milliards de dollars de financement, ce qui représente 46 % de tous les investissements en capital-risque aux États-Unis, selon PitchBook, le spécialiste de l’analyse du secteur. Pour l’instant, les investisseurs continuent de se battre pour entrer dans les entreprises les plus prometteuses. Scribe, une start-up de productivité basée sur l’IA, a dû faire face l’année dernière à un intérêt des investisseurs bien supérieur aux 25 millions de dollars qu’elle souhaitait lever. Certains investisseurs sont optimistes quant au fait que l’efficacité générée par l’IA incitera les entrepreneurs à créer davantage d’entreprises, ce qui ouvrira davantage d’opportunités d’investissement. Ils espèrent qu’une fois que les startups auront atteint une certaine taille, les entreprises adopteront le vieux modèle des grandes équipes et des gros capitaux. Mais ce n’est peut-être pas si sûr.
Chez Gamma, les employés utilisent une dizaine d’outils d’IA pour les aider à être plus efficaces, notamment l’outil de service client d’Intercom pour gérer les problèmes, le générateur d’images de Midjourney pour le marketing, le chatbot Claude d’Anthropic pour l’analyse des données et le NotebookLM de Google pour analyser la recherche de clients. Les ingénieurs utilisent également le curseur d’Anysphere pour écrire du code plus efficacement. Le produit de Gamma, qui s’appuie sur des outils d’OpenAI et d’autres, n’est pas aussi coûteux à fabriquer que d’autres produits d’IA. D’autres startups efficaces adoptent une stratégie similaire. Thoughtly, un fournisseur d’agents IA téléphoniques, a réalisé un bénéfice en 11 mois, grâce à son utilisation de l’IA, a déclaré son cofondateur Torrey Leonard, notamment l’outil d’IA ajouté au système de Stripe pour analyser les ventes. Pour son PDG, sans ces outils, il aurait eu besoin d’au moins 25 personnes de plus et n’aurait pas été rentable aussi rapidement. Pour les jeunes pousses, ne plus avoir peur de manquer de liquidités est « un énorme soulagement ». Chez Gamma, le patron prévoit néanmoins d’embaucher pour passer à 60 personnes. Mais plutôt que de recruter des spécialistes, il cherche des généralistes capables d’effectuer une large gamme de tâches. Le patron trouve même du temps pour répondre aux commentaires des principaux utilisateurs du service.
Dans un autre article, Erin Griffith explique que nombre d’entreprises retardent leur entrée en bourse. Beaucoup attendaient l’élection de Trump pour se lancer, mais les annonces de tarifs douaniers de l’administration et les changements réglementaires rapides ont créé de l’incertitude et de la volatilité. Et l’arrivée de DeepSeek a également remis en question l’engouement pour les technologies d’IA américaines coûteuses. Enfin, l’inflation du montant des investissements privés retarde également les échéances de mises sur le marché. En fait, les startups peuvent désormais lever des fonds plus importants et les actionnaires peuvent également vendre leurs actions avant mise sur le marché public, ce qui a contribué à réduire le besoin d’entrer en bourse.
Dans un autre article encore, la journaliste se demande ce qu’est devenu le capital risque. Pour cela, elle convoque les deux modèles les plus antinomiques qui soient, à savoir Benchmark Capital et Andreessen Horowitz. « Andreessen Horowitz s’est développé dans toutes les directions. Elle a créé des fonds axés sur les crypto-monnaies, la Défense et d’autres technologies, gérant un total de 44 milliards de dollars. Elle a embauché 80 partenaires d’investissement et ouvert cinq bureaux. Elle publie huit newsletters et sept podcasts, et compte plus de 800 sociétés en portefeuille ».
« Benchmark, en revanche, n’a pratiquement pas bougé. Elle compte toujours cinq partenaires qui font des investissements. Cette année, elle a levé un nouveau fonds de 425 millions de dollars, soit à peu près la même taille que ses fonds depuis 2004. Son site Web se résume à une simple page d’accueil ». La plupart des entreprises d’investissement ont suivi le modèle d’Andreessen Horowitz se développant tout azimut. Le capital risque est devenu un mastodonte de 1200 milliards de dollars en 2024, alors qu’il ne représentait que 232 milliards en 2009. Les partisans de la théorie du toujours plus d’investissement affirment qu’il faut encore plus d’argent pour résoudre les problèmes les plus épineux de la société en matière d’innovation. « Les petits fonds, se moquent-ils, ne peuvent soutenir que les petites idées ». Mais pour d’autres, les fonds de capital-risque sont devenus trop gros, avec trop peu de bonnes startups, ce qui nuit aux rendements. Dans l’approche à là Andreessen Horowitz, l’enjeu est d’investir beaucoup mais également de facturer fort, ce qui n’est pas le cas des plus petits acteurs. « Les fonds plus petits ont généralement obtenu des rendements plus élevés, mais ils ont également eu des taux de pertes plus élevés. Les fonds plus importants ont tendance à avoir des rendements médians mais moins de pertes, ce qui signifie qu’ils sont des paris plus sûrs avec moins de potentiel de hausse », explique une analyste.
Mais on n’investit pas dans le capital-risque pour obtenir des rendements médians. Or, le développement de fonds de plusieurs milliards de dollars pourrait modifier le profil de rendement du capital-risque, qui n’est pas si bon, malgré ses promesses. La crise économique post-pandémie a modifié les cartes. « En 2022 et 2023, les sociétés de capital-risque ont investi plus d’argent qu’elles n’en ont rendu à leurs investisseurs, inversant une tendance qui durait depuis dix ans ». Comme l’expliquait le sociologue de la finance, Fabien Foureault, dans le 4e numéro de la revue Teque, parue l’année dernière, le capital-risque est intrinsèquement dysfonctionnel. Il favorise les emballements et effondrements, peine à inscrire une utilité sociale, et surtout, ses performances financières restent extrêmement médiocres selon les études longitudinales. “L’économie numérique, financée par le capital-risque, a été conçue par les élites comme une réponse au manque de dynamisme du capitalisme tardif. Or, on constate que cette activité se développe en même temps que les tendances à la stagnation et qu’elle n’arrive pas à les contrer.” La contribution du capital-risque à la croissance semble moins forte que le crédit bancaire et le crédit public ! “Le rendement de la financiarisation et de l’innovation est de plus en plus faible : toujours plus d’argent est injecté dans le système financier pour générer une croissance en déclin sur le long-terme”.
Hubert Guillaud
* Comme toujours, les grands patrons de la tech lancent des chiffres en l’air qui permettent surtout de voir combien ils sont déconnectés des réalités. Passer de 100 millions de revenus à 20 personnes à 1 milliard tout seul, nécessite de sauter des paliers et de croire aux capacités exponentielles des technologies, qui, malgré les annonces, sont loin d’être démontrées. Bien souvent, les chiffres jetés en l’air montrent surtout qu’ils racontent n’importe quoi, à l’exemple de Musk qui a longtemps raconté qu’il enverrait un million de personnes sur Mars en 20 ans (ça ne tient pas).
MAJ su 30/03/2025 : Politico livre une très intéressante interview de Catherine Bracy, la fondatrice de TechEquity (une association qui oeuvre à améliorer l’impact du secteur technologique sur le logement et les travailleurs), qui vient de publier World Eaters : How Venture Capital Is Cannibalizing the Economy (Penguin, 2025). Pour Bracy, le capital risque – moteur financier de l’industrie technologique – a un effet de distorsion non seulement sur les entreprises et leurs valeurs, mais aussi sur la société américaine dans son ensemble. « La technologie en elle-même est sans valeur, et c’est la structure économique qui lui confère son potentiel de nuisance ou de création d’opportunités qui la rend vulnérable ». Les investisseurs de la tech encouragent les entreprises à atteindre la plus grande taille possible, car c’est par des effets d’échelle qu’elle produit le rendement financier attendu, analyse-t-elle. Cependant, derrière cette croissance sous stéroïdes, « l’objectif est la rapidité, pas l’efficacité ». Et les conséquences de ces choix ont un coût que nous supportons tous, car cela conduit les entreprises à contourner les réglementations, à exploiter les travailleurs et à proposer des produits peut performants ou à risque pour les utilisateurs. L’objectif de rendements les plus élevés possibles nous éloignent des bonnes solutions. Pour elle, nous devrions imposer plus de transparence aux startups, comme nous le demandons aux entreprises cotées en bourse et renforcer l’application des régulations. Pour Bloomberg, explique-t-elle encore, la recherche d’une croissance sous stéroïde ne permet pas de s’attaquer aux problèmes de la société, mais les aggrave. Le problème n’est pas tant ce que le capital-risque finance que ce qu’il ne finance pas, souligne Bracy… et qui conduit les entreprises qui s’attaquent aux problèmes, à ne pas trouver les investissements dont elles auraient besoin. Si le capital-risque désormais s’intéresse à tout, il n’investit que là où il pense trouver des rendements. Les investissements privés sont en train de devenir des marchés purement financiers.
Une critique de son livre pour Bloomberg, explique que Bracy dénonce d’abord la monoculture qu’est devenue le capital-risque. Pour elle, cette culture de la performance financière produit plusieurs victimes. Les premières sont les entreprises incubées dont les stratégies sont modelées sur ce modèle et qui échouent en masse. « Les capitaux-risqueurs créent en grande partie des risques pour les entreprises de leurs portefeuilles » en les encourageant à croître trop vite ou à s’attaquer à un marché pour lequel elles ne sont pas qualifiées. Les secondes victimes sont les entrepreneurs qui ne sont pas adoubées par le capital-risque, et notamment tous les entrepreneurs qui ne correspondent pas au profil sociologique des entrepreneurs à succès. Les troisièmes victimes sont les capitaux-risqueurs eux-mêmes, dans les portefeuilles desquels s’accumulent les « sorties râtées » et les « licornes zombies ». Les quatrièmes victimes, c’est chacun d’entre nous, pris dans les rendements des startups modèles et dont les besoins d’investissements pour le reste de l’économie sont en berne.
Bracy défend un capital risque plus indépendant. Pas sûr que cela suffise effectivement. Sans attaquer les ratios de rendements qu’exigent désormais l’investissement, on ne résoudra pas la redirection de l’investissement vers des entreprises plus stables, plus pérennes, plus utiles… et moins profitables.
-
7:00
Red-teaming : vers des tests de robustesse de l’IA dans l’intérêt du public
sur Dans les algorithmesLe Red-teaming consiste à réunir des équipes multidisciplinaires pour procéder à des attaques fictives pour éprouver la robustesse de la sécurité d’un système informatique. Dans le domaine de l’IA, cela consiste à identifier les vulnérabilités des réponses d’un modèle de langage pour les corriger. Mais les questions méthodologiques auxquelles sont confrontées ces équipes sont nombreuses : comment et quand procéder ? Qui doit participer ? Comment intégrer les résultats… Les questions d’enjeux ne sont pas moindres : quels intérêts sont protégés ? Qu’est-ce qu’un comportement problématique du modèle et qui est habilité à le définir ? Le public est-il un objet à sécuriser ou une ressource utilisée ?…
Un rapport publié par Data & Society et AI Risk and Vulnerability Alliance (ARVA), par les chercheurs Ranjit Singh, Borhane Blili-Hamelin, Carol Anderson, Emnet Tafesse, Briana Vecchione, Beth Duckles et Jacob Metcalf, tente d’esquisser comment produire un red-teaming dans l’intérêt public.
À ce jour, la plupart des expériences de red-teaming en IA générale comportent quatre étapes :
- Organiser un groupe de penseurs critiques.
- Leur donner accès au système.
- Les inviter à identifier ou à susciter des comportements indésirables.
- Analyser les données probantes pour atténuer les comportements indésirables et tester les futurs modèles.
Actuellement, la méthode dominante pour réaliser la troisème étape est l’incitation manuelle et automatisée, qui consiste à tester les comportements erronés des modèles par l’interaction. Pour les chercheurs, qui ont recueilli les avis de participants à des équipes de red-teaming, si cette approche est précieuse, le red-teaming doit impliquer une réflexion critique sur les conditions organisationnelles dans lesquelles un modèle est construit et les conditions sociétales dans lesquelles il est déployé. Le red-teaming dans d’autres domaines, comme la sécurité informatique, révèle souvent des lacunes organisationnelles pouvant entraîner des défaillances du système. Les évaluations sociotechniques de l’IA générale gagneraient à s’inspirer davantage des pratiques existantes en matière de red-teaming et d’ingénierie de la sécurité.
Pour les chercheurs, les événements de Red-Teaming soulignent trop souvent encore l’asymétrie de pouvoir et limitent l’engagement du public à la seule évaluation des systèmes déjà construits, plutôt qu’aux systèmes en développement. Ils favorisent trop l’acceptation du public, le conduisant à intégrer les défaillances des systèmes, plutôt qu’à les résoudre ou les refuser. Enfin, ils restreignent la notion de sécurité et ne prennent pas suffisamment en cause les préjudices qu’ils peuvent causer ou les modalités de recours et de réparation proposé au grand public.
Le rapport dresse une riche histoire des pratiques d’amélioration de la sécurité informatique et de ses écueils, et de la faible participation du public, même si celle-ci a plutôt eu tendance à s’élargir ces dernières années. Reste que cet élargissement du public est encore bien timide. Il s’impose surtout parce qu’il permet de répondre au fait que l’IA générative couvre un large champ d’usages qui font que chaque prompt peut être une attaque des modèles. “L’objectif du red-teaming est de compenser le manque de bonnes évaluations actuelles pour les modèles génératifs”, explique une spécialiste, d’autant qu’il permet de créer “une réflexivité organisationnelle”, notamment du fait que les interactions avec les modèles sont très ouvertes et nécessitent d’élargir les perspectives de sécurité. Mais les pratiques montrent également la difficulté à saisir ce qui relève des défaillances des modèles, d’autant quand ce sont les utilisateurs eux-mêmes qui sont considérés comme des adversaires. Pourtant, dans ces pratiques de tests de robustesse adverses, les risques n’ont pas tous le même poids : il est plus simple de regarder si le modèle génère des informations privées ou du code vulnérable, plutôt que d’observer s’il produit des réponses équitables. En fait, l’une des grandes vertus de ces pratiques, c’est de permettre un dialogue entre développeurs et publics experts, afin d’élargir les enjeux de sécurité des uns à ceux des autres.
Le rapport souligne cependant que l’analyse automatisée des vulnérabilités se renforce (voir “Comment les IA sont-elles corrigées ?”), notamment via l’utilisation accrue de travailleurs du clic plutôt que des équipes dédiées et via des systèmes spécialisés dédiés et standardisés, prêts à l’emploi, afin de réduire les coûts de la correction des systèmes et ce même si ces attaques-ci pourraient ne pas être aussi “novatrices et créatives que celles développées par des humains”. Le risque c’est que le red-teaming ne devienne performatif, une forme de “théâtre de la sécurité”, d’autant que le régulateur impose de plus en plus souvent d’y avoir recours, comme c’est le cas de l’AI Act européen. Or, comme le pointe un red-teamer, “ce n’est pas parce qu’on peut diagnostiquer quelque chose qu’on sait comment le corriger”. Qui détermine si le logiciel respecte les règles convenues ? Qui est responsable en cas de non-respect des règles ? L’intégration des résultats du red-teaming est parfois difficile, d’autant que les publications de leurs résultats sont rares. D’où l’importance des plateformes qui facilitent le partage et l’action collective sur les problèmes d’évaluation des systèmes d’IA, comme Dynabench.
“Nous devons repenser la relation entre l’IA et la société, passant d’une relation conflictuelle à une relation co-constitutive”, plaident les chercheurs. C’est la seule à même d’aider à dépasser la confusion actuelle sur la fonction du red-teaming, qu’elle relève des conflits de méthodes, de pouvoir, d’autorité ou d’expertise. Les meilleures pratiques ne le sont pas nécessairement. Le Titanic a été construit selon les meilleures pratiques de l’époque. Par définition, le red-teaming consiste à examiner les réponses des modèles de manière critique, mais uniquement selon les meilleures pratiques du moment. Le red-teaming a tendance à porter plus d’attention aux méthodes holistiques de red-teaming (comme les simulations) qu’à ceux qui se concentrent sur l’évaluation des dommages causés par l’IA aux utilisateurs normaux. Trop souvent encore, le red-teaming consiste à améliorer un produit plus qu’à améliorer la sécurité du client, alors que le red-teaming élargi aux publics consiste à mieux comprendre ce qu’ils considèrent comme problématique ou nuisible tout en leur permettant d’être plus conscients des limites et défaillances. Pour les chercheurs, nous avons plus que jamais besoin “d’espaces où le public peut débattre de ses expériences avec les systèmes d’IA générale”, d’espaces participatifs, disaient déjà une précédente recherche de plusieurs de ces mêmes chercheurs. Le risque, c’est que cet élargissement participatif que permet certains aspects du red-teaming ne se referme plus qu’il ne s’étende.
-
7:00
Inférences : comment les outils nous voient-ils ?
sur Dans les algorithmesComment les systèmes interprètent-ils les images ? Ente, une entreprise qui propose de chiffrer vos images pour les échanger de manière sécurisée sans que personne d’autres que ceux que vous autorisez ne puisse les voir, a utilisé l’API Google Vision pour montrer comment les entreprises infèrent des informations des images. C’est-à-dire comment ils les voient, comment les systèmes automatisés les décrivent. Ils ont mis à disposition un site pour nous expliquer comment « ILS » voient nos photos, qui permet à chacun d’uploader une image et voir comment Google Vision l’interprète.
Sommes-nous ce que les traitements disent de nous ?Le procédé rappelle le projet ImageNet Roulette de Kate Crawford et Trevor Paglen, qui renvoyait aux gens les étiquettes stéréotypées dont les premiers systèmes d’intelligence artificielle affublaient les images. Ici, ce ne sont pas seulement des étiquettes dont nous sommes affublés, mais d’innombrables données inférées. Pour chaque image, le système produit des informations sur le genre, l’origine ethnique, la localisation, la religion, le niveau de revenu, les émotions, l’affiliation politique, décrit les habits et les objets, pour en déduire des passe-temps… mais également des éléments de psychologie qui peuvent être utilisés par le marketing, ce qu’on appelle les insights, c’est-à-dire des éléments permettant de caractériser les attentes des consommateurs. Par exemple, sur une des images en démonstration sur le site représentant une famille, le système déduit que les gens priorisent l’esthétique, sont facilement influençables et valorisent la famille. Enfin, l’analyse associe des mots clefs publicitaires comme albums photos personnalisé, produits pour la peau, offre de voyage de luxe, système de sécurité domestique, etc. Ainsi que des marques, qui vont permettre à ces inférences d’être directement opérationnelles (et on peut se demander d’ailleurs, pourquoi certaines plutôt que d’autres, avec le risque que les marques associéées démultiplient les biais, selon leur célébrité ou leur caractère international, comme nous en discutions en évoquant l’optimisation de marques pour les modèles génératifs).
Autant d’inférences probables, possibles ou potentielles capables de produire un profil de données pour chaque image pour leur exploitation marketing.
Comme l’explique le philosophe Rob Horning, non seulement nos images servent à former des modèles de reconnaissance d’image qui intensifient la surveillance, mais chacune d’entre elles produit également des données marketing disponibles pour tous ceux qui souhaitent les acheter, des publicitaires aux agences de renseignement. Le site permet de voir comment des significations sont déduites de nos images. Nos photos, nos souvenirs, sont transformés en opportunités publicitaires, identitaires et consuméristes, façonnées par des logiques purement commerciales (comme Christo Buschek et Jer Thorp nous l’avaient montré de l’analyse des données de Laion 5B). L’inférence produit des opportunités, en ouvre certaines et en bloque d’autres, sur lesquelles nous n’avons pas la main. En nous montrant comment les systèmes interprètent nos images, nous avons un aperçu de ce que, pour les machines, les signifiants signifient.
Mais tout n’est pas parfaitement décodable et traduisible, transparent. Les inférences produites sont orientées : elles ne produisent pas un monde transparent, mais un monde translucide. Le site They see your photos nous montre que les images sont interprétées dans une perspective commerciale et autoritaire, et que les représentations qu’elles produisent supplantent la réalité qu’elles sont censées interpréter. Il nous permet de voir les biais d’interprétation et de nous situer dans ceux-ci ou de nous réidentifier sous leur répétition.
Nous ne sommes pas vraiment la description produite de chacune de ces images. Et pourtant, nous sommes exactement la personne au coeur de ces descriptions. Nous sommes ce que ces descriptions répètent, et en même temps, ce qui est répété ne nous correspond pas toujours ou pas du tout.
Exemples d’intégration d’images personnelles dans TheySeeYourPhotos qui montrent les données qui sont inférées de deux images. Et qui posent la question qui suis-je ? Gagne-je 40 ou 80 000 euros par mois ? Suis-je athée ou chrétien ? Est-ce que je lis des livres d’histoire ou des livres sur l’environnement ? Suis-je écolo ou centriste ? Est-ce que j’aime les chaussures Veja ou les produits L’Oréal ? Un monde indifférent à la vérité
L’autre démonstration que permet le site, c’est de nous montrer l’évolution des inférences publicitaires automatisées. Ce que montre cet exemple, c’est que l’enjeu de régulation n’est pas de produire de meilleures inférences, mais bien de les contenir, de les réduire – de les faire disparaître voire de les rendre impossibles. Nous sommes désormais coincés dans des systèmes automatisés capables de produire de nous, sur nous, n’importe quoi, sans notre consentement, avec un niveau de détail et de granularité problématique.
Le problème n’est pas l’automatisation publicitaire que ce délire de profilage alimente, mais bien le délire de profilage automatisé qui a été mis en place. Le problème n’est pas la qualité des inférences produites, le fait qu’elles soient vraies ou fausses, mais bien le fait que des inférences soient produites. La prévalence des calculs imposent avec eux leur monde, disions-nous. Ces systèmes sont indifférents à la vérité, expliquait le philosophe Philippe Huneman dans Les sociétés du profilage (Payot, 2023). Ils ne produisent que leur propre renforcement. Les machines produisent leurs propres mèmes publicitaires. D’un portrait, on propose de me vendre du cognac ou des timbres de collection. Mais ce qu’on voit ici n’est pas seulement leurs défaillances que leurs hallucinations, c’est-à-dire leur capacité à produire n’importe quels effets. Nous sommes coincés dans un régime de facticité, comme le dit la philosophe Antoinette Rouvroy, qui finit par produire une vérité de ce qui est faux.
Où est le bouton à cocher pour refuser ce monde ?Pourtant, l’enjeu n’est pas là. En regardant très concrètement les délires que ces systèmes produisent on se demande surtout comment arrêter ces machines qui ne mènent nulle part ! L’exemple permet de comprendre que l’enjeu n’est pas d’améliorer la transparence ou l’explicabilité des systèmes, ou de faire que ces systèmes soient plus fiables, mais bien de les refuser. Quand on comprend la manière dont une image peut-être interprétée, on comprend que le problème n’est pas ce qui est dit, mais le fait même qu’une interprétation puisse être faite. Peut-on encore espérer un monde où nos photos comme nos mots ne sont tout simplement pas interprétés par des machines ? Et ce alors que la grande interconnexion de celles-ci facilite ce type de production. Ce que nous dit « They see your photos », c’est que pour éviter ce délire, nous n’avons pas d’autres choix que d’augmenter considérablement la confidentialité et le chiffrement de nos échanges. C’est exactement ce que dit Vishnu Mohandas, le développeur de Ente.
Hubert Guillaud
MAJ du 25/03/2025 : Il reste une dernière inconnue dans les catégorisations problématiques que produisent ces outils : c’est que nous n’observons que leurs productions individuelles sur chacune des images que nous leurs soumettons… Mais nous ne voyons pas les catégorisations collectives problématiques qu’ils peuvent produire. Par exemple, combien de profils de femmes sont-ils catalogués comme à « faible estime de soi » ? Combien d’hommes catégorisés « impulsifs » ? Combien d’images de personnes passées un certain âge sont-elles caractérisées avec des mots clés, comme « alcool » ? Y’a-t-il des récurrences de termes selon le genre, l’âge putatif, l’origine ou le niveau de revenu estimé ?… Pour le dire autrement, si les biais individuels semblent innombrables, qu’en est-il des biais démographiques, de genre, de classe… que ces outils produisent ? L’exemple permet de comprendre très bien que le problème des biais n’est pas qu’un problème de données et d’entraînement, mais bien de contrôle de ce qui est produit. Ce qui est tout de suite bien plus problématique encore…
-
10:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
10:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
10:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
10:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
10:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
8:38
Géo IA?: en long, en large et à toutes les échelles
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueUn tsunami d’IA générative a envahi la scène publique et politique, avec d’ambitieuses annonces d’entreprises et des états. Mais quelles sont les avancées concrètes et les perspectives tangibles pour la géomatique?? Enquête réalisée par Michel Bernard.
Retrouvez la suite de cette enquête dans le magazine SIGMAG N°44
-
7:00
Data for Black Lives
sur Dans les algorithmesAnuli Akanegbu, chercheuse chez Data & Society, a fait un rapide compte rendu de la 3e édition de la conférence Data for Black Lives qui s’est tenue fin novembre à Miami.
L’IA et d’autres technologies automatisées exacerbent les inégalités existantes dans tous les domaines où elles se déploient : l’emploi, l’éducation, la santé, le logement, etc. Comme l’a expliqué Katya Abazajian, fondatrice de la Local Data Futures Initiative, lors d’un panel sur le logement, « toutes les données sont biaisées. Il n’y a pas de données sans biais, il n’y a que des données sans contexte ». Rasheedah Phillips, directrice du logement pour PolicyLink, a ajouté : « les préjugés ne se limitent pas aux mauvais acteurs, ils sont intégrés dans les systèmes que nous utilisons ». Soulignant les injustices historiques et systémiques qui affectent la représentation des données, la criminologue et professeure de science des données Renee Cummings a rappelé le risque d’utiliser les nouvelles technologies pour moderniser les anciennes typologies raciales. « Les ensembles de données n’oublient pas », a-t-elle insisté.
Tout au long de la conférence, les intervenants n’ont cessé de rappeler l’importance des espaces physiques pour l’engagement communautaire. Aux Etats-Unis, institutions artistiques, églises, associations… sont partout des pôles d’organisation, d’éducation et d’accès à la technologie qui permettent de se mobiliser. Pour Fallon Wilson, cofondatrice de l’Institut de recherche Black Tech Futures, cela plaide pour mettre nos anciennes institutions historiques au coeur de notre rapport à la technologie, plutôt que les entreprises technologiques. Ce sont ces lieux qui devraient permettre de construire la gouvernance des données dont nous avons besoin, afin de construire des espaces de données que les communautés puissent contrôler et partager a défendu Jasmine McNealy.
Joan Mukogosi, qui a notamment travaillé pour Data & Society sur la dégradation des conditions de maternité des femmes noires et de leurs enfants, expliquait que nous avons besoin de données sur la vie des afro-américains et pas seulement sur la façon dont ils meurent. Pour l’anthropologue de la médecine Chesley Carter, ce changement de perspective pourrait conduire à une recherche plus constructive, porteuse de solutions. Nous devrions construire des enquêtes sur les atouts plutôt que sur les déficits, c’est-à-dire nous interroger sur ce qui améliore les résultats plutôt que ce qui les détériore. Cela permettrait certainement de mieux identifier les problèmes systémiques plutôt que les défaillances individuelles. Aymar Jean Christian, fondateur du Media and Data Equity Lab, qui prépare un livre sur les médias réparateurs à même de guérir notre culture pour les presses du MIT, a présenté le concept d’intelligence ancestrale, alternative à l’IA : un moyen de guérir des impacts des systèmes capitalistes en centrant les discussions sur la technologie et les données sur l’expérience des personnes de couleurs. C’est par le partage d’expériences personnelles que nous documenteront les impacts réels des systèmes sur la vie des gens.
La chercheuse Ruha Benjamin (voir notre lecture de son précédent livre, Race after technology) dont le nouveau livre est un manifeste de défense de l’imagination, a rappelé que l’avenir n’est que le reflet de nos choix actuels. « L’imagination est un muscle que nous devrions utiliser comme une ressource pour semer ce que nous voulons plutôt que de simplement déraciner ce que nous ne voulons pas ». Dans une interview pour Tech Policy, Benjamin rappelait que les imaginaires évoluaient dans un environnement très compétitif, qui rivalisent les uns avec les autres. Pour elle, face aux imaginaires dominants et marchands qui s’imposent à nous, le risque est que concevoir une nouvelle société devienne une impossibilité, tant ils nous colonisent par l’adhésion qu’ils suscitent tout en repoussant toujours plus violemment les imaginaires alternatifs. Pour elle, nous opposons souvent l’innovation et les préoccupations sociales, comme si les technologies innovantes étaient par nature autoritaires. Mais c’est notre conception même de l’innovation que nous devrions interroger. « Nous ne devrions pas appeler innovation ce qui exacerbe les problèmes sociaux ». En nous invitant à imaginer un monde sans prison, des écoles qui encouragent chacun ou une société où chacun a de la nourriture, un abri, de l’amour… Elle nous invite à réinventer la réalité que nous voulons construire.
-
10:03
Ça bouge en suisse
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueDans le but de mieux planifier les constructions en surface et souterraines, l’Office fédéral de topographie swisstopo ajoute de nouvelles données géologiques. Il s’agit d’une mise à jour de la couche Sismique réflexion. Les régions de Zurich, Bâle-Campagne, Argovie, Genève et Ob-/Nidwald disposent désormais de profils sismiques téléchargeables. L’outil localise les données acquises en Suisse dans le cadre de l’exploration du sous-sol géologique. Majoritairement en mesures 2D, le long des traces de profils, des mesures 3D plus étendues sont également disponibles dans la zone délimitée par les périmètres. Une mise à jour régulière est opérée. Triées par données publiques et non publiques, ces informations métier visent à aider les professionnels à exploiter le sous-sol de manière plus sûre. Elles se positionnent parmi une multitude d’autres géoressources diverses.
+ d'infos :
map.geo.admin.ch
-
7:00
LLMO : de l’optimisation de marque dans l’IA générative
sur Dans les algorithmes« Votre client le plus important, désormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. C’est le constat que dresse également Jack Smyth, responsable des solutions IA de JellyFish. Smyth travaille avec des marques pour les aider à comprendre comment leurs produits ou leurs entreprises sont perçues par les différents modèles d’IA afin de les aider à améliorer leur image. L’enjeu est d’établir une forme d’optimisation d’image, comme les entreprises le font déjà avec les moteurs de recherche, afin de s’assurer que sa marque est perçue positivement par un grand modèle de langage.
JellyFish propose d’ailleurs un outil, Share of Model, qui permet d’évaluer la façon dont différents modèles d’IA perçoivent les marques. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». L’enjeu, consiste à construire des campagnes marketing dédiée pour changer la perception de marque des modèles. « On ne sait pas encore si les changements fonctionnent », explique un client, « mais la trajectoire est positive ». A croire que l’important c’est d’y croire ! Sans compter que les changements dans la façon dont on peut demander une recommandation de produits dans un prompt produit des recommandations différentes, ce qui pousse les marques à proposer des invites pertinentes sur les forums, pour orienter les questions et donc les réponses à leur profit. En fait, le même jeu de chat et de souris que l’on connaît dans le SEO pourrait se répéter dans l’optimisation des LLM pour le marketing, au plus grand profit de ceux chargés d’accompagner les entreprises en manque d’argent à dépenser.
Le problème surtout, c’est que les biais marketing des LLM sont nombreux. Une étude montre que les marques internationales sont souvent perçues comme étant de meilleures qualités que les marques locales. Si vous demandez au LLM de recommander des cadeaux aux personnes vivant dans des pays à revenu élevé, il suggérera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays à faible revenu, il recommandera des marques non luxueuses.
L’IA s’annonce comme un nouveau public des marques, à dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs résultats financiers. Bref, le marketing a trouvé un nouveau produit à vendre ! Les entreprises vont adorer !
-
7:00
L’essor des PropTechs, les technologies pour les propriétaires immobiliers
sur Dans les algorithmesLes technologies des propriétaires sont en plein essor aux Etats-Unis, rapporte Tech Policy Press. Mais elles ne se limitent pas aux logiciels de tarification algorithmique de gestion immobilière, comme RealPage, dont nous vous avions déjà parlé (et que le ministère de la Justice continue de poursuivre au prétexte qu’il permettrait une entente anticoncurrentielle). Alors que la crise de l’accès au logement devient de plus en plus difficile pour nombre d’Américains, le risque est que la transformation numérique de l’immobilier devienne un piège numérique pour tous ceux à la recherche d’un logement. Le prix des loyers y devient de plus en plus inabordable. YieldStar de RealPage, influence désormais le prix de 70 % des appartements disponibles aux États-Unis et serait responsable de l’augmentation de 14% du prix de l’immobilier d’une année sur l’autre. Le développement de ces systèmes de fixation des prix coordonnés sapent l’idée que la concurrence sur le marché du logement pourrait seule protéger les locataires.
Des technologies pour harmoniser les tarifs, discriminer les locataires et accélérer les expulsionsMais la numérisation du marché ne s’applique pas seulement au tarif des locations, elle se développe aussi pour la sélection des locataires. Alors qu’aux Etats-Unis, les propriétaires étaient souvent peu exigeants sur les antécédents des locataires, désormais, les conditions pour passer les filtres des systèmes de sélection deviennent bien plus difficiles, reposant sur une inflation de justificatifs et des techniques d’évaluation des candidats à la location particulièrement opaques, à l’image de SingleKey, l’un des leader du secteur. 9 propriétaires sur 10 passent désormais par ce type de logiciels, en contradiction avec la loi américaine sur le logement équitable, notamment du fait qu’ils produisent un taux de refus de logement plus élevé sur certaines catégories de la population. Ces systèmes reproduisent et renforcent les discriminations, et surtout, rendent la relation propriétaire-locataire plus invasive. Mais, rappelaient déjà The Markup et le New York Times en 2020, ils s’appuient sur des systèmes de vérification d’antécédents automatisés et défectueux, qui par exemple agglomèrent des données d’homonymes et démultiplient les erreurs (et les homonymies ne sont pas distribuées de façon homogène : plus de 12 millions de Latinos à travers les Etats-Unis partageraient seulement 26 noms de famille !). Les casiers judiciaires des uns y sont confondus avec ceux des autres, dans des systèmes qui font des évaluations massives pour produire des scores, dont nul n’a intérêt à vérifier la pertinence, c’est-à-dire le taux de faux-positifs (comme nous le pointions relativement aux problèmes bancaires). Soumis à aucune normes, ces systèmes produisent de la discrimination dans l’indifférence générale. L’accès aux registres judiciaires et aux registres de crédits a permis aux entreprises de « vérification d’antécédents » de se démultiplier, sans que les « vérifications » qu’elles produisent ne soient vraiment vérifiées. Contrairement aux agences de crédit bancaires, dans le domaine de la location, les agences immobilières qui les utilisent ne sont pas contraintes de partager ces rapports d’information avec les candidats rejetés. Les locataires ne savent donc pas les raisons pour lesquelles leurs candidature sont rejetées.
Mais, rapporte encore Tech Policy Press, une troisième vague technologique est désormais à l’œuvre : les technologies d’expulsion, qui aident les propriétaires à rassembler les raisons d’expulser les locataires et à en gérer les aspects administratifs. C’est le cas par exemple de Teman GateGuard, un interphone « intelligent » qui permet de surveiller le comportement des locataires et enregistrer toute violation possible d’un bail, aussi anodine soit-elle, pour aider à documenter les infractions des locataires et remettre leurs biens sur le marché. SueYa est un service pour aider les propriétaires à résilier un bail de manière anticipée. Resident Interface propose quant à lui d’expulser les locataires rapidement et facilement… Des solutions qui n’enfreignent aucune loi, rappelle pertinemment Tech Policy Press, mais qui accélèrent les expulsions. Les propriétaires américains ont procédé à 1 115 000 expulsions en 2023, soit 100 000 de plus qu’en 2022 et 600 000 de plus qu’en 2021. Sans compter que ces expulsions peuvent être inscrites au casier judiciaire et rendre plus difficile la recherche d’un autre logement, et ce alors que les logements sociaux, les refuges et les services aux sans-abri sont notoirement sous-financés et insuffisants, alors même que de plus en plus d’Etat pénalisent les personnes SDF.
Pour l’instant, les tentatives de régulation des PropTechs sont plus juridiques que techniques, notamment en renforçant le droit au logement équitable. Des villes ou Etats prennent des mesures pour limiter les vérifications des antécédents des locataires ou interdire le recours à des logiciels de fixation de prix. Des actions de groupes contre RealPage ou Yardi ou contre des plateformes de contrôle des locataires, comme SafeRent ou CoreLogic, ont également lieu. Mais, « les régulateurs et les agences ne sont pas conçus pour être les seuls à faire respecter les protections et les conditions du marché ; ils sont conçus pour créer les conditions dans lesquelles les gens peuvent faire valoir leurs propres droits ». Les gouvernements locaux devraient soutenir publiquement la représentation juridique des locataires comme moyen d’atténuer les impacts de la crise du logement, et créer une meilleure responsabilité pour la technologie pour rétablir l’équité dans la relation propriétaire-locataire. À l’échelle nationale, 83 % des propriétaires ont une représentation juridique, contre seulement 4 % des locataires. La ville de Cleveland par exemple a piloté une représentation publique pour les locataires, ce qui a permis à 81 % des personnes représentées d’éviter une expulsion ou un déménagement involontaire, à 88 % de celles qui cherchaient un délai supplémentaire pour déménager d’obtenir ce délai et à 94 % de celles qui cherchaient à atténuer les dommages d’y parvenir. En fait, assurer cette représentation permet d’assurer aux gens qu’ils puissent exercer leurs droits.
Les PropTechs exacerbent la crise du logement. A défaut de substituts à des logements abordables, l’enjeu est que le droit puisse continuer à protéger ceux qui en ont le plus besoin. Mais sans documenter les discriminations que cette conjonction de systèmes produit, le droit aura surement bien des difficultés à menacer les technologies.
MAJ du 16/03/2025 : Signalons que The American Prospect consacre son dernier numéro à la crise du logement américaine : l’inflation immobilière est la principale responsable de l’inflation aux Etats-Unis.
-
9:36
Retour de flammes
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueL’application du Living Atlas, ArcGIS Wildfire Aware, a permis de suivre les incendies dévastateurs de Los Angeles du mois de janvier dernier. Cet outil a aidé à visualiser la progression des flammes grâce à des données provenant de sources variées comme le NIFC, la NASA, ou la NOAA. Cette ressource s’est montrée indispensable pour assister les professionnels impliqués dans la gestion de crise. Les citoyens ont aussi pu observer les zones d’évacuation, les conditions météorologiques et l’impact sur les infrastructures. Elle est complétée par les données de vol de FlightAware, une animation sur 24 heures reprenant l’activité de lutte contre le feu au-dessus de l’incendie des Palissades. Ces 9 et 10 janvier, plus de 35 avions pilotés par de nombreux opérateurs étatiques, locaux et commerciaux ont parcouru plus de 15.000 miles de vol pour contenir les flammes.
+ d'infos :
livingatlas.arcgis.com
-
7:01
IA au travail : un malaise persistant
sur Dans les algorithmesLes travailleurs américains sont plutôt sceptiques face à l’aide que peut leur apporter l’IA au travail. 80% d’entre eux ne l’utilisent pas, rapporte un sondage du Pew Internet, et ceux qui le font ne sont pas impressionnés par ses résultats. Les travailleurs sont plus inquiets qu’optimistes. Si les travailleurs plus jeunes et ceux qui ont des revenus plus élevés expriment plus d’enthousiasme à l’égard de l’IA au travail et à des taux plus élevés que les autres, l’inquiétude se propage à tous les groupes démographiques, rapporte le Washington Post. En fait, les attitudes des travailleurs à l’égard de l’IA risquent de devenir plus polarisées encore à la fois parce que les entreprises n’expliquent pas en quoi l’IA va aider leurs employés ni ne lèvent le risque sur l’emploi et le remplacement. Le malaise social de l’IA se répand bien plus qu’il ne se résout.
MAJ du 13/03/2025 : Dans sa newsletter, Brian Merchant pointe vers un autre sondage réalisé par le cabinet de consulting FGS pour Omidyar Network. Le sondage montre que si les travailleurs sont plutôt enthousiastes sur l’IA et la productivité qu’elle permet, ils savent que ces avantages ne leurs seront pas bénéfiques et qu’ils auront peu de contrôle sur la façon dont l’IA sera utilisée sur le lieu de travail. Bref, ils savent que l’IA sera un outil d’automatisation que la direction utilisera pour réduire les coûts de main-d’œuvre. Ils sont plus préoccupés par la perte d’emploi que par la menace que l’IA représente sur leur propre emploi. Par contre, ils sont très inquiets de la menace que représente l’IA sur la vie privée et sur la capacité d’apprentissage des enfants. Enfin, la plupart des travailleurs souhaitent des réglementations et des mesures de protection, ainsi que des mesures pour empêcher que les systèmes d’IA soient utilisés contre leurs intérêts et, bien sûr, pour dégrader les conditions de travail.
-
7:00
Atténuation des risques, entre complexité et inefficacité
sur Dans les algorithmesTim Bernard pour TechPolicy a lu les évaluations de risques systémiques que les principales plateformes sociales ont rendu à la Commission européenne dans le cadre des obligations qui s’imposent à elles avec le Digital Service Act. Le détail permet d’entrevoir la complexité des mesures d’atténuation que les plateformes mettent en place. Il montre par exemple que pour identifier certains contenus problématiques d’autres signaux que l’analyse du contenu peuvent se révéler bien plus utile, comme le comportement, le temps de réaction, les commentaires… Certains risques passent eux totalement à la trappe, comme les attaques par d’autres utilisateurs, les risques liés à l’utilisation excessive ou l’amplification de contenus polarisants et pas seulement ceux pouvant tomber sous le coup de la loi. On voit bien que la commission va devoir mieux orienter les demandes d’information qu’elle réclame aux plateformes (mais ça, la journaliste Gaby Miller nous l’avait déjà dit).
-
7:00
Dans les algorithmes bancaires
sur Dans les algorithmes« Faux positifs » est une série de 3 épisodes de podcasts produits par Algorithm Watch et l’AFP, disponibles en français ou en anglais, et que vous trouverez sur la plupart des plateforme. Cette série pourrait être une enquête anodine et pourtant, c’est l’une des rares de disponible sur le sujet des défaillances des algorithmes bancaires. Les 3 épisodes explorent le problème du debanking ou débancarisation, c’est-à-dire le blocage et la fermeture automatisée de comptes bancaires, sans que vous n’y puissiez rien. Un phénomène qui touche des centaines de milliers de personnes, comme le montre cette grande enquête à travers l’Europe.
Dans les erreurs de la débancarisationOn ne sait pas grand chose des innombrables algorithmes qu’utilisent les banques, rappellent les journalistes de Faux positifs. La débancarisation repose sur des alertes automatisées développées par les banques et leurs prestataires sur les mouvements de comptes et leurs titulaires, mais elles semblent bien souvent mal calibrées. Et sans corrections appropriées, elles débouchent très concrètement sur la fermeture de comptes en banques. Le problème, comme souvent face aux problèmes des systèmes du calcul du social, c’est que les banques ne mettent en place ni garanties ni droits de recours pour ceux dont les comptes sont considérés comme suspects par les systèmes de calculs. Et le problème s’étend à bas bruit, car les clients chassés de leurs banques n’ont pas tendance à en parler.
Ça commence assez simplement par le blocage brutal du compte, racontent ceux qui y ont été confrontés. Impossible alors de pouvoir faire la moindre opération. Les usagers reçoivent un courrier qui leur annonce que leur compte sera clos sous deux mois et qu’ils doivent retirer leurs fonds. Bien souvent, comme dans d’autres problèmes du social, les banques annoncent être en conformité avec la réglementation dans leur décision voire nient le fait que la décision soit automatisée et assurent que la décision finale est toujours prise par un humain, comme l’exige la loi. Rien n’est pourtant moins sûr.
Comme ailleurs, les explications fournies aux usagers sont lacunaires, et elles le sont d’autant plus, que, comme quand on est soupçonné de fraude dans les organismes sociaux, le fait d’être soupçonné de malversation bancaire diminue vos possibilités de recours plutôt qu’elle ne les augmente. Visiblement, expliquent les journalistes, le blocage serait lié à des erreurs dans le questionnaire KYC (Know your customer, système de connaissance client), un questionnaire très exhaustif et intrusif, assorti de pièces justificatives, qui permet de certifier l’identité des clients et leur activité. Bien souvent, les défaillances sont liées au fait que l’activité ou l’identité des clients est mal renseignée. Certaines catégories, comme le fait de pratiquer l’échange de devises, sont considérées comme des activités à haut risques et sont plus susceptibles que d’autres de déclencher des alertes et blocages.
« Les saisines de l’autorité de surveillance des banques pour des plaintes liées à des fermetures de comptes en banques ont quadruplé en Espagne entre 2018 et 2022« , rapporte le pool de journalistes auteurs du podcast. « En novembre 2023, le New York Times a publié une enquête sur le même phénomène et au Royaume-uni, une hausse de 69% des plaintes a été constatée entre 2020 et 2024 par le médiateur des banques. En France, ce sont les associations du culte musulman qui ont tiré la sonnette d’alarme » et alertent sur la discrimination bancaire dont elles sont l’objet. Un tiers de ces associations auraient expérimenté des fermetures de comptes. Les associations cultuelles, les personnalités politiques et les réfugiés politiques semblent faire partie des catégories les plus débancarisées.
En 2024, le problème des associations cultuelles musulmanes n’est toujours pas réglé, confirment les associations, les empêchant de payer leurs loyers ou leurs charges. Ici aussi, les victimes se retrouvent face à un mur, sans recevoir d’explications ou de solutions. Si les banques ont le droit de fermer les comptes inactifs ou à découvert, elles doivent aussi respecter une réglementation très stricte pour lutter contre le blanchiment d’argent ou le financement du terrorisme, et les amendes sont très élevées pour celles qui ne respectent pas ces contraintes. En France, les banques doivent rapporter à Tracfin, la cellule de renseignement financier, les opérations douteuses qu’elles détectent. Les algorithmes bancaires repèrent des opérations sensées correspondre à certaines caractéristiques et seuils, développés par les banques ou des acteurs tiers, aux critères confidentiels. Ces logiciels de surveillance de la clientèle se sont déployés, et avec eux, les « faux positifs », rapportent les journalistes.
A la Banque postale, rapporte un cadre, chaque années, ce sont plusieurs dizaines de milliers d’opérations qui font l’objet d’alertes. Une fois analyse faite, si l’alerte se confirme, l’opération est déclarée à Tracfin, mais 95% des alertes ne débouchent sur aucun signalement. Dans les banques, à Paris, 17 à 20 000 personnes vérifient chaque jour ces alertes. Mais, visiblement, les rapports d’activité suspecte existent et ne sont pas sans conséquence sur les comptes. En fait, contrairement à ce qu’on pourrait penser, les faux positifs visent à surprotéger les banques contre les amendes réglementaires, en démontrant aux régulateurs qu’elles agissent, qu’importe si cette efficacité est très défaillante. Les faux positifs ne sont pas tant des erreurs, qu’un levier pour se prémunir des amendes. Finalement, les banques semblent encouragées à produire des faux positifs pour montrer qu’elles agissent, tous comme les organismes sociaux sont poussés à détecter de la fraude pour atteindre leurs objectifs de contrôle ou les systèmes de contrôle fiscaux automatisés sont poussés à atteindre certains niveaux d’automatisation. Le fait de débrancher des comptes, de soupçonner en masse semble finalement un moyen simple pour montrer qu’on agit. Pour la professeure Mariola Marzouk de Vortex Risk qui a quitté le secteur de la conformité réglementaire des banques, cette conformité est hypocrite et toxique. Les erreurs ne sont pas un bug, elles sont une fonctionnalité, qui protège les banques au détriment des usagers.
Faux positifs, la série de podcast d’Algorithm Watch et de l’AFP. La débancarisation, outil bien commode de la réduction du risque
Le 2e épisode commence par revenir sur les Panama Papers et les scandales de l’évasion fiscale qui ont obligé les banques à renforcer leurs contrôles. Mais la véritable origine de la surveillance des comptes provient de la lutte contre le trafic de drogue, explique l’avocate Charlotte Gaudin, fondatrice de AML Factory, une entreprise qui aide les entreprises à lutter contre le blanchiment de capitaux et le financement du terrorisme, dans tous les secteurs, des banques, aux assurances, en passant par les notaires et avocats, aux entreprises de cryptomonnaies, qui « ont toutes l’obligation de surveiller leurs clients ». Pour Transparency International, les banques doivent surveiller les dépôts à risques, notamment provenance de pays à risques établis par le GAFI, le Groupe d’action financière, l’organisme mondial de surveillance du blanchiment de capitaux et du financement du terrorisme. Outre, le KYC, la surveillance des clients, il y aussi la surveillance des transactions (KYT, Know your transactions). Le KYC permet de générer un score client. Le KYT lui permet de regarder s’il y a des dépôts d’argents « décorélés de ce que vous êtes sensé gagner tous les mois ». Les dépôts d’espèces sont mécaniquement plus risqués que les dépôts par carte, par exemple. Quand un dépôt d’espèces semble suspect, la banque alerte Tracfin qui estime s’il faut prévenir la justice ou l’administration fiscale. Pour s’éviter des ennuis, la banque peut décider de fermer votre compte, sans avoir le droit de vous dire pourquoi pour que vous n’effaciez pas les preuves.
Le problème, c’est que cette réglementation font des banques des auxiliaires de police et de justice… Mais sans avoir les moyens ou les compétences de mener des enquêtes. Les banques, pour poursuivre leur but, gagner de l’argent, ont donc tendance à se débarrasser de tous clients qui pourraient les mettre en danger. « C’est ce qu’on appelle le « derisking » ». Pour Mariola Marzouk, « ces règles sont vraiment simplistes ». Elles peuvent dire qu’une ONG est à haut risque parce qu’elle envoie des fonds dans une zone de conflits. En janvier 2022, l’autorité bancaire européenne elle-même a lancé une alerte sur le risque du derisking. En 2023, le politicien britannique d’extrême-droite, Nigel Farage, s’est vu fermer ses comptes par sa banque et a lancé un appel à témoignage qui a rencontré beaucoup d’échos, montrant à nouveau l’étendue du problème. Tous les politiques sont jugés à hauts risques par ces systèmes et font l’objet de mesures de contrôles renforcés (on parle de PPE, Personnes politiquement exposées). Selon les données de l’autorité qui contrôle les banques et les marchés financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermé en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont été condamné pour ce délit ces mêmes années selon l’Institut des affaires économiques britanniques.
En France aussi, les politiques sont sous surveillance. C’est arrivé au sénateur centriste du Tarn, Philippe Folliot, qui a même déposé une loi contre la fermeture abusive des comptes bancaires. Pour le sénateur, la débancarisation est liée à la déshumanisation, aux développement des robots bancaires et aux fermetures d’agences. Depuis la crise financière de 2008, le nombre de succursales bancaires en France est passé de 180 000 agences à 106 000 en 2023. Si l’on en croit le Canard Enchaîné, il y aurait d’autres raisons à la débancarisation du sénateur du Tarn, notamment les activités de sa compagne, d’autant que les banques semblent également utiliser les informations de la presse et des réseaux sociaux pour prolonger leurs informations. Mais quand bien même ces informations auraient pu jouer dans ce cas précis, les banques agissent ici sans mandat ni preuves. Cela montre, il me semble, la grande limite à confier à des acteurs des pouvoirs de police et de justice, sans assurer de possibilités de se défendre. Un peu comme l’on confie désormais aux Gafams la possibilité d’exclure des utilisateurs sans que ceux-ci ne puissent faire de recours. « Les banques de leur côté, ne nient pas qu’il puisse y avoir des difficultés, mais soulignent qu’elles ne font qu’appliquer la réglementation », souligne un acteur de la réglementation bancaire. Dans le cadre de PPE, se sont tous les proches qui sont placés sous-surveillance.
Pour l’expert américain Aaron Ansari de RangeForce, les décisions, aux Etats-Unis, sont automatisés en temps réel. Depuis les années 2010, quand un dépôt est effectué, les signalements sont immédiats… et si la marge d’erreur est faible, les comptes sont automatiquement fermés. En Europe, on nous assure que ce n’est pas le cas.
Sans issue ?Le 3e épisode, évoque l’internationalisation du problème, en montrant que les banques peuvent débancariser des réfugiés politiques au prétexte qu’ils sont signalés comme terroristes par les pays autoritaires qu’ils ont fuit. La débancarisation est devenue un moyen pour exclure des opposants dans leurs pays et qui ont des effets au-delà de leurs pays d’origine.
Yasir Gökce, réfugié turc en Allemagne, estime que nombre d’opposants turcs en Europe sont débancarisés du fait que les banques utilisent des informations provenant de courtiers en données pour alimenter leurs algorithmes de débancarisation, sans toujours les trier. Des données turques assignent les opposants comme terroristes et ces termes restent dans les fiches nominatives des courtiers. Les banques les utilisent pour évaluer les risques, et à moins de prêter une attention particulière à ces données pour les désactiver, génèrent des scores de risque élevés…
Le grand problème, c’est que les citoyens confrontés à ces décisions n’ont pas de recours. Faire modifier leur fiches KYC ne leur est souvent même pas proposé. Pour Maíra Martini de Transparency International, « les institutions financières n’ont pas à rechercher de preuves. Ce n’est pourtant pas à elles de décider si des personnes sont ou pas criminelles ».
« Les institutions financières n’arrivent donc pas toujours à corriger les erreurs de leurs systèmes algorithmiques et faire appel de ces décisions fondées sur leurs calculs ou sur leur aversion au risque peut-être très compliqué. C’est un problème que l’on retrouve ailleurs : dans l’aide social, dans l’éducation, les ressources humaines. » Les citoyens ne savent pas à qui s’adresser pour demander un réexamen de leurs cas. En fait, bien souvent, la possibilité n’est même pas proposée. Dans les boucles absurdes des décisions automatisées, bien souvent, l’usager est laissé sans recours ni garantie. « Les boutons Kafka » qu’évoquait l’avocate hollandaise Marlies van Eck pour permettre aux administrés de s’extraire de situations inextricables, n’est toujours pas une option.
Maíra Martini estime que les institutions financières devraient motiver leurs décisions. Les autorités de contrôle devraient également mieux évaluer les fermetures de compte, demander aux banques des statistiques annuelles, pour connaître les types de comptes et de personnes touchées, la proportion de fermeture par rapport aux condamnations… Empêcher que les abus ne se cachent derrière l’envolée des « faux positifs ». Et que les « faux positifs » ne deviennent partout une solution à la minimisation des risques. Bref, peut-être un peu mieux surveiller le niveau de derisking afin qu’il ne soit pas le prétexte d’une discrimination en roue libre.
Hubert Guillaud
Prenez le temps d’aller écouter les 3 épisodes de « Faux positifs », pilotés par Naiara Bellio d’Algorithm Watch et Jean-Baptiste Oubrier pour l’Agence France-Presse. Signalons que les journalistes invitent les victimes de débancarisation à témoigner par message audio sur whatsapp au + 33 6 79 77 38 45 ou par mail : podcast@afp.com
-
10:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.