Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Feeds
5810 items (14 unread) in 55 feeds

-
Cybergeo
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (3 unread)
-
Mappemonde
-
Dans les algorithmes (3 unread)

-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN (2 unread)
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier (2 unread)
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR

-
Géoblogs (GeoRezo.net)
-
Conseil national de l'information géolocalisée
-
Geotribu
-
Les cafés géographiques
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Icem7
-
Séries temporelles (CESBIO)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies (1 unread)
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques (3 unread)
-
Veille cartographie
-
Makina Corpus
-
Oslandia
-
Camptocamp
-
Carnet (neo)cartographique
-
Le blog de Geomatys
-
GEOMATIQUE
-
Geomatick
-
CartONG (actualités)
Unread items (14)
-
19:31
Coup de jeune au SITG
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLe système d’information du territoire à Genève (SITG) connaît une évolution en 2025. Le projet de loi sur la géoinformation aide à gagner en efficacité, en ouverture et veut mettre en avant les données d’intérêt cantonal. Avec la transformation de sa réglementation et de son organisation technique et graphique, un site internet plus performant a pu être déployé. Il devient aussi plus souple à administrer pour les propriétaires de données, plus accessible et ouvert tout en respectant les contraintes de sécurité de l’État. Côté expérience utilisateur, la recherche est améliorée et les cartes interactives par thèmes sont davantage valorisées. L’identité du service est renforcée par la modernisation de la charte graphique. L’objectif de cette transformation est d’élargir les usages, accroître l’exploitation de la géoinformation et développer l’innovation. Ainsi que fortifier la qualité des données.
+ d'infos :
sitg.ge.ch
-
18:01
Rappels à propos du retrait des Story Maps Esri Classiques
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierDepuis 2019, Esri a engagé une transition des outils de création de récits cartographiques (StoryMaps) vers ArcGIS StoryMaps. J'avais eu l'occasion de l'évoquer il y a presque 4 ans avec notamment cet article arcOrama expliquant que les modèles d'application Story Maps Esri Classiques (Map Journal, Map Tour, Series, Cascade et Swipe) devaient être migrés vers le générateur unique ArcGIS StoryMaps. Afin de vous alerter sur l'approche des échéances annoncées à l'époque, cet article contient des rappels importants sur le retrait des Story Maps Esri Classiques.
Ce qu'il faut retenir à propos du retraits des StoryMaps Classiques :- Date de retrait : les récits réalisés avec les modèles de Story Maps Classiques seront retirées d'ArcGIS Online au premier trimestre 2026 et ont été retirées avec ArcGIS Enterprise 11.0.
- Ce qui change : après leur retrait, les modèles classiques de Story Maps Esri ne seront plus disponibles et les Story Maps existantes ne seront plus visibles avec leurs URL précédentes.
- Action requise : vous devez envisager une transition vers ArcGIS StoryMaps pour continuer à utiliser les fonctionnalités de narration cartographique modernes d’Esri et garantir la compatibilité avec les dernières technologies Web.
Retrait des Story Maps Esri Classiques
Le processus de retrait des récits Story Maps Classiques a été annoncé en 2019, peu de temps après le lancement d'ArcGIS StoryMaps par Esri. La suppression des Story Maps Classiques dans ArcGIS Online a été mise à jour et repoussée jusqu'au premier trimestre 2026.
Après cette date :
Les modèles classiques de cartes narratives Esri ne seront plus disponibles.
Bien que les contenus (texte, médias, cartes, liens d'application, etc.) restent dans les éléments ArcGIS Online, les Story Maps Classiques ne seront plus accessibles via leurs URL précédentes.
Esri recommande à tous les utilisateurs de passer à ArcGIS StoryMaps ou à d'autres applications ArcGIS de génération actuelle pour continuer à profiter de la dernière technologie de cartographie Web et des améliorations des capacités de narration.
Cette retraite s’applique-t-elle à ArcGIS Online, ArcGIS Enterprise ou les deux ?
Les informations et les dates contenues dans cet article s’appliquent principalement aux Story Maps Classiques dans ArcGIS Online.
Les Story Maps Classiques ont été retirées d'ArcGIS Enterprise 11.0 et ne sont accessibles que pour ArcGIS Enterprise 10.9.1 et versions antérieures. Vous trouverez plus d'informations sur le retrait des Story Maps Classiques d'ArcGIS Enterprise ici.
Pourquoi les Story Maps Esri Classiques sont-elles retirées ?
Evidemment, comme pour retrait de technologie dans le système ArcGIS, il y a un mixte de technologie, et des considérations de maintenabilité et de sécurité. Esri a lancé son premier modèle de narration en 2012. D'autres modèles ont ensuite suivi, notamment Cascade, Journal, Series, Shortlist, Swipe et Tour, collectivement connus sous le nom de Story Maps Classiques.
Ces modèles ont été créés à l'aide d'un SDK JavaScript désormais ancien, qui n'est plus prise en charge par Esri. Avec l'évolution des technologies web et des navigateurs, ces modèles risquent de devenir incompatibles avec les nouvelles technologies.
Le retrait de ces modèles permet à Esri de se concentrer sur ArcGIS StoryMaps, qui s'appuie sur une technologie moderne. Passez à ArcGIS StoryMaps dès aujourd'hui permet de bénéficier d'un support continu, de la sécurité et de l'accès à de nombreuses nouvelles fonctionnalités qui augmenteront largement la créativité dans vos narrations.
En passant à ArcGIS StoryMaps, vous pouvez bénéficier des dernières améliorations des outils de conception de récits d'Esri et maintenir l'accessibilité et le fonctionnement optimum de vos récits au fil des avancées technologiques. ArcGIS Story Maps est mis à jour une à deux fois par mois.
Qu'est-ce qu'ArcGIS StoryMaps ?
Lancée en 2019, la plupart d'entre vous l'utilise déjà très largement. ArcGIS StoryMaps est une plateforme moderne et unifiée pour la création de récits interactifs et dynamiques. Elle consolide les fonctionnalités des Story Maps classiques d'Esri tout en introduisant des fonctionnalités améliorées, telles que :- Créer des structures narratives enchainant des mécanismes telles que des galleries d'images, de cartes, des visites cartographiques (Map Tour), des panneaux latéraux déroulants, ...
- Concevoir des présentations basées sur des diapositives (appelées des Briefings ArcGIS StoryMaps),
- Intégrer et bénéficier des outils de cartographie sur le web les plus récents avec le support des dernière innovation sur les cartes web (2D) et scènes web (3D),
- Une plus grande flexibilité dans la conception et la personnalisation de vos récits avec la possibilité de les rassembler en collections de StoryMaps.
Que devez-vous faire maintenant ?
Si vous disposez encore de Story Maps Classiques, Esri recommande de considérer une migration vers ArcGIS StoryMaps dès maintenant pour garantir un accès continu aux fonctionnalités de narration modernes .
Pour obtenir des conseils sur la transition des cartes Esri Story Maps classiques vers ArcGIS StoryMaps, consultez cet article (en anglais) "Gérer le retrait des Story Maps Esri Classiques dans votre organisation". Cet article de blog fournit des instructions utiles, des outils, des bonnes pratiques et des recommandations d'experts pour garantir une migration fluide et réussie. C'est le point de départ idéal pour vous aider à gérer le retrait des Story Maps Classiques et à profiter pleinement des fonctionnalités et avantages d'ArcGIS StoryMaps.
Bien entendu, vous pouvez également vous rapprocher des équipes techniques d'Esri France pour être accompagnez sur certains points critiques de cette migration.
-
10:51
Détournement de Google Maps pour rendre visible les invisibles (Utopia 56)
sur Cartographies numériquesSource : « Quand l'association Utopia 56 pirate Google Maps pour rendre visible les "invisibles" » (Radio France)
L'association "Utopia 56" révèle son opération de communication autour du piratage de Google Maps. Pendant l'été 2024, en marge de l’organisation des Jeux olympiques, des milliers de personnes ont été déplacées vers d’autres villes pour faire place nette. Ces images de sans-papiers, de réfugiés, de travailleurs immigrés sommés de rentrer dans des cars des forces de l’ordre ont été assez violentes à regarder et de nombreuses associations comme Médecins du monde ou Emmaüs ont dénoncé un "nettoyage social". Mais la fête était trop belle, et l’opinion a focalisé son attention sur l’appel du podium, loin du revers de la médaille.
La firme américaine a fini par repérer ce gentil piratage de ses fonctionnalités et a supprimé tous les pin's. Ce grand nettoyage de printemps n’a pas découragé Utopia 56, qui poursuit aujourd’hui cette stratégie de sensibilisation en jouant sur le délai de réactivité, très variable, de la plateforme. Récemment, ce sont de nombreux pin's qui se sont ajoutés du côté de la Gaîté Lyrique pour décrire la violence des expulsions de mineurs isolés.
Ce qui est assez déroutant dans cette action de visibilisation de la précarité, c'est notre regard : accorderait-on plus plus d’importance à un pixel sur une carte numérique qu’à un humain sur le bitume ? Utopia 56 a réussi sa démarche de sensibilisation en utilisant la virtualité désincarnée du numérique pour mieux pointer la déshumanisation de nos sociétés connectées.
Pour en savoir plus
« Trêve hivernale : Utopia 56 détourne Google Maps pour recenser les sans-abris expulsés » (Libération). L’association qui combat le sans-abrisme a utilisé l’application de géolocalisation pour indiquer les lieux où des personnes en situation de grande précarité ont été déplacées de force. Après une première salve de censure par Google, le collectif poursuit son détournement de l’outil.
« Utopia56 - Cartographie des campements parisiens » (Dataforgood.fr).CartoCampement est un outil de cartographie collaborative des campements de personnes exilées à Paris, développé par Utopia 56 en partenariat avec Action Contre la Faim et la Croix-Rouge, pour optimiser l'aide humanitaire et améliorer la coordination entre associations.Articles connexes
Contre-cartographie : ce que Google Maps ne vous montre pas
Google Street View et sa couverture géographique très sélective
Des images Lidar pour rendre visible l'invisible. L'exemple de l'archéologie
JO de Paris 2024. Quand la flamme olympique évite la "diagonale du vide"
Les aires d'accueil des gens du voyage en France : des territoires marginalisés
« Personne n'habite ici » ou comment cartographier le vide ?
Le Blanc des cartes. Quand le vide s'éclaire (Atlas Autrement)
Atlas de l'absence. Le patrimoine culturel du Cameroun en Allemagne
A l'ère numérique, les cartes à punaises ont-elles vraiment disparu ?
-
8:18
Territoires virtuels
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLes jumeaux numériques dans les territoires en France et en Europe, l’enjeu de collaboration nationale autour du numérique pour les infrastructures et les territoires ou encore les maquettes numériques, modélisations 3D et jumeaux numériques en outils de collaboration, d’aide à la décision et de mutualisation territoriale font partie des sujets qui seront abordés fin mai lors de VirtualTer. Cette conférence de 4 demi-journées à l’Université de Caen Normandie, à laquelle notre rédaction est associée avec le CBUG, l’IGN, le BRGM, le Cerema et MINDd2025, s’adresse aux élus, aux décideurs et aux services métiers de structures publiques et parapubliques. Elle va permettre de présenter des projets à diverses échelles (du bâtiment au territoire, du quartier à la ville), mais aussi différentes thématiques : îlots de chaleur, problématiques de sous-sol, impact assurantiel, sécurité civile, etc. Il s’agit de montrer que la collaboration entre communautés métiers différentes amène à une démarche gagnante pour tous.
+ d'infos :
urlr.me
-
9:57
VirtualTer 2025, une fabrique collective des jumeaux numériques pour les territoires de demain
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueDu 26 au 28 mai, les acteurs clés des jumeaux numériques territoriaux se réunissent à Caen. Un événement majeur pour anticiper les transformations liées à la transition écologique et numérique.Du 26 au 28 mai, Caen sera la vitrine territoriale pour les jumeaux numériques en accueillant VirtualTer 2025, le colloque national de référence sur les jumeaux numériques appliqués aux territoires. Co-organisé par le BRGM, le Cerema, le CNIG, l’IGN, l’Université de Caen et le programme MINnD2050, l’événement entend fédérer expertises, approches et innovations pour « collaborer les jours d’avant afin d’anticiper les jours d’après ».
Ville engagée dans la transition écologique et numérique, Caen et son agglomération expérimentent des scénarios d’adaptation (recul du trait de côte, submersion marine, îlots de chaleur…), appuyés par la modélisation numérique. L’Université de Caen est quant à elle une référence nationale en matière de gestion patrimoniale BIM/CIM, et son Campus 1, en plein cœur de ville, servira de cadre au colloque. Il semble un brin logique que cette Université et cette ville servent d’écrin à cette première édition de VirtualTER.
Quel rôle pour les jumeaux numériques dans l’adaptation des territoires au changement climatique ? Comment renforcer la collaboration entre acteurs publics, experts techniques et décideurs politiques pour penser ensemble les territoires connectés, résilients et durables ? Ce sont quelques-unes des grandes questions qui animeront VirtualTer 2025, dont l’ambition est de devenir l’espace national et européen de référence sur les usages des jumeaux numériques, de l’échelle du bâtiment à celle du territoire dans toutes ses dimensions.
?Un programme riche, au croisement des enjeux VirtualTer 2025 proposera quatre demi-journées thématiques articulées autour de la collaboration, l’adaptation territoriale, la gouvernance des données et les retours d’expériences internationaux.
Parmi les temps forts, une ouverture sur les territoires connectés et durables et des cas d’usage emblématiques venus de France, Suisse, Québec ou Montréal. Une séquence sera consacrée à la modélisation des infrastructures, avec le retour d’expérience de l’Université de Caen sur la gestion patrimoniale en BIM/CIM (mardi 27 mai).
Les deux premiers jours, des focus seront aussi réalisés sur les enjeux éthiques, sanitaires et sécuritaires liés aux données géolocalisées et aux jumeaux numériques, avec notamment un point d’étape sur le projet national IGN/Cerema/INRIA. Une table ronde, mardi après-midi, rassemblera les directions générales du BRGM, Cerema, CNIG, IGN France et IGN Québec autour de la résilience urbaine.
Enfin, mercredi 28 mai sera une matinée totalement internationale (en anglais, avec traduction simultanée) avec des contributions du Japon, des Pays-Bas, de l’Allemagne et du Danemark, illustrant la montée en puissance des jumeaux numériques dans les politiques publiques à l’échelle mondiale.
Belle opportunité pour découvrir, échanger et co-construire les jumeaux numériques de demain, VirtualTer 2025 est un événement gratuit, mais sur inscription obligatoire. Retrouvez les rédactions de SIGMAG SIGTV.FR et Twin+, partenaires presse de l’événement, sur le village de VirtualTer, les 26 et 27 mai.
+ d'infos :
minnd2050.fr/index.php/virtualter-2025/
-
8:24
Les SDKs ArcGIS Maps for Native Apps passent en version 200.7
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Les SDKs ArcGIS Maps for Native Apps permettent aux développeurs de concevoir des applications géospatiales natives (qui s'installent sur votre poste bureautique, tablette ou smartphone). Elles proposent ainsi les nombreuses capacités SIG du système ArcGIS, en 2D et 3D, en étant connecté ou déconnecté.
La version 200.7 des ArcGIS Maps SDKs for Native Apps apporte des avancées significatives, notamment pour les workflows mobiles et terrain :- Utility Networks : amélioration de l’éditeur de géométrie avec snapping basé sur les règles de connectivité. Cela permet de guider en temps réel la création/modification d'entités tout en respectant les règles du réseau.
- Entités dynamiques : possibilité d’exécuter des requêtes attributaires et spatiales à la volée (snapshot queries), sur des flux en temps réel, pour extraire des entités répondant à des critères spécifiques.
- Superposition d'images 2D : extension aux vues 2D de la capacité de superposition d’images géoréférencées déjà disponible en 3D.
- SDK Flutter : avancement vers la parité fonctionnelle avec ajout du support des rasters, geotriggers, navigation, gestion des identifiants et image overlays. Le toolkit Flutter est repoussé à la prochaine version.
- Optimisations communes aux différents SDKs :
- Support des sous-tables de sous-types dans les webmaps/mobile maps.
- Navigation dans les associations réseau (containers, structures, etc.) via les formulaires et popups.
- Performances 3D largement revues à la hausse.
- Optimistation spécifiques à certains SDKs :
- Kotlin : composants AR temps réel, légende, fonds de carte.
- .NET : nouveau Calcite .NET toolkit pour UI personnalisables.
- Qt : mise à jour vers Qt 6.8 LTS.
- Swift : nouveau composant OfflineMapAreasView pour la gestion offline avancée.
- Dépréciation du Local Server : Ses capacités son désormais pris en charge par le coeur des SDKs, son retrait est donc prévu après la version 200.8 (Q3 2025), qui sera une version LTS (Long Term Support) jusqu’en 2030.
Pour découvrir ces évolutions et d'autres non listées ici, je vous recommande la lecture de cet article de ma collègue Pauline Louis sur le blog CodeTheMap.
-
7:00
Internet : une si longue dépossession
sur Dans les algorithmesEn 2022, Ben Tarnoff fait paraître Internet for the people, the fight for the future, un livre essentiel pour comprendre les conséquences de la privatisation d’internet. Retour de lecture.
Ben Tarnoff est un chercheur et un penseur important des réseaux. Éditeur de l’excellent Logic Mag, il est également l’un des membres de la Collective action in tech, un réseau pour documenter et faire avancer les mobilisations des travailleurs de la tech.
Il a publié notamment un manifeste, The Making of tech worker movement – dont avait rendu compte Irénée Régnauld dans Mais où va le web ? -, ainsi que Voices from the Valley, un recueil de témoignages des travailleurs de la tech. Critique engagé, ces dernières années, Tarnoff a notamment proposé, dans une remarquable tribune pour Jacobin, d’abolir les outils numériques pour le contrôle social (« Certains services numériques ne doivent pas être rendus moins commodes ou plus démocratiques, mais tout simplement abolis »), ou encore, pour The Guardian, de dé-informatiser pour décarboner le monde (en invitant à réfléchir aux activités numériques que nous devrions suspendre, arrêter, supprimer). Il publie ce jour son premier essai, Internet for the people, the fight of your digital future (Verso, 2022, non traduit).
Internet for the People n’est pas une contre-histoire de l’internet, ni une histoire populaire du réseau (qui donnerait la voix à ceux qui ne font pas l’histoire, comme l’avait fait l’historien Howard Zinn), c’est avant tout l’histoire de notre déprise, de comment nous avons été dépossédé d’internet, et comment nous pourrions peut-être reconquérir le réseau des réseaux. C’est un livre souvent amer, mais assurément politique, qui tente de trouver les voies à des alternatives pour nous extraire de l’industrialisation du net. Sa force, assurément, est de très bien décrire comment l’industrialisation s’est structurée à toutes les couches du réseau. Car si nous avons été dépossédés, c’est bien parce qu’internet a été privatisé par devers nous, si ce n’est contre nous.
« Les réseaux ont toujours été essentiels à l’expansion capitaliste et à la globalisation. Ils participent à la création des marchés, à l’extraction des ressources, à la division et à la distribution du travail. » Pensez au rôle du télégraphe dans l’expansion coloniale par exemple, comme aux câbles sous-marins qui empruntent les routes maritimes des colons comme des esclaves – tout comme les données et processus de reporting standardisés ont été utilisés pour asseoir le commerce triangulaire et pour distancier dans et par les chiffres la réalité des violences commises par l’esclavage, comme l’explique l’historienne Caitlin Rosenthal dans son livre Accounting for Slavery : Masters & Management.
« La connectivité n’est jamais neutre. La croissance des réseaux a toujours été guidée par le désir de puissance et de profit. Ils n’ont pas été conduits pour seulement convoyer de l’information, mais comme des mécanismes pour forger des relations de contrôle. » La défiance envers le monde numérique et ses effets n’a cessé de monter ces dernières années, dénonçant la censure, la désinformation, la surveillance, les discriminations comme les inégalités qu’il génère. Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. Pour Tarnoff, la racine du problème est pourtant simple : « l’internet est brisé parce que l’internet est un business ». Même « un internet appartenant à des entreprises plus petites, plus entrepreneuriales, plus régulées, restera un internet qui marche sur le profit », c’est-à-dire « un internet où les gens ne peuvent participer aux décisions qui les affectent ». L’internet pour les gens sans les gens est depuis trop longtemps le mode de fonctionnement de l’industrie du numérique, sans que rien d’autre qu’une contestation encore trop timorée ne vienne le remettre en cause.
Ben Tarnoff et la couverture de son livre, Internet for the People. Privatisation partout, justice nulle part
L’internet n’a pas toujours eu la forme qu’on lui connaît, rappelle Tarnoff. Né d’une manière expérimentale dans les années 70, c’est à partir des années 90 que le processus de privatisation s’enclenche. Cette privatisation « n’est pas seulement un transfert de propriété du public au privé, mais un mouvement plus complexe où les entreprises ont programmé le moteur du profit à chaque niveau du réseau », que ce soit au niveau matériel, logiciel, législatif ou entrepreneurial… « Certaines choses sont trop petites pour être observées sans un microscope, d’autres trop grosses pour être observées sans métaphores ». Pour Tarnoff, nous devons regarder l’internet comme un empilement (stack, qui est aussi le titre du livre de Benjamin Bratton qui décompose et cartographie les différents régimes de souveraineté d’internet, qui se superposent et s’imbriquent les uns dans les autres), un agencement de tuyaux et de couches technologiques qui le compose, qui va des câbles sous-marins aux sites et applications d’où nous faisons l’expérience d’internet. Avec le déploiement d’internet, la privatisation est remontée des profondeurs de la pile jusqu’à sa surface. « La motivation au profit n’a pas seulement organisé la plomberie profonde du réseau, mais également chaque aspect de nos vies en ligne ».
En cela, Internet for the people se veut un manifeste, dans le sens où il rend cette histoire de la privatisation manifeste. Ainsi, le techlash ne signifie rien si on ne le relie pas à l’héritage de cette dépossession. Les inégalités d’accès comme la propagande d’extrême droite qui fleurit sur les médias sociaux sont également les conséquences de ces privatisations. « Pour construire un meilleur internet (ou le réparer), nous devons changer la façon dont il est détenu et organisé. Pas par un regard consistant à améliorer les marchés, mais en cherchant à les rendre moins dominants. Non pas pour créer des marchés ou des versions de la privatisation plus compétitifs ou réglementés, mais pour les renverser ».
« La “déprivatisation” vise à créer un internet où les gens comptent plus que les profits ». Nous devons prendre le contrôle collectif des espaces en ligne, où nos vies prennent désormais place. Pour y parvenir, nous devons développer et encourager de nouveaux modèles de propriété qui favorisent la gouvernance collective et la participation, nous devons créer des structures qui favorisent ce type d’expérimentations. Or, « les contours précis d’un internet démocratique ne peuvent être découverts que par des processus démocratiques, via des gens qui s’assemblent pour construire le monde qu’ils souhaitent ». C’est à en créer les conditions que nous devons œuvrer, conclut Tarnoff dans son introduction.
Coincés dans les tuyauxDans la première partie de son livre, Tarnoff s’intéresse d’abord aux tuyaux en nous ramenant aux débuts du réseau. L’internet n’est alors qu’un langage, qu’un ensemble de règles permettant aux ordinateurs de communiquer. À la fin des années 70, il est alors isolé des forces du marché par les autorités qui financent un travail scientifique de long terme. Il implique des centaines d’individus qui collaborent entre eux à bâtir ces méthodes de communication. C’est l’époque d’Arpanet où le réseau bénéficie de l’argent de la Darpa (l’agence de la Défense américaine chargée du développement des nouvelles technologies) et également d’une éthique open source qui va encourager la collaboration et l’expérimentation, tout comme la créativité scientifique. « C’est l’absence de motivation par le profit et la présence d’une gestion publique qui rend l’invention d’internet possible ».
C’est seulement dans les années 90 que les choses changent. Le gouvernement américain va alors céder les tuyaux à des entreprises, sans rien exiger en retour. Le temps de l’internet des chercheurs est fini. Or, explique Tarnoff, la privatisation n’est pas venue de nulle part, elle a été planifiée. En cause, le succès de l’internet de la recherche. NSFNet, le réseau de la Fondation nationale pour la science qui a succédé à Arpanet en 1985, en excluant les activités commerciales, a fait naître en parallèle les premiers réseaux privés. Avec l’invention du web, qui rend l’internet plus convivial (le premier site web date de 1990, le navigateur Mosaic de 1993), les entreprises parviennent à proposer les premiers accès commerciaux à NSFNet en 1991. En fait, le réseau national des fondations scientifiques n’a pas tant ouvert l’internet à la compétition : il a surtout transféré l’accès à des opérateurs privés, sans leur imposer de conditions et ce, très rapidement.
En 1995, la privatisation des tuyaux est achevée. Pour tout le monde, à l’époque, c’était la bonne chose à faire, si ce n’est la seule. Il faut dire que les années 90 étaient les années d’un marché libre triomphant. La mainmise sur l’internet n’est finalement qu’une mise en application de ces idées, dans un moment où la contestation n’était pas très vive, notamment parce que les utilisateurs n’étaient encore pas très nombreux pour défendre un autre internet. D’autres solutions auraient pu être possibles, estime Tarnoff. Mais plutôt que de les explorer, nous avons laissé l’industrie dicter unilatéralement ses conditions. Pour elle, la privatisation était la condition à la popularisation d’internet. C’était un faux choix, mais le seul qui nous a été présenté, estime Tarnoff. L’industrie a récupéré une technologie patiemment développée par la recherche publique. La dérégulation des télécoms concomitante n’a fait qu’accélérer les choses. Pour Tarnoff, nous avons raté les alternatives. Les profits les ont en tout cas fermé. Et le «pillage » a continué. L’épine dorsale d’internet est toujours la propriété de quelques entreprises qui pour beaucoup sont alors aussi devenues fournisseurs d’accès. La concentration de pouvoir prévaut à tous les niveaux, à l’image des principales entreprises qui organisent et possèdent l’information qui passent dans les réseaux. Google, Netflix, Facebook, Microsoft, Apple et Amazon comptent pour la moitié du trafic internet. La privatisation nous a promis un meilleur service, un accès plus large, un meilleur internet. Pourtant, le constat est inverse. Les Américains payent un accès internet parmi les plus chers du monde et le moins bon. Quant à ceux qui sont trop pauvres ou trop éloignés du réseau, ils continuent à en être exclus. En 2018, la moitié des Américains n’avaient pas accès à un internet à haut débit. Et cette déconnexion est encore plus forte si en plus d’habiter loin des villes vous avez peu de revenus. Aux États-Unis, l’accès au réseau demeure un luxe.
Mais l’internet privé n’est pas seulement inéquitable, il est surtout non-démocratique. Les utilisateurs n’ont pas participé et ne participent toujours pas aux choix de déploiements techniques que font les entreprises pour eux, comme nous l’ont montré, très récemment, les faux débats sur la 5G. « Les marchés ne vous donnent pas ce dont vous avez besoin, ils vous donnent ce que vous pouvez vous offrir ». « Le profit reste le principe qui détermine comment la connectivité est distribuée ».
Pourtant, insiste Tarnoff, des alternatives existent aux monopoles des fournisseurs d’accès. En 1935, à Chattanooga, dans le Tennessee, la ville a décidé d’être propriétaire de son système de distribution d’électricité, l’Electric Power Board. En 2010, elle a lancé une offre d’accès à haut débit, The Gig, qui est la plus rapide et la moins chère des États-Unis, et qui propose un accès même à ceux qui n’en ont pas les moyens. C’est le réseau haut débit municipal le plus célèbre des États-Unis. Ce n’est pas le seul. Quelque 900 coopératives à travers les États-Unis proposent des accès au réseau. Non seulement elles proposent de meilleurs services à petits prix, mais surtout, elles sont participatives, contrôlées par leurs membres qui en sont aussi les utilisateurs. Toutes privilégient le bien social plutôt que le profit. Elles n’ont pas pour but d’enrichir les opérateurs. À Detroit, ville particulièrement pauvre et majoritairement noire, la connexion a longtemps été désastreuse. Depuis 2016, le Detroit Community Technology Project (DCTP) a lancé un réseau sans fil pour bénéficier aux plus démunis. Non seulement la communauté possède l’infrastructure, mais elle participe également à sa maintenance et à son évolution. DCTP investit des habitants en « digital stewards » chargés de maintenir le réseau, d’éduquer à son usage, mais également de favoriser la connectivité des gens entre eux, assumant par là une fonction politique à la manière de Community organizers.
Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience. Or, ces expériences de réseaux locaux municipaux défient la fable de la privatisation. Elles nous montrent qu’un autre internet est possible, mais surtout que l’expérience même d’internet n’a pas à être nécessairement privée. La privatisation ne décrit pas seulement un processus économique ou politique, mais également un processus social qui nécessite des consommateurs passifs et isolés les uns des autres. À Detroit comme à Chattanooga, les utilisateurs sont aussi des participants actifs à la croissance, à la maintenance, à la gouvernance de l’infrastructure. Tarnoff rappelle néanmoins que ces réseaux municipaux ont été particulièrement combattus par les industries du numériques et les fournisseurs d’accès. Mais contrairement à ce que nous racontent les grands opérateurs de réseaux, il y a des alternatives. Le problème est qu’elles ne sont pas suffisamment défendues, étendues, approfondies… Pour autant, ces alternatives ne sont pas magiques. « La décentralisation ne signifie pas automatiquement démocratisation : elle peut servir aussi à concentrer le pouvoir plus qu’à le distribuer ». Internet reste un réseau de réseau et les nœuds d’interconnections sont les points difficiles d’une telle topographie. Pour assurer l’interconnexion, il est nécessaire également de « déprivatiser » l’épine dorsale des interconnexions de réseaux, qui devrait être gérée par une agence fédérale ou une fédération de coopératives. Cela peut sembler encore utopique, mais si l’internet n’est déprivatisé qu’à un endroit, cela ne suffira pas, car cela risque de créer des zones isolées, marginales et surtout qui peuvent être facilement renversées – ce qui n’est pas sans rappeler le délitement des initiatives de réseau internet sans fil communautaire, comme Paris sans fil, mangés par la concurrence privée et la commodité de service qu’elle proposent que nous évoquions à la fin de cet article.
Dans les années 90, quand la privatisation s’est installée, nous avons manqué de propositions, d’un mouvement en défense d’un internet démocratique, estime Tarnoff. Nous aurions pu avoir, « une voie publique sur les autoroutes de l’information ». Cela n’a pas été le cas.
Désormais, pour déprivatiser les tuyaux (si je ne me trompe pas, Tarnoff n’utilise jamais le terme de nationalisation, un concept peut-être trop loin pour le contexte américain), il faut résoudre plusieurs problèmes. L’argent, toujours. Les cartels du haut débit reçoivent de fortes injections d’argent public notamment pour étendre l’accès, mais sans rien vraiment produire pour y remédier. Nous donnons donc de l’argent à des entreprises qui sont responsables de la crise de la connectivité pour la résoudre ! Pour Tarnoff, nous devrions surtout rediriger les aides publiques vers des réseaux alternatifs, améliorer les standards d’accès, de vitesse, de fiabilité. Nous devrions également nous assurer que les réseaux publics locaux fassent du respect de la vie privée une priorité, comme l’a fait à son époque la poste, en refusant d’ouvrir les courriers ! Mais, si les lois et les régulations sont utiles, « le meilleur moyen de garantir que les institutions publiques servent les gens, est de favoriser la présence de ces gens à l’intérieur de ces institutions ». Nous devons aller vers des structures de gouvernances inclusives et expansives, comme le défendent Andrew Cumbers et Thomas Hanna dans « Constructing the Democratic Public Entreprise »(.pdf) (à prolonger par le rapport Democratic Digital Infrastructure qu’a publié Democracy Collaborative, le laboratoire de recherche et développement sur la démocratisation de l’économie).
Coincés dans les plateformesLes années 90 sont les années du web. En 1995, l’internet ne ressemble plus tout à fait à un réseau de recherche. Avec 45 millions d’utilisateurs et 23 500 sites web, l’internet commence à se transformer. Chez Microsoft, Bill Gates annonce qu’internet sera leur priorité numéro un. Jeff Bezos lance Amazon. Pierre Omidyar AuctionWeb, qui deviendra eBay. C’est le début des grandes entreprises de l’internet, de celles qui deviendront des « plateformes », un terme qui mystifie plus qu’il n’éclaircit, qui permet de projeter sur la souveraineté qu’elles conquièrent une aura d’ouverture et de neutralité, quand elles ne font qu’ordonner et régir nos espaces digitaux. Si la privatisation d’internet a commencé par les fondements, les tuyaux, au mitan des années 90, cette phase est terminée. « La prochaine étape consistera à maximiser les profits dans les étages supérieurs, dans la couche applicative, là où les utilisateurs utilisent l’internet ». C’est le début de la bulle internet jusqu’à son implosion.
eBay a survécu au crash des années 2000 parce qu’elle était l’une des rares exceptions aux startups d’alors. eBay avait un business model et est devenu très rapidement profitable. eBay a aussi ouvert un modèle : l’entreprise n’a pas seulement offert un espace à l’activité de ses utilisateurs, son espace a été constitué par eux, en les impliquant dans son développement, selon les principes de ce qu’on appellera ensuite le web 2.0. La valeur technique de l’internet a toujours été ailleurs. Sociale plus que technique, estime Tarnoff (pour ma part, je pense que ce n’est pas si clair, l’industrialisation inédite qui s’est construite avec le numérique, n’est pas uniquement sociale, elle me semble surtout économique et politique).
En 1971, quand Ray Tomlinson invente le mail, celui-ci devient très rapidement très populaire et représente très vite l’essentiel du trafic du premier réseau. L’e-mail a humanisé le réseau. Les échanges avec les autres sont rapidement devenu l’attraction principale. Avec eBay, Omidyar va réussir à refondre sa communauté en marché. Le succès des plateformes du web 2.0 va consister à «fusionner les relations sociales aux relations de marché », par trois leviers : la position d’intermédiaire (entre acheteurs et vendeurs), la souveraineté (la plateforme façonne les interactions, écrits les règles, fonctionne comme un législateur et un architecte) et bien sûr les effets réseaux (plus les gens utilisent, plus l’espace prend de la valeur). La couche applicative de l’internet va ainsi se transformer en vastes centres commerciaux : des environnements clos, qui vont tirer leurs revenus à la fois de la rente que procurent ces espaces pour ceux qui veulent en bénéficier et de la revente de données le plus souvent sous forme publicitaire (mais pas seulement). La collecte et l’analyse de données vont d’ailleurs très vite devenir la fonction primaire de ces « centres commerciaux en ligne ». « La donnée a propulsé la réorganisation de l’internet », à l’image de Google qui l’a utilisé pour améliorer son moteur, puis pour vendre de la publicité, lui permettant de devenir, dès 2002, profitable. C’est la logique même du Capitalisme de surveillance de Shoshana Zuboff. Une logique qui préexistait aux entreprises de l’internet, comme le raconte le pionnier des études sur la surveillance, Oscar H. Gandy, dans ses études sur les médias de masse, les banques ou les compagnies d’assurances, mais qui va, avec la circulation des données, élargir la surface de sa surveillance.
Malgré toutes ses faiblesses (vous atteignez surtout les catégories produites par les systèmes que la réalité des gens, c’est-à-dire la manière dont le système caractérise les usagers, même si ces caractères se révèlent souvent faux parce que calculés), la surveillance des utilisateurs pour leur livrer de la publicité ciblée va construire les principaux empires des Gafams que nous connaissons encore aujourd’hui. Si la publicité joue un rôle essentiel dans la privatisation, les «Empires élastiques » des Gafams, comme les appels Tarnoff, ne vont pas seulement utiliser l’analyse de données pour vendre des biens et de la publicité, ils vont aussi l’utiliser pour créer des places de marché pour les moyens de production, c’est-à-dire produire du logiciel pour l’internet commercial.
« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie », rappelle Tarnoff avec les accents de Pièces et Main d’œuvre. Avec les applications, les pages internet sont devenues plus dynamiques et complexes, « conçues pour saisir l’attention des utilisateurs, stimuler leur engagement, liées pour élaborer des systèmes souterrains de collecte et d’analyse des données ». « Les centres commerciaux en ligne sont devenus les lieux d’un calcul intensif. Comme le capitalisme a transformé l’atelier en usine, la transformation capitaliste d’internet a produit ses propres usines », qu’on désigne sous le terme de cloud, pour mieux obscurcir leur caractère profondément industriel. Ces ordinateurs utilisés par d’autres ordinateurs, rappellent l’enjeu des origines du réseau : étendre le calcul et les capacités de calcul. Tarnoff raconte ainsi la naissance, dès 2004, de l’Elastic Compute Cloud (EC2) d’Amazon par Chris Pinkham et Christopher Brown, partis en Afrique du Sud pour rationaliser les entrailles numériques de la machine Amazon qui commençait à souffrir des limites de l’accumulation de ses couches logicielles. EC2 lancé en 2006 (devenu depuis Amazon Web Services, AWS, l’offre d’informatique en nuage), va permettre de vendre des capacités informatiques et d’analyse mesurées et adaptables. Le cloud d’Amazon va permettre d’apporter un ensemble d’outils à l’industrialisation numérique, de pousser plus loin encore la privatisation. Le Big Data puis les avancées de l’apprentissage automatisé (l’intelligence artificielle) dans les années 2010 vont continuer ces accélérations industrielles. La collecte et le traitement des données vont devenir partout un impératif.
Dans le même temps, les utilisateurs ont conquis un internet devenu mobile. L’ordinateur devenant smartphone n’est plus seulement la machine à tout faire, c’est la machine qui est désormais partout, s’intégrant non seulement en ligne, mais jusqu’à nos espaces physiques, déployant un contrôle logiciel jusque dans nos vies réelles, à l’image d’Uber et de son management algorithmique. L’industrialisation numérique s’est ainsi étendue jusqu’à la coordination des forces de travail, dont la profitabilité a été accrue par la libéralisation du marché du travail. La contractualisation des travailleurs n’a été qu’une brèche supplémentaire dans la gestion algorithmique introduite par le déploiement sans fin de l’industrie numérique, permettant désormais de gérer les tensions sur les marchés du travail, localement comme globalement. La force de travail est elle-même gérée en nuage, à la demande. Nous voilà dans le Human Cloud que décrit Gavin Mueller dans Breaking things at Work ou David Weil dans The Fissured Workplace.
Coincés dans les profits !Les biens réelles abstractions de ces empires élastiques ont enfin été rendues possibles par la financiarisation sans précédent de cette nouvelle industrie. Tout l’enjeu de la privatisation d’internet, à tous les niveaux de la pile, demeure le profit, répète Tarnoff. La financiarisation de l’économie depuis les années 70 a elle aussi profité de cette industrialisation numérique… Reste que la maximisation des profits des empires élastiques semble ne plus suffire. Désormais, les entreprises de la tech sont devenues des véhicules pour la pure spéculation. La tech est l’un des rares centres de profit qui demeure dans des économies largement en berne. La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau. De Comcast (fournisseur d’accès), à Facebook jusqu’à Uber, l’objectif est resté de faire de l’argent, même si cela se fait de manière très différente, ce qui implique des conséquences sociales très différentes également. Les fournisseurs d’accès vendent des accès à l’internet, au bénéfice des investisseurs et au détriment des infrastructures et de l’égalité d’accès. Dans les centres commerciaux en ligne comme Facebook, on vend la monétisation de l’activité des utilisateurs ainsi que l’appareillage techno-politique qui va avec… Dans Uber ou les plateformes du digital labor, on vend le travail lui-même au moins disant découpé en microtranches et micro-tâches… Mais tous ces éléments n’auraient pas été possibles hors d’internet. C’est la promesse d’innovation technologique qui persuade les autorités de permettre à ces entreprises à déroger aux règles communes, qui persuade les investisseurs qu’ils vont réaliser une martingale mirifique. Mais dans le fond, toutes restent des machines non démocratiques et des machines à produire des inégalités. Toutes redistribuent les risques de la même façon : « ils les poussent vers le bas, vers les plus faibles » (les utilisateurs comme les travailleurs) « et les répandent autour d’eux. Ils tirent les récompenses vers le haut et les concentrent en de moins en moins de mains ».
Pourtant, rappelle Tarnoff, l’action collective a été le meilleur moyen pour réduire les risques, à l’image des régulations qu’ont obtenues dans le passé les chauffeurs de taxis… jusqu’à ce qu’Uber paupérise tout le monde. L’existence des chauffeurs est devenue plus précaire à mesure que la valorisation de l’entreprise s’est envolée. Le risque à terme est que la machine néolibérale programmée jusqu’au cœur même des systèmes, ubérise tout ce qui reste à ubériser, de l’agriculture à la santé, des services public à l’école jusqu’au développement logiciel lui-même.
Pourtant, les centres commerciaux en ligne sont très gourmands en travail. Tous ont recours à une vaste force de travail invisible pour développer leurs logiciels, les maintenir, opérer les centres de données, labéliser les données… La sociologue Tressie McMillan Cottom parle d’« inclusion prédatrice » pour qualifier la dynamique de l’économie politique d’internet. C’est une logique, une organisation et une technique qui consiste à inclure les marginalisés selon des logiques extractives. C’est ce que montrait Safiya Umoja Noble dans Algorithms of oppression : les « filles noires » que l’on trouve dans une requête sur Google sont celles des sites pornos, les propositions publicitaires qui vous sont faites ne sont pas les mêmes selon votre niveau de revenu ou votre couleur de peau. Les plus exclus sont inclus, mais à la condition qu’ils absorbent les risques et renoncent aux moindres récompenses. L’oppression et les discriminations des espaces en ligne sont désormais le fait d’une boucle de rétroaction algorithmique qui ressasse nos stéréotypes pour ne plus s’en extraire, enfermant chacun dans les catégories que spécifie la machine. Nous sommes désormais pris dans une intrication, un enchevêtrement d’effets, d’amplification, de polarisation, dont nous ne savons plus comment sortir.
Les inégalités restent cependant inséparables de la poursuite du profit pour le profit. La tech est devenue l’équivalent de l’industrie du Téflon. Pour l’instant, les critiques sont mises en quarantaine, limitées au monde de la recherche, à quelques activistes, à quelques médias indépendants. Le techlash a bien entrouvert combien la tech n’avait pas beaucoup de morale, ça n’empêche pas les scandales des brèches de données de succéder aux scandales des traitements iniques. Réformer l’internet pour l’instant consiste d’un côté à écrire de nouvelles réglementations pour limiter le pouvoir de ces monopoles. C’est le propos des New Brandeisians (faisant référence à l’avocat américain Louis Brandeis, grand réformateur américain) qui veulent rendre les marchés plus compétitifs en réduisant les monopoles des Gafams. Ces faiseurs de lois ont raison : les centres commerciaux en ligne ne sont pas assez régulés ! Reste qu’ils souhaitent toujours un internet régi par le marché, plus compétitif que concentré. Pourtant, comme le souligne Nick Srnicek, l’auteur de Capitalisme de plateforme, c’est la compétition, plus que la taille, qui nécessite toujours plus de données, de traitements, de profits…
Pour Tarnoff, il y a une autre stratégie : la déprivatisation. « Que les marchés soient plus régulés ou plus compétitifs ne touchera pas le problème le plus profond qui est le marché lui-même. Les centres commerciaux en ligne sont conçus pour faire du profit et faire du profit est ce qui construit des machines à inégalités ».« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » Certes, on peut chercher à atténuer ces effets… Mais le risque est que nous soyons en train de faire comme nous l’avons fait avec l’industrie fossile, où les producteurs de charbon se mettent à la capture du CO2 plutôt que d’arrêter d’en brûler ! Pour Tarnoff, seule la déprivatisation ouvre la porte à un autre internet, tout comme les mouvements abolitionnistes et pour les droits civiques ont changé la donne en adressant finalement le coeur du problème et pas seulement ses effets (comme aujourd’hui, les mouvements pour l’abolition de la police ou de la prison).
Mais cette déprivatisation, pour l’instant, nous ne savons même pas à quoi elle ressemble. Nous commençons à savoir ce qu’il advient après la fermeture des centres commerciaux (les Etats-Unis en ont fermé beaucoup) : ils sont envahis par les oiseaux et les mauvaises herbes ! Sur l’internet, bien souvent, les noms de domaines abandonnés sont valorisés par des usines à spam ! Si nous savons que les réseaux communautaires peuvent supplanter les réseaux privés en bas de couche technologique, nous avons peu d’expérience des alternatives qui peuvent se construire en haut des couches réseaux.
Nous avons besoin d’expérimenter l’alternet !Nous avons besoin d’expérimenter. L’enjeu, n’est pas de remplacer chaque centre commercial en ligne par son équivalent déprivatisé, comme de remplacer FB ou Twitter par leur clone placé sous contrôle public ou coopératif et attendre des résultats différents. Cela nécessite aussi des architectures différentes. Cela nécessite d’assembler des constellations de stratégies et d’institutions alternatives, comme le dit Angela Davis quand elle s’oppose à la prison et à la police. Pour Tarnoff, nous avons besoin de construire une constellation d’alternatives. Nous devons arrêter de croire que la technologie doit être apportée aux gens, plutôt que quelque chose que nous devons faire ensemble.
Comme le dit Ethan Zuckerman dans sa vibrante défense d’infrastructures publiques numériques, ces alternatives doivent être plurielles dans leurs formes comme dans leurs buts, comme nous avons des salles de sports, des bibliothèques ou des églises pour construire l’espace public dans sa diversité. Nous avons besoin d’une décentralisation, non seulement pour combattre la concentration, mais aussi pour élargir la diversité et plus encore pour rendre possible d’innombrables niveaux de participation et donc d’innombrables degrés de démocratie. Comme Zuckerman ou Michael Kwet qui milite pour un « socialisme numérique » avant lui, Tarnoff évoque les logiciels libres, open source, les instances distribuées, l’interopérabilité…, comme autant de leviers à cet alternumérisme. Il évoque aussi une programmation publique, un cloud public comme nous avons finalement des médias publics ou des bibliothèques. On pourrait même imaginer, à défaut de construire des capacités souveraines, d’exiger d’Amazon de donner une portion de ses capacités de traitements, à défaut de les nationaliser. Nous avons besoin d’un secteur déprivatisé plus gros, plus fort, plus puissant.
C’est oublier pourtant que ces idées (nationaliser l’internet ou Google hier, AWS demain…) ont déjà été émises et oubliées. Déconsidérées en tout cas. Tarnoff oublie un peu de se demander pourquoi elles n’ont pas été mises en œuvre, pourquoi elles n’ont pas accroché. Qu’est-ce qui manque au changement pour qu’il ait lieu ?, semble la question rarement posée. Pour ma part, pourtant, il me semble que ce qui a fait la différence entre l’essor phénoménal de l’internet marchand et la marginalité des alternatives, c’est assurément l’argent. Même si on peut se réjouir de la naissance de quelques coopératives, à l’image de Up&Go, CoopCycle ou nombre de plateformes coopératives, les niveaux d’investissements des uns ne sont pas les niveaux d’investissements des autres. Le recul des politiques publiques à investir dans des infrastructures publiques, on le voit, tient bien plus d’une déprise que d’une renaissance. Bien sûr, on peut, avec lui, espérer que les données soient gérées collectivement, par ceux qui les produisent. Qu’elles demeurent au plus près des usagers et de ceux qui les coproduisent avec eux, comme le prônent les principes du féminisme de données et que défendent nombre de collectifs politisés (à l’image d’InterHop), s’opposant à une fluidification des données sans limites où l’ouverture sert bien trop ceux qui ont les moyens d’en tirer parti, et plus encore, profite à ceux qui veulent les exploiter pour y puiser de nouveaux gains d’efficacité dans des systèmes produits pour aller à l’encontre des gens. Pour démocratiser la conception et le développement des technologies, il faut créer des processus participatifs puissants, embarqués et embarquants. « Rien pour nous sans nous », disent les associations de handicapés, reprises par le mouvement du Design Justice.
« Écrire un nouveau logiciel est relativement simple. Créer des alternatives soutenables et capables de passer à l’échelle est bien plus difficile », conclut Tarnoff. L’histoire nous apprend que les Télécoms ont mené d’intenses campagnes pour limiter le pouvoir des réseaux communautaires, comme le pointait à son tour Cory Doctorow, en soulignant que, du recul de la neutralité du net à l’interdiction des réseaux haut débit municipaux aux US (oui, tous les Etats ne les autorisent pas, du fait de l’intense lobbying des fournisseurs d’accès privés !), les oppositions comme les régulateurs trop faibles se font dévorer par les marchés ! Et il y a fort à parier que les grands acteurs de l’internet mènent le même type de campagne à l’encontre de tout ce qui pourra les déstabiliser demain. Mais ne nous y trompons pas, souligne Tarnoff, l’offensive à venir n’est pas technique, elle est politique !
« Pour reconstruire l’internet, nous allons devoir reconstruire tout le reste ». Et de rappeler que les Luddites n’ont pas tant chercher à mener un combat d’arrière garde que d’utiliser leurs valeurs pour construire une modernité différente. Le fait qu’ils n’y soient pas parvenus doit nous inquiéter. La déprivatisation à venir doit être tout aussi inventive que l’a été la privatisation à laquelle nous avons assisté. Nous avons besoin d’un monde où les marchés comptent moins, sont moins présents qu’ils ne sont… Et ils sont certainement encore plus pesants et plus puissants avec le net que sans !
***
Tarnoff nous invite à nous défaire de la privatisation comme d’une solution alors qu’elle tient du principal problème auquel nous sommes confrontés. Derrière toute privatisation, il y a bien une priva(tisa)tion, quelque chose qui nous est enlevé, dont l’accès et l’enjeu nous est soufflé, retranché, dénié. Derrière l’industrialisation numérique, il y a une privatisation massive rappelions-nous il y a peu. Dans le numérique public même, aux mains des cabinets de conseils, l’État est plus minimal que jamais ! Même aux États-Unis, où l’État est encore plus croupion, les grandes agences vendent l’internet public à des services privés qui renforcent l’automatisation des inégalités.
Malgré la qualité de la synthèse que livre Ben Tarnoff dans son essai, nous semblons au final tourner en rond. Sans investissements massifs et orientés vers le bien public plutôt que le profit, sans projets radicaux et leurs constellations d’alternatives, nous ne construirons ni l’internet de demain, ni un monde, et encore moins un monde capable d’affronter les ravages climatiques et les dissolutions sociales à venir. L’enjeu désormais semble bien plus de parvenir à récupérer les milliards accaparés par quelques-uns qu’autre chose ! Si nous avons certes besoin de constellations d’alternatives, il nous faut aussi saisir que ces constellations d’alternatives en sont rarement, en tout cas, que beaucoup ne sont que des projets politiques libéraux et qu’elles obscurcissent la nécessité d’alternatives qui le soient. Le secteur marchand produit nombre d’alternatives mais qui demeurent pour l’essentiel des formes de marchandisation, sans s’en extraire, à l’image de son instrumentation de la tech for good, qui conduit finalement à paupériser et vider de son sens la solidarité elle-même. Comme il le dit dans une interview pour The Verge, nous avons besoin de politiques et de mobilisations sur les enjeux numériques, pas seulement d’alternatives, au risque qu’elles n’en soient pas vraiment ! La constellation d’alternatives peut vite tourner au techwashing.
Il manque à l’essai de Ben Tarnoff quelques lignes sur comment réaliser une nécessaire désindustrialisation du numérique (est-elle possible et comment ?), sur la nécessité d’une définanciarisation, d’une démarchandisation, d’une déséconomisation, voire d’un définancement de la tech, et donc pointer la nécessité d’autres modèles, comme l’investissement démocratique qu’explorait récemment Michael McCarthy dans Noema Mag. Et même ce changement d’orientation de nos investissements risque d’être difficile, les moyens d’influence et de lobbying des uns n’étant pas au niveau de ceux des autres, comme s’en désolent les associations de défense des droits américaines. C’est-à-dire, comme nous y invitait dans la conclusion de son dernier livre le sociologue Denis Colombi, Pourquoi sommes-nous capitalistes (malgré nous) ?, à comment rebrancher nos choix d’investissements non pas sur la base des profits financiers qu’ils génèrent, mais sur ce qu’ils produisent pour la collectivité. C’est un sujet que les spécialistes de la tech ne maîtrisent pas, certes. Mais tant qu’on demandera à la tech de produire les meilleurs rendements du marché pour les actionnaires (15% à minima !), elle restera le bras armé du capital. Pour reconstruire l’internet, il faut commencer par reconstruire tout le reste !
Hubert Guillaud
A propos du livre de Ben Tarnoff, Internet for the people, the fight for our digital future, Verso, 2022. Cet article est paru originellement en deux partie en juin 2022 sur le site Le vent se lève.
-
9:56
Incident en cours sur la majorité des services GPF
sur Toute l’actualité des Geoservices de l'IGNIncident en cours sur la majorité des services GPF
-
9:56
Incident en cours sur la majorité des services GPF (résolu)
sur Toute l’actualité des Geoservices de l'IGNIncident en cours sur la majorité des services GPF (résolu)
-
4:46
Données sur la localisation et l’accès de la population aux équipements (BPE)
sur Cartographies numériquesDescription des données
L'Insee met à disposition de nouvelles données sur la localisation et l'accès de la population aux équipements, accessibles librement sur data.gouv.fr. Ce jeu de données permet de s’intéresser aux temps d’accès aux équipements, en utilisant comme source principale la base permanente des équipements (BPE). Il fournit, pour chaque carreau de 200 mètres de côté, sa population (issue du dispositif Filosofi) ainsi que la distance et la durée par la route le séparant de son équipement le plus proche, pour chaque type d’équipement de la BPE. Il s’appuie sur le distancier Metric-OSRM, qui permet des calculs de trajets routiers en voiture optimaux, de point à point, avec une grande rapidité d’exécution.
Les données sont mises à jour à chaque nouveau millésime de la BPE. La description complète du jeu de données figure dans la note méthodologique à télécharger. Les bases sont au format parquet, partitionnées selon la région (variable reg). Un exemple de code R montre comment les exploiter à l’aide du package {duckdb}. Dans les publications où elles sont utilisées, il est demandé de citer les sources des données comme suit : "Sources : Insee, base permanente des équipements, distancier Metric-OSRM, © les contributeurs d’OpenStreetMap et du projet OSRM"
Pistes d'utilisation
C'est sur ces données notamment que s'appuie le zonage en bassins de vie, qui constitue un découpage utile pour la compréhension de phénomènes touchant aux territoires ruraux. Les bassins de vie, qu'ils soient urbains ou ruraux, reposent au départ sur la densité de population et sur leur degré d'attractivité en termes d'emplois par rapport aux grandes aires d'attractions urbaine. Au-delà des différences de morphologie, le degré de densité des bassins de vie va de pair avec la diversité des équipements qu’ils offrent. Si les bassins de vie, quel que soit leur degré de densité, disposent de la quasi-totalité des types d’équipement de la gamme de proximité (commerces de bouche, école, bibliothèque, artisans, médecin généraliste, pharmacie, poste, coiffeur, etc.), des écarts un peu plus prononcés les distinguent pour la gamme intermédiaire. En effet, les bassins de vie urbains, denses ou de densité intermédiaire, comportent en moyenne respectivement 35 et 32 types d’équipement de cette gamme sur les 35 qu’elle comporte, contre 28 dans les bassins de vie ruraux. Mais c’est surtout sur les équipements de la gamme supérieure (lycée, hypermarché, gare, médecins spécialistes, établissements de santé, cinéma, etc.) que les écarts entre bassins de vie se creusent : en moyenne, les bassins de vie urbains denses disposent de 45 types d’équipement sur les 47 de cette gamme quand les bassins urbains de densité intermédiaire en proposent 27 et les bassins ruraux seulement 15. Les données issues de la BPE croisées avec les données de répartition de la population permettent de produire des cartes d'accessibilité aux équipements en fonction de leur niveau et de leur distance-temps.
David Lévy, Virginie Mora, Simon Prusse (2023). Le nouveau zonage en bassins de vie 2022 : 1 700 bassins de vie façonnent le territoire national, Insee.
Une autre piste intéressante d'utilisation des données de la BPE est la possibilité de calculer un indicateur de concentration des équipements de proximité dans un rayon donné, afin d'identifier les centralités. Henry Ciesielski propose une carte des zones regroupant au moins 50 commerces et services de proximité dans un rayon de 500 mètres (à télécharger en kmz sur Google Maps). Cette carte fait ressortir les principales centralités urbaines à l'échelle de la France.
Couche géographique représentant les zones comprenant au moins 50 commerces, services de proximité et restaurants dans un rayon de 500 mètres à partir de la base permanente des équipements de 2021 (data.gouv.fr/)
D'autres types d'utilisation de la Base permanente des équipements (BPE) sont à découvrir sur le site Data.gouv.fr : proximité des services de première nécessité, calcul de zone de chalandise, mesure de l'efficacité du programme "Action Coeur de Ville" pour les commerces de proximité, temps d'accès à la grande gare la plus proche de chez soi, proximité des salles de théâtre...
Le site Koumoul propose une carte de la BPE avec la typologie des différents types d'équipements à l'échelle de la France (services aux particuliers, commerces, enseignement, santé et action scoiale, transports et déplacements, sports loisirs et cultures, tourisme).
Articles connexes
Cartes et données sur les « déserts médicaux » en France
Typologie communale de l'accessibilité aux soins de premier recours en France (IRDES)
Étude sur la diversité des ruralités (ANCT - Observatoire des territoires)
L'Insee propose un nouveau gradient de la ruralité
Cartographier les espaces ruraux en France
L'accès aux services publics dans les territoires ruraux : éléments de débat à partir d'un rapport de la Cour des Comptes
L'INSEE propose une nouvelle typologie des aires urbaines en fonction de leur niveau d’attraction
Intérêt et limites du zonage en aires urbaines
Cartographie des bassins urbains et ruraux à l'échelle mondiale (URCA - FAO)
-
7:00
Il est temps de faire entrer les voix des gens dans le code
sur Dans les algorithmesEn 2022, David Robinson faisait paraître « Voices in the Code ». Depuis, on ne s’étonnera pas qu’il soit devenu responsable de la sureté des systèmes chez OpenAI. « Voices in the Code » est à la fois une enquête passionnante sur la responsabilité des systèmes et une ode à la participation publique, seule à même d’assurer leur gouvernance. Lecture.
Avec Voices in the Code, David G. Robinson signe un livre important pour nous aider à rendre les systèmes responsables. Robinson est l’un des directeurs de l’Apple University, le centre de formation interne d’Apple. Il a surtout été, en 2011, le cofondateur d’Upturn, une association américaine qui promeut l’équité et la justice dans le design, la gouvernance et l’usage des technologies numériques. Voices in the code est un livre qui se concentre sur la gestion d’une question technique et une seule, en descendant dans ses tréfonds, à la manière d’une monographie : celle de l’évolution de l’algorithme d’attribution des greffons de rein aux Etats-Unis. Et cette histoire est riche d’enseignement pour comprendre comment nous devrions gérer les algorithmes les plus essentiels de nos sociétés.
“Plus de technologie signifie d’abord moins de démocratie”De plus en plus de moments décisifs de nos vies sont décidés par des algorithmes : attribution de places dans l’enseignement supérieur, obtention de crédit bancaire, emploi, emprisonnement, accès aux services publics… Derrière les verdicts opaques des systèmes techniques, nous avons tendance à penser que leurs enjeux de conception n’est qu’une question technique. Ce n’est pas le cas. La mathématicienne Cathy O’Neil dans Algorithmes, la bombe à retardement, nous le disait déjà : les algorithmes sont des opinions embarquées dans du code. Et le risque est que confrontés à ces systèmes nous perdions les valeurs et l’idéal de société qui devraient les guider. Ces systèmes qui produisent des choix moraux et politiques sont souvent difficiles à comprendre, peu contrôlés, sujets aux erreurs. “Les choix éthiques et démocratiques pris par ces logiciels sont souvent enterrés sous une montagne de détails techniques qui sont traités eux-mêmes comme s’ils étaient techniques plus qu’éthiques”, explique Robinson. Pourtant, les algorithmes n’ont aucune raison d’être mystérieux et leurs limites morales devraient être partagées, notamment pour que nous puissions faire collectivement le travail nécessaire pour les améliorer.
Les algorithmes permettent de traiter des données massives et sont particulièrement populaires pour prendre des décisions sur les personnes – et notamment les plus démunies -, parce qu’ils permettent justement de procéder à des traitements de masses tout en réduisant les coûts de ces traitements. Cela n’est pas sans conséquences. “Trop souvent, plus de technologie signifie d’abord moins de démocratie”, constate Robinson. Le problème, c’est que quand les décisions difficiles sont embarquées dans des logiciels, ces décisions sont plus dures à comprendre et plus difficiles à contrôler. Les logiciels agissent depuis des données toujours imparfaites et la compréhension de leurs biais et lacunes n’est pas accessible à tous. La quantification semble souvent neutre et objective, mais c’est surtout un moyen de prendre des décisions “sans avoir l’air de décider”, comme le disait l’historien des sciences Theodore Porter dans son livre, Trust in numbers. Trop souvent, l’implantation d’algorithmes est le décret d’application des lois. Le problème, c’est que trop souvent, la politique n’est pas assez précise, les ingénieurs comme les administrations avant eux, doivent en produire une interprétation qui a des conséquences directes sur ceux qui sont affectés par le calcul. Nos lois et politiques sont remplies d’ambiguïtés. Le risque auquel nous sommes confrontés c’est de laisser décider aux ingénieurs et systèmes le rôle de définir les frontières morales des systèmes techniques qu’ils mettent en place.
Le problème, bien souvent, demeure l’accès aux algorithmes, aux calculs. En 2021, Upturn a publié une étude (.pdf) sur 15 grands employeurs américains pour comprendre les technologies qu’ils utilisaient pour embaucher des candidats, concluant qu’il était impossible de saisir les biais de leurs pratiques depuis l’extérieur. Et c’est encore plus difficile quand les algorithmes ou leurs résultats sont puissamment intriqués entre eux : avoir un mauvais score de crédit a des répercussions bien au-delà d’une demande de crédit (sur ses primes d’assurance ou la possibilité de candidater à certains emplois par exemple…). Nous sommes cernés par des scores complexes, intriqués, qui ne nous sont pas expliqués et qui calculent trop souvent des objets d’une manière trompeuse, selon une prétention à la connaissance mensongère (Robinson parle de “prédictions zombies” qui m’évoquent les “technologies zombies” de José Halloy), peu contrôlés, pas mis à jour… sans qu’on puisse les contester, les rectifier ou même être au courant de leur existence. Robinson donne de nombreux exemples d’algorithmes qui posent problèmes, dans le domaine de la justice, de la santé, de l’aide sociale, de l’affectation dans l’enseignement supérieur…
“Quand les enjeux sont élevés, nous devrions construire des systèmes qui se trompent rarement et où les erreurs sont faciles à trouver et à corriger”. Ce n’est pas le cas. Trop souvent, les systèmes mettent en œuvre les logiques morales de ceux qui les conçoivent. Trop souvent, on laisse les experts techniques, cette élite du code (qui tient également beaucoup d’une consultocratie, entre Gafams et grands acteurs du conseil) décide d’enjeux moraux et politiques. Nous sommes confrontés à une industrie logicielle qui encode les principes et visions du monde des puissants. Des technologies avec des objectifs, comme disait Kate Crawford. Un numérique industriel profondément orienté à droite, comme je le résume souvent et plus directement. Contrairement à ce qu’on pourrait penser, décider de qui doit prioritairement bénéficier d’un organe tient bien plus d’un choix moral que d’un choix médical, notamment parce que les différences médicales entre les patients qui relèvent d’une même urgence sont faibles. Trop souvent, le choix moral qu’accomplissent les systèmes n’est pas explicite. “Nous devons nous inquiéter de la relation entre le process et le résultat”, explique Robinson. Le problème, c’est que bien souvent la conception met en valeur l’un ou l’autre, prônant la vertu du processus ou la vertu du résultat, quand ils devraient surtout se renforcer l’un l’autre plutôt que de s’opposer. Or, souligne Robinson dans son livre, seule la délibération et la participation partout tendent à mener à de meilleurs résultats, permettent de faire se rejoindre le process et le résultat.
4 stratégies pour améliorer la gouvernance des systèmesRobinson détaille 4 stratégies de gouvernance pour les systèmes algorithmiques :
- Élargir la participation des parties prenantes
- Renforcer la transparence
- Améliorer la prévision d’impact des systèmes
- Assurer l’audit en continu
La participation des parties prenantes repose sur les techniques délibératives très documentées, comme on les trouve développées dans les jury ou les conférences de citoyens : à savoir délivrer une information équilibrée, consciente, substantielle, compréhensible. C’est ce qu’on appelle aussi, assez mal, les “comités consultatifs” communautaires ou éthiques (qu’on devrait plutôt appeler il me semble Comités de parties prenantes, parce qu’ils ne devraient pas être seulement consultatifs, mais bien impliqués dans les décisions… et parce que leurs fonctions consistent avant tout à rassembler autour de la table tous ceux qui sont concernés, les usagers comme les experts). Ces comités chargés d’inspecter, de contrôler, d’équilibrer les décisions techniques en faisant entendre d’autres voies dans les décisions sont encore bien trop rares. Une coalition d’organisation de défense des droits civils a proposé ainsi que les algorithmes d’évaluation de risque de récidive utilisés dans les cours de justice américaines mettent en place ce type de structure pour déterminer ce qui devrait être pris en compte et rejeté par ces systèmes, et on pourrait les imaginer comme des structures obligatoires à tout système à fort impact social. C’est le “rien pour nous sans nous” de ceux qui réclament d’être à la table et pas seulement au menu de ce que l’on conçoit pour eux. Le risque bien sûr – et c’est d’ailleurs la règle plus que l’exception – c’est que ces comités soient trop souvent des coquilles vides, un faux-semblant participatif, rassemblant des gens qu’on n’écoute pas.
La transparence peut prendre bien des formes. La principale à l’œuvre dans les systèmes techniques consiste à divulguer le code source des systèmes. Une solution intéressante, mais insuffisante, notamment parce qu’elle ferme la question à l’élite du code, et surtout que sans données correspondantes, il est difficile d’en faire quelque chose (et c’est encore plus vrai avec les systèmes d’IA, dont la non-reproductabilité est le premier écueil). La transparence doit s’accompagner d’une documentation et de descriptions plus larges : des données utilisées comme des logiques de décisions suivies, des critères pris en compte et de leurs poids respectifs. Elle doit être “extensive”, plaide Robinson (pour ma part, j’ajouterai bien d’autres termes, notamment le terme “projective”, c’est-à-dire que cette transparence, cette explicabilité, doit permettre au gens de se projeter dans les explications). Dans le contexte de la transplantation, le système doit être décrit d’une manière compréhensible, les changements envisagés doivent être explicités, doivent montrer ce qu’ils vont changer, et l’ensemble doit pouvoir être largement débattu, car le débat fait également partie de la transparence attendue.
La prévision consiste à produire des déclarations d’impacts qui décrivent les bénéfices et risques des modifications envisagées, évaluées et chiffrées. La prévision consiste à montrer les effets concrets, les changements auxquels on souhaite procéder en en montrant clairement leurs impacts, leurs effets. L’enjeu est bien de prévoir les conséquences afin de pouvoir décider depuis les effets attendus. Dans le cas de la transplantation de rein, les études d’impact sur les modifications de l’algorithme d’allocation ont permis de voir, très concrètement, les changements attendus, de savoir qui allait être impacté. Lors d’une de ses modifications par exemple, la prévision – produite par un organisme dédié et indépendant, c’est important – montrait que les patients âgés recevraient bien moins de transplantation… ce qui a conduit à rejeter la proposition.
L’audit consiste à surveiller le système en usage et à produire une documentation solide sur son fonctionnement. Les audits permettent souvent de montrer les améliorations ou détériorations des systèmes. Sous prétextes de vie privée ou de propriété, l’audit est encore bien trop rarement pratiqué. Bien souvent, pourtant, l’audit permet d’accomplir certaines mesures, comme par exemple de mesurer la performances des systèmes d’attribution de crédits sur différents groupes démographiques. Dans le domaine de la transplantation rénale américaine, le Scientific Registry of Transplant Recipients (SRTR) – l’organisme indépendant qui publie un rapport annuel détaillé pour mesurer la performance du système pour les patients selon des caractéristiques comme l’âge, le genre ou la race – permet de voir les évolutions dans le temps de ces caractéristiques, et de montrer si le système s’améliore ou se dégrade.
Ces bonnes pratiques ne se suffisent pas, rappelle Robinson, en évoquant l’exemple d’un outil de prédiction du risque de maltraitance et d’agression d’enfants du comté d’Allegheny en Pennsylvanie sur lequel avait travaillé Virginia Eubanks dans Automating inequality. La bonne question à se poser parfois consiste aussi à refuser la construction d’un système… ou de poser la question des moyens. Trop souvent, les systèmes algorithmiques visent d’abord et avant tout à gérer la pénurie quand l’enjeu devrait d’abord consister à y remédier. Trop souvent, leurs déploiements visent et produisent de la diminution de personnel et donc amoindrit l’interaction humaine. Le refus – que défendent nombre d’activistes, comme ceux présents à la conférence sur le refus technique organisée à Berkeley en 2020 ou les associations à l’origine du Feminist Data Manifest-No (voir également “Pour un féminisme des données”) – tient bien souvent, pour certains, du seul levier pour s’opposer à des projets par nature toxiques. Face à des moyens de discussion et d’écoute réduits à néant, l’opposition et le refus deviennent souvent le seul levier pour faire entendre une voix divergente. Dans le champ du social notamment, les travaux d’Eubanks ont montré que la mise en place de systèmes numériques produisent toujours une diminution des droits à l’encontre des plus démunis. Nombre de systèmes sociaux mis en place depuis (au Royaume-Uni, aux Pays-Bas, en Autriche, mais également en France – ce qu’il se passe actuellement autour des systèmes mis en place dans les CAF suit les mêmes logiques) sont en ce sens profondément dysfonctionnels. Les biais, les logiques austéritaires et libérales qui président au déploiement des systèmes ne produisent que la dégradation des systèmes sociaux et des services publics (« ce patrimoine de ceux qui n’en ont pas »), de la justice et de l’équité vers lesquels ils ne devraient jamais cesser de tendre. C’est bien l’inverse pourtant auquel on assiste. La numérisation accélérée des services publics, sous prétexte d’économie budgétaire, devient un levier de leur définancement et de la minimisation des droits et empêche les gens d’accéder à leurs droits et aux services. Depuis les travaux d’Eubanks, on constate finalement que partout, le déploiement de systèmes de traitements de masse des bénéficiaires d’aides ou de services publics est problématique, et la cause est autant à trouver dans les choix de développement que dans les considérations idéologiques qui président à ceux-ci. Partout, le but est de gérer la pénurie et de l’étendre, tout en diminuant les coûts. Le but n’est pas de faire des services publics qui rendent le service qu’on en attend, que de faire des services qui produisent des gains économiques, de la rentabilité. Et de l’accélérer… quoi qu’il en coûte.
Une histoire algorithmique exemplaire : affecter des reins à ceux qui en ont besoinD’une manière un peu déstabilisante, Robinson ne nous explique pas comment le système d’attribution d’un greffon rénal calcule (c’est tout de même dommage de ne pas s’être essayé à l’exercice… Ainsi par exemple, on finit par comprendre que c’est un système par points qui préside à l’attribution où le but du côté du greffon est d’en avoir le moins possible, quand du côté du greffé, il est d’en avoir le plus possible). Robinson raconte plutôt la grande histoire de l’évolution de la transplantation rénale et l’évolution des débats éthiques qui l’ont accompagné. Il raconte l’histoire de la discussion d’un système technique avec la société et si cette histoire est exemplaire, ce n’est pas parce que le système d’attribution, l’algorithme d’appariement, serait plus vertueux que d’autres (Robinson termine son analyse en montrant que ce n’est pas le cas), mais parce qu’il démontre que ce qui est vertueux c’est la mise en discussion – ouverte, organisée, inclusive… – continue entre technique et société… Même quand elle se referme (par exemple quand il évoque la question de la prise en compte des problèmes liés à la géographie des dons), d’autres moyens permettent de l’ouvrir (en l’occurrence, le recours aux tribunaux). Ce qu’il montre, c’est que même quand les discussions se referment, les questions de justice et d’équité, d’équilibres des droits, finissent toujours par revenir, comme nous le rappelle Alain Supiot.
De l’introduction des questions éthiquesRobinson retrace l’histoire de la transplantation rénale en montrant les conséquences éthiques de l’évolution des connaissances médicales. Si la première tentative de transplantation à eu lieu au début du XXe siècle, longtemps, la question de l’immunologie, c’est-à-dire de l’acceptation d’un organe étranger dans le corps est restée obscure à la science. La première transplantation de rein réussie date de 1954 seulement, et elle était entre deux parfaits jumeaux, qui semblait la seule condition à la réussite de l’opération. A défaut de transplantation, la médecine a progressé sur un autre front, la dialyse, c’est-à-dire le fait de faire filtrer les toxines d’un patient non pas par un rein, mais par une machine, ce qu’on est parvenu à faire pendant la seconde guerre mondiale. En 1960, le docteur Scribner met au point le cathéter qui va permettre de prolonger la durée d’un patient sous dialyse (qui n’était que de quelques semaines), transformant le dysfonctionnement du rein de maladie fatale en maladie chronique et amenant un problème éthique chronique : comment trier les patients, à une époque où les appareils de dialyse sont encore extrêmement rares et coûteux ? Face à l’afflux des demandes, Scribner va avoir l’intuition de mettre en place un système de sélection qui ne soit pas uniquement médical. Pour élire les patients à la dialyse, il met en place un processus de sélection consistant en un avis médical pour déterminer l’éligibilité à la dialyse mais surtout il va mettre en place un comité de profanes chargés de trancher les décisions non-médicales d’attribution (comme de déterminer entre deux patients médicalement éligibles, lequel doit être prioritaire). Les membres de ce comité recevront des informations sur le fonctionnement de la dialyse et de la transplantation… mais devront décider des règles non médicales s’appliquant aux patients éligibles à une transplantation ou une dialyse. Très tôt donc, la réponse des limites de l’allocation dans des cas où les ressources sont rares a consisté à faire porter la problématique éthique à une communauté plus large – et pas seulement aux experts techniques. Lors de ses 13 premiers mois de fonctionnement, le Centre du rein de Seattle du docteur Scribner a dû considérer 30 candidats, 17 ayant été jugé médicalement aptes la dialyse, mais en écartant 7 du traitement.
D’autres centres de dialyse vont pourtant faire des choix différents : certains vont opter pour une approche, “premier arrivé, premier servi”. Les premiers critères de choix n’étaient pas sans opacités où sans jugements moraux : les patients pauvres, vieux ou appartenant à des minorités ethniques, ceux dont les vies sont plus chaotiques, ont été plus facilement écartés que d’autres. Malgré ses déficiences, ces interrogations ont permis de construire peu à peu la réponse éthique.
Ce qui va changer dans les années 60, c’est la généralisation de la dialyse (d’abord accessible aux vétérans de l’armée), le développement de la transplantation rénale en ayant recours à des donneurs provenant de la famille proche, puis, en 1972, la décision par le Congrès de rembourser les soins de dialyse. Cette évolution législative doit beaucoup aux témoignages de patients devant les représentants, expliquant la difficulté à accéder à ce type de soins. Le remboursement des soins va permettre d’élargir le public de la dialyse, de créer des centres dédiés et de la rendre moins coûteuse, non seulement pour les patients, mais aussi pour la médecine. Cette prise en charge de la dialyse n’est pas sans incidence d’ailleurs, souligne Robinson, notamment quand les soins liés à une transplantation, couvrant la prise d’immunosuppresseurs, eux, ne courent que sur 3 ans, alors que les soins de dialyse, eux sont pris en charge à vie. Même encore aujourd’hui (et plus encore aux Etats-Unis, ou la prise en charge des soins de santé est difficile), cette logique subsiste et fait que certains patients ne peuvent se permettre de s’extraire de la dialyse au profit d’une transplantation. En moyenne, une dialyse, consiste en 3 traitements par semaine, 4 heures de traitement par session. Coûteuse, elle reste surtout dangereuse, le taux de mortalité des patients sous dialyse est encore important à cette époque. Sans compter que l’augmentation du nombre de patients sous dialyse va avoir un impact sur l’augmentation de la demande de transplantation…
Dans les années 60, la découverte de médications immunosuppressives va permettre de faire baisser considérablement le rejet des greffons et d’élargir le nombre de greffes : en quelques années, on va passer d’une mortalité post transplantation de 30% à un taux de survie de 80%.
Un algorithme, mais sûr quels critères ?En 1984, les spécialistes de la greffe de rein, Tom Starzl et Goran Klintmalm reçoivent une demande de greffe de toute urgence pour une petite fille de 4 ans. Ce drame public, très médiatisé, va reposer la question de l’attribution. La loi nationale sur la transplantation d’organe votée en 1984 va organiser l’encadrement de l’attribution et décider de la création d’un système national par ordinateur pour apparier les organes des donneurs aux patients, dont la réalisation est confiée au Réseau d’approvisionnement en organe et de transplantation (OPTN, Organ procurement and transplantation network) et qui doit faire discuter, comme les premiers comités de Scribner, des médecins et le public. A nouveau, deux écoles s’affrontent. Celle qui propose le premier arrivé, premier servi, et une autre qui propose une rationalisation médicale de la priorisation.
Cette priorisation va longtemps reposer sur l’appariement antigénique… Ce typage des tissus, consiste a prédire biologiquement la meilleure relation entre les données biomédicales d’un donneur et celles d’un receveur. Cette prédiction ne va cesser d’évoluer avec l’avancée des connaissances et l’évolution des standards de soin. Cet appariement permet de médicaliser le choix, mais repose sur la croyance que cet appariement est important pour la plupart des cas. Pour Robinson, nous avons là un expédient moral car les caractéristiques biomédicales ne sont pas toujours un obstacle insurmontable pour la survie des greffons de reins. Le problème, c’est que les antigènes ne sont pas seulement un prédicteur de la compatibilité entre donneur et receveur, ils sont aussi statistiquement corrélés à la race. Les afro-américains ont trois fois plus de risques d’avoir une maladie des reins en stade terminal que les blancs, alors que la majorité des donneurs ressemblent à la population américaine et sont donc blancs. La prise en compte antigénique signifie proportionnellement moins d’appariements pour les noirs.
Un autre problème va donner lieu à de longues discussions : à partir de quand prendre en compte une demande de transplantation ? La règle a longtemps été à l’inscription d’un patient sur la liste d’attente… Or, cette inscription sur la liste d’attente n’est pas la même pour tous les patients : le niveau social, la couleur de peau et l’accès aux soins de santé sont là encore producteurs d’inégalités. En fait, le souhait de ne vouloir prendre en compte que des critères dits médicaux pour l’attribution d’un greffon, fait l’impasse sur ce qui ne relève pas du médical dans le médical et notamment ses pesanteurs sociales. Ce que montre très bien le livre de Robinson, c’est combien les discussions internes comme le débat public ne cessent de se modifier dans le temps, à mesure que la connaissance progresse.
En 1987, l’UNOS (United network for Organ Sharing) qui opère l’OPTN, décide d’opter pour un algorithme d’allocation déjà utilisé localement à Pittsburgh (là encore, soulignons le, on retrouve une constante dans le déploiement de procédures techniques nationales : celle de s’appuyer sur des innovateurs locaux… Le sociologue Vincent Dubois raconte la même histoire quand il évoque la généralisation du contrôle automatisé à l’égard des bénéficiaires de l’aide sociale dans les CAF). Cet algorithme prend en compte de multiples facteurs : le temps d’attente d’un patient, la comptabilité antigénique et l’urgence médicale… avant d’opter deux ans plus tard pour renforcer dans les critères la question de l’appariement antigénique, alors que de nombreux spécialistes s’y opposent prétextant que la preuve de leur importance n’est pas acquise. La contestation gagne alors du terrain arguant que la question antigénique est insignifiante dans la plupart des cas de transplantation et qu’elle est surtout discriminatoire. En 1991, l’inspecteur général de la Santé américain souligne que les noirs attendent un rein deux à trois fois plus longtemps que les blancs (jusqu’à 18 mois, contre 6 !). Sans compter que ceux en faveur de l’appariement antigénique sont également ceux qui valorisent la distribution géographique, qui elle aussi à un impact discriminatoire.
Mais à nouveau, comme aux premiers temps de la transplantation, pour équilibrer les débats, une infrastructure de gouvernance ouverte et équilibrée s’est installée. Avec l’OPTN d’abord, qui s’est imposé comme une organisation caractérisée par la transparence, la consultation et la décision (par le vote). L’OPTN est le modèle de nombreux comités de parties prenantes qui prennent en compte la représentation des usagers et discutent des changements à apporter à des systèmes via d’innombrables conférences ouvertes au public qui vont se déplacer à travers le pays pour permettre la participation. Les efforts de cette structure ont été soutenus par une autre, qui lui est indépendante : le Scientific Registry of Transplant Recipents (SRTR), dont l’une des fonctions est de produire une compréhension des modèles et des impacts des changements envisagés par l’OPTN. Les visualisations et simulations que va produire le SRTR vont bien souvent jouer un rôle vital dans les débats. Simuler les conséquences d’un changement de modèle d’affectation permet d’en saisir les orientations, permet de comprendre qui va en bénéficier et qui risque d’en pâtir. Outre ces institutions phares, il faut ajouter les autorités de santé, les représentants politiques, la communauté médicale, les associations de patients, les décisions de justice… qui s’imbriquent et s’entremêlent dans une grande discussion médico-politique.
Des critères qui évoluent avec la science et le débat publicDurant les années 90, les progrès de l’immunosuppression renforcent la critique des antigènes, les rendant encore moins critiques dans le succès de la transplantation. L’UNOS procéde à plusieurs changements à son système d’affectation pour réduire le rôle des antigènes dans l’attribution des greffons (et atténuer le fossé des discriminations), au profit du temps d’attente. Dans les années 90, la barrière des groupes sanguins est également dépassée.
En 2003, un processus de discussion pour reconcevoir le système d’attribution des greffons qui semble en bout de course est à nouveau lancé. Pour beaucoup, “l’algorithme d’allocation des reins était devenu un collage de priorités”. A partir de 2003, le débat s’enflamme sur la question des listes d’attentes : là encore, la discrimination est à l’oeuvre, les afro-américains n’étant pas placé sur les listes d’attentes aussi rapidement ou dans les mêmes proportions que les blancs. Les patients noirs attendent plus longtemps avant d’être inscrits en liste d’attente, souvent après plusieurs années de dialyse, notamment parce que l’accès aux soins aux Etats-unis reste fortement inégalitaire. Pour corriger cette disparité, en 2002, on propose non plus de partir du moment où un patient est ajouté à une liste d’attente, mais de partir du moment où un patient commence une dialyse. Pourtant, à cette époque, la question ne fait pas suffisamment consensus pour être adoptée.
Une autre critique au premier système de calcul est son manque d’efficacité. Certains proposent que les reins soient affectés prioritairement afin de maximiser la durée de vie des patients (au détriment des patients en attente les plus âgés). D’autres discussions ont lieu sur les patients sensibles, des patients qui ont développé des antigènes spécifiques qui rendent leur transplantation plus à risque, comme ceux qui ont déjà eu une transplantation, des femmes qui ont eu plusieurs naissances ou des patients qui ont reçu beaucoup de transfusions par exemple. Ce degré de sensibilité est calculé par un score : le CPRA, calculated panel reactive antibody score. L’un des enjeux est de savoir si on doit favoriser un patient qui a déjà reçu une transplantation sur un autre qui n’en a pas encore eu : le fait d’avoir une double chance paraissant à ceux qui n’en ont pas encore eu une, comme une injustice. L’introduction de ce nouveau calcul souligne combien les calculs dépendent d’autres calculs. L’intrication des mesures et la complexité que cela génère n’est pas un phénomène nouveau.
L’utilité contre l’équité : l’efficacité en questionLa grande question qui agite les débats qui vont durer plusieurs années, explique Robinson, consiste à balancer l’utilité (c’est-à-dire le nombre total d’années de vie gagnées) et l’équité (le fait que chacun ait une chance égale). Des médecins proposent d’incorporer au système d’allocation une mesure du bénéfice net (le LYFT : Life years from Transplant), visant à classer les candidats selon le nombre d’années de vie qu’ils devraient gagner s’ils reçoivent une greffe. Cette formule, présentée en 2007, est compliquée : elle prend en compte une douzaine de facteurs (l’âge, l’indice de masse corporelle, le temps passé à vivre avec un problème rénal, la conformité antigénique…). En utilisant les données passées, le STR peut modéliser le temps de survie des patients en liste d’attente, le temps de survie post-transplantation, pour chaque patient et chaque appariement. Les modélisations présentées par le STR montrent que LYFT devrait avoir peu d’effet sur la distribution raciale et sanguine des receveurs, mais qu’il devrait éloigner de la greffe les diabétiques, les candidats sensibles et âgés, au profit des plus jeunes. Le calcul du temps de vie cumulé que le système devrait faire gagner peut paraître impressionnant, mais le recul de la chance pour les seniors est assez mal accueilli par les patients. L’efficacité semble mettre à mal l’équité. Les discussions s’enlisent. Le comité demande au ministère de la santé, si l’usage de l’âge dans les calculs est discriminatoire, sans recevoir de réponse. Une version finale et modifiée de Lyft est proposée à commentaire. Lyft montre une autre limite : les modèles de calculs de longévité sur lesquels il repose ne sont pas très compréhensibles au public. Ce qui permet de comprendre une autre règle des systèmes : quand l’explicabilité n’est pas forte, le système reste considéré comme défaillant. Au final, après plusieurs années de débats, Lyft est abandonné.
En 2011, une nouvelle proposition de modification est faite qui propose de concilier les deux logiques : d’âge et de bénéfice net. Les greffons sont désormais évalués sur un score de 100, où plus le score est bas, meilleur est le greffon. Les patients, eux, sont affecté par un Post-Transplant Survival score (EPTS), qui comme Lyft tente d’estimer la longévité depuis 4 facteurs seulement : l’âge, le temps passé en dialyse, le diabète et si la personne a déjà reçu une transplantation, mais sans évaluer par exemple si les patients tolèrent la dialyse en cas de non transplantation… Pour concilier les logiques, on propose que 20% des greffons soient proposés prioritairement à ceux qui ont le meilleur score de longévité, le reste continuant à être attribué plus largement par âge (aux candidats qui ont entre 15 ans de plus ou de moins que l’âge du donneur). Là encore, pour faire accepter les modifications, le comité présente des simulations. Plus équilibré, la règle des 20/80 semble plus compréhensible, Mais là encore, il réduit les chances des patients de plus de 50 ans de 20%, privilégiant à nouveau l’utilité sur l’équité, sans répondre à d’autres problèmes qui semblent bien plus essentiels à nombre de participants, notamment ceux liés aux disparités géographiques. Enfin, la question de l’âge devient problématique : la loi américaine contre la discrimination par l’âge a été votée en 2004, rappelant que personne ne peut être discriminé sur la base de son âge. Ici, se défendent les promoteurs de la réforme, l’âge est utilisé comme un proxy pour calculer la longévité. Mais cela ne suffit pas. Enfin, les patients qui ont 16 ans de plus ou de moins que l’âge du donneur n’ont pas moins de chance de survivre que ceux qui ont 14 ans de différence avec le donneur. Ce critère aussi est problématique (comme bien souvent les effets de seuils des calculs, qui sont souvent strictes, alors qu’ils devraient être souples).
La surveillance du nouveau système montre d’abord que les receveurs de plus de 65 ans sont défavorisés avant de s’améliorer à nouveau (notamment parce que, entre-temps, la crise des opioïdes et la surmortalité qu’elle a engendré a augmenté le nombre de greffons disponibles). Le suivi longitudinal de l’accès aux greffes montre qu’entre 2006 et 2017, l’équité raciale a nettement progressé, notamment du fait de la prise en compte de la date de mise sous dialyse pour tous. Les différences entre les candidats à la greffe, selon la race, se resserrent.
En septembre 2012, une nouvelle proposition est donc faite qui conserve la règle des 20/80, mais surtout qui intègre le calcul à partir du début de l’entrée en dialyse des patients, atténue l’allocation selon le groupe sanguin… autant de mesures qui améliorent l’accès aux minorités. Cette proposition finale est à nouveau discutée entre septembre et décembre 2012, notamment sur le fait qu’elle réduit l’accès aux patients les plus âgés et sur le compartimentage régional qui perdure. En juin 2013, le conseil de l’OPTN approuve cependant cette version et le nouvel algorithme entre en fonction en décembre 2014. Dix ans de discussion pour valider des modifications… Le débat public montre à la fois sa force et ses limites. Sa force parce que nombre d’éléments ont été discutés, recomposés ou écartés. Ses limites du fait du temps passé et que nombre de problèmes n’ont pas été vraiment tranchés. Décider prend du temps. Robinson souligne combien ces évolutions, du fait des débats, sont lentes. Il a fallu 10 ans de débats pour que l’évolution de l’algorithme d’attribution soit actée. Le débat entre utilité et équité n’a pu se résoudre qu’en proposant un mixte entre les deux approches, avec la règle du 20/80, tant ils restent irréconciliables. Mais si le processus a été long, le consensus obtenu semble plus solide.
La lente déprise géographiqueLe temps d’acheminement d’un greffon à un donneur a longtemps été une donnée essentielle de la greffe, tout comme la distance d’un malade à une unité de dialyse, ce qui explique, que dès le début de la greffe et de la dialyse, le critère géographique ait été essentiel.
L’allocation de greffon est donc circonscrite à des zonages arbitraires : 58 zones, chacune pilotées par un organisme de contrôle des allocations, découpent le territoire américain. Le système montre pourtant vite ses limites, notamment parce qu’il génère de fortes discriminations à l’accès, notamment là où la population est la plus nombreuse et la demande de greffe plus forte. Les patients de New York ou Chicago attendent des années, par rapport à ceux de Floride. Plusieurs fois, il va être demandé d’y mettre fin (hormis quand le transport d’organes menace leur intégrité). Pourtant, les zones géographiques vont s’éterniser. Il faut attendre 2017 pour que l’UNOS s’attaque à la question en proposant un Score d’accès à la transplantation (ATS, Access to Transplant Score) pour mesurer l’équité de l’accès à la transplantation. L’outil démontre ce que tout le monde dénonçait depuis longtemps : la géographie est un facteur plus déterminant que l’âge, le groupe sanguin, le genre, la race ou les facteurs sociaux : selon la zone dont dépend le receveur (parmi les 58), un même candidat pourra attendre jusqu’à 22 fois plus longtemps qu’un autre ! Cette question va évoluer très rapidement parce que la même année, l’avocat d’une patiente qui a besoin d’une greffe attaque en justice pour en obtenir une depuis une zone où il y en a de disponibles. Fin 2017, l’UNOS met fin au zonage pour le remplacer par une distance concentrique par rapport à l’hôpital du donneur, qui attribue plus ou moins de points au receveur selon sa proximité. Le plus étonnant ici, c’est qu’un critère primordial d’inégalité ait mis tant d’années à être démonté.
Le scoring en ses limitesLes scientifiques des données de l’UNOS (qui ont mis en place l’ATS) travaillent désormais à améliorer le calcul de score des patients. Chaque patient se voit attribuer un score, dont la précision va jusqu’à 16 chiffres après la virgule (et le système peut encore aller plus loin pour départager deux candidats). Mais se pose la question du compromis entre la précision et la transparence. Plus il y a un chiffre précis et moins il est compréhensible pour les gens. Mais surtout, pointe Robinson, la précision ne reflète pas vraiment une différence médicale entre les patients. “Le calcul produit une fausse précision”. Ajouter de la précision ne signifie pas qu’un candidat a vraiment un meilleur résultat attendu qu’un autre s’il est transplanté. La précision du calcul ne fait que fournir un prétexte technique pour attribuer l’organe à un candidat plutôt qu’à un autre, une raison qui semble extérieurement neutre, alors que la précision du nombre ne reflète pas une différence clinique décisive. Pour Robinson, ces calculs, poussés à leur extrême, fonctionnent comme la question antigénique passée : ils visent à couvrir d’une neutralité médicale l’appariement. En fait, quand des candidats sont cliniquement équivalents, rien ne les départage vraiment. La précision du scoring est bien souvent une illusion. Créer une fausse précision vise surtout à masquer que ce choix pourrait être aussi juste s’il était aléatoire. Robinson souhaite voir dans cette question qu’adressent les data scientist de l’UNOS, le retour de l’interrogation sempiternelle de ne pas transformer une question technique en une question morale. Il paraîtra à d’autres assez étonnant qu’on continue à utiliser la précision et la neutralité des chiffres pour faire croire à leur objectivité. Pourtant, c’est là une pratique extrêmement répandue. On calcule des différences entre les gens via une précision qui n’a rien de médicale, puisqu’au final, elle peut considérer par exemple, que le fait d’habiter à 500 mètres d’un hôpital fait la différence avec une personne qui habite à 600 mètres. En fait, l’essentiel des candidats est si semblable, que rien ne les distingue dans la masse, les uns des autres. Faire croire que la solution consiste à calculer des différences qui n’ont plus rien de scientifiques est le grand mensonge de la généralisation du scoring. C’est trop souvent l’écueil moral des traitements de masse qui justifient le recours aux algorithmes. Mais le calcul ne le résout pas. Il ne fait que masquer sous le chiffre des distinctions problématiques (et c’est un problème que l’on retrouve aujourd’hui dans nombre de systèmes de scoring, à l’image de Parcoursup). Le calcul d’attribution de greffes de rein n’est pas encore exemplaire.
Faire mieuxDans sa conclusion, Robinson tente de remettre cette histoire en perspective. Trop souvent, depuis Upturn, Robinson a vu des systèmes conçus sans grande attention, sans grands soins envers les personnes qu’ils calculaient. Trop de systèmes sont pauvrement conçus. “Nous pouvons faire mieux.”
Dans la question de l’attribution de greffes, la participation, la transparence, la prévision et l’audit ont tous joué un rôle. Les gens ont élevé leurs voix et ont été entendus. Pourquoi n’en est-il pas de même avec les autres algorithmes à fort enjeu ? Robinson répond rapidement en estimant que la question de la transplantation est unique notamment parce qu’elle est une ressource non marchande. Je ne partage pas cet avis. Si le système est l’un des rares îlots de confiance, son livre nous montre que celle-ci n’est jamais acquise, qu’elle est bien construite, âprement disputée… Cette histoire néanmoins souligne combien nous avons besoin d’une confiance élevée dans un système. “La confiance est difficile à acquérir, facile à perdre et pourtant très utile.” L’exemple de la transplantation nous montre que dans les cas de rationnement la participation du public est un levier primordial pour assurer l’équité et la justice. Il montre enfin que les stratégies de gouvernance peuvent être construites et solides pour autant qu’elles soient ouvertes, transparentes et gérées en entendant tout le monde.
Gérer la pénurie pour l’accélérer… et faire semblant d’arbitrerCertes, construire un algorithme d’une manière collaborative et discutée prend du temps. Les progrès sont lents et incrémentaux. Les questions et arbitrages s’y renouvellent sans cesse, à mesure que le fonctionnement progresse et montre ses lacunes. Mais les systèmes sociotechniques, qui impliquent donc la technique et le social, doivent composer avec ces deux aspects. La progression lente mais nette de l’équité raciale dans l’algorithme d’affectation des reins, montre que les défis d’équité que posent les systèmes peuvent être relevés. Reste que bien des points demeurent exclus de ce sur quoi l’algorithme concentre le regard, à l’image de la question des remboursements de soins, limités à 3 ans pour la prise en charge des médicaments immunosuppresseurs des transplantés alors qu’ils sont perpétuels pour les dialysés. Cet enjeu pointe qu’il y a encore des progrès à faire sur certains aspects du système qui dépassent le cadre de la conception de l’algorithme lui-même. Les questions éthiques et morales évoluent sans cesse. Sur la transplantation, la prochaine concernera certainement la perspective de pouvoir avoir recours à des reins de cochons pour la transplantation. Les xénogreffes devraient être prêtes pour les essais médicaux très prochainement, et risquent de bouleverser l’attribution.
Robinson évoque les algorithmes de sélection des écoles de la ville de New York, où chaque école peut établir ses propres critères de sélection (un peu comme Parcoursup). Depuis peu, ces critères sont publics, ce qui permet un meilleur contrôle. Mais derrière des critères individuels, les questions de discrimination sociale demeurent majeures. Plusieurs collectifs critiques voudraient promouvoir un système où les écoles ne choisissent pas leurs élèves selon leurs mérites individuels ou leurs résultats à des tests standardisés, mais un système où chaque école doit accueillir des étudiants selon une distribution représentative des résultats aux tests standardisés, afin que les meilleurs ne soient pas concentrés dans les meilleures écoles, mais plus distribués entre chaque école. C’est le propos que porte par exemple le collectif Teens Take Change. De même, plutôt que d’évaluer le risque de récidive, la question pourrait être posée bien autrement : plutôt que de tenter de trouver quel suspect risque de récidiver, la question pourrait être : quels services garantiront le mieux que cette personne se présente au tribunal ou ne récidive pas ? Déplacer la question permet de déplacer la réponse. En fait, explique très clairement Robinson, les orientations des développements techniques ont fondamentalement des présupposés idéologiques. Les logiciels de calcul du risque de récidive, comme Compass, reposent sur l’idée que le risque serait inhérent à des individus, quand d’autres systèmes pourraient imaginer le risque comme une propriété des lieux ou des situations, et les prédire à la place. (pour InternetActu.net, j’étais revenu sur les propos de Marianne Bellotti, qui militait pour des IA qui complexifient plutôt qu’elles ne simplifient le monde, qui, sur la question du risque de récidive, évoquait le système ESAS, un logiciel qui donne accès aux peines similaires prononcées dans des affaires antérieures selon des antécédents de condamnations proches, mais, là où Compass charge l’individu, ESAS relativise et aide le juge à relativiser la peine, en l’aidant à comparer sa sentence à celles que d’autres juges avant lui ont prononcé). Les algorithmes qui rationnent le logement d’urgence, comme l’évoquait Eubanks dans son livre, visent d’abord à organiser la pénurie, et finalement permettent de mieux écarter le problème principal, celui de créer plus de logements sociaux. Au contraire même, en proposant un outil d’administration de la pénurie, bien souvent, celle-ci peut finalement être encore plus optimisée, c’est-à-dire plus rabotée encore. Les systèmes permettent de créer des “fictions confortables” : la science et le calcul tentent de neutraliser et dépolitiser des tensions sociales en nous faisant croire que ces systèmes seraient plus juste que le hasard, quand une “loterie aléatoire refléterait bien mieux la structure éthique de la situation”.
Participer c’est transformerLa force de la participation n’est pas seulement dans l’apport d’une diversité, d’une pluralité de regards sur un problème commun. La participation modifie les regards de tous les participants et permet de créer des convergences, des compromis qui modulent les systèmes, qui modifient leur idéologie. Au contact d’autres points de vues, dans une ambiance de construction d’un consensus, les gens changent d’avis et modèrent leurs positions, souligne très pertinemment Robinson. Certes, la participation est un dispositif complexe, long, lent, coûteux. Mais ses apports sont transformateurs, car la délibération commune et partagée est la seule à même à pouvoir intégrer de la justice et de l’équité au cœur même des systèmes, à permettre de composer un monde commun. “Une compréhension partagée bénéficie d’une infrastructure partagée”. Pour produire une gouvernance partagée, il faut à la fois partager la compréhension que l’on a d’un système et donc partager l’infrastructure de celui-ci. Les jurés sont briefés sur les enjeux dont ils doivent débattre. Les participants d’un budget citoyens également. La participation nécessite la transparence, pas seulement des données et des modalités de traitement, mais aussi des contextes qui les façonnent. Cela signifie qu’il est toujours nécessaire de déployer une infrastructure pour soutenir le débat : quand elle est absente, la conversation inclusive et informée tend à ne pas être possible. Dans le cas de la transplantation, on l’a vu, les ressources sont innombrables. Les organismes pour les produire également – et leur indépendance est essentielle. Les visualisations, les simulations se sont souvent révélées essentielles, tout autant que les témoignages et leur pluralité. Pour Robinson, cette implication des publics, cette infrastructure pour créer une compréhension partagée, ces gouvernances ouvertes sont encore bien trop rares au-delà du domaine de la santé… alors que cela devrait être le cas dans la plupart des systèmes à haut enjeu. “La compréhension partagée bénéficie d’une infrastructure partagée, c’est-à-dire d’investissements qui vont au-delà de l’effort qu’implique la construction d’un algorithme en soi.” Certes, concède-t-il, la participation est très coûteuse. Pour Robinson : “Nous ne pouvons pas délibérer aussi lourdement sur tout”. Bien sûr, mais il y a bien trop d’endroits où nous ne délibérons pas. Faire se rejoindre l’utilité et l’équité prend du temps, mais elles ne sont irréconciliables que là où aucune discussion ne s’engage. En fait, contrairement à Robinson, je pense que nous ne pouvons pas vivre dans des systèmes où la justice n’est pas présente ou le déséquilibre entre les forces en présence est trop fort. Les systèmes injustes et oppressifs n’ont qu’un temps. L’auto-gouvernement et la démocratie ont toujours pris du temps, mais ils demeurent les moins pires des systèmes. L’efficacité seule ne fera jamais société. Cette logistique de la participation est certainement le coût qui devrait balancer les formidables économies que génère la dématérialisation. Mais surtout, convient Robinson, la participation est certainement le meilleur levier que nous avons pour modifier les attitudes et les comportements. Plusieurs études ont montré que ces exercices de discussions permettent finalement d’entendre des voies différentes et permettent aux participants de corriger leurs idées préconçues. La participation est empathique.
Le risque d’une anesthésie morale par les chiffresEnfin, Robinson invite à nous défier de la quantification, qu’il qualifie “d’anesthésiant moral“. “Les algorithmes dirigent notre attention morale”, explique-t-il. Le philosophe Michael Sacasas parle, lui, de machines qui permettent “l’évasion de la responsabilité”. Quand on regarde le monde comme un marché, un score “semble toujours dépassionné, impartial et objectif”, disaient Marion Fourcade et Kieran Healy. Pourtant, la quantification n’est pas objective, parce qu’elle a des conséquences normatives et surtout que le chiffre nous rend indifférent à la souffrance comme à la justice (c’est ce que disait très bien le chercheur italien Stefano Diana, qui parlait de psychopathologisation par le nombre). C’est également ce que disaient les juristes Guido Calabresi et Philip Bobbitt dans leur livre, Tragic Choices (1978) : “En faisant en sorte que les résultats semblent nécessaires, inévitables, plutôt que discrétionnaires, l’algorithme tente de convertir ce qui est tragiquement choisi en ce qui n’est qu’un malheur fatal. Mais généralement, ce n’est qu’un subterfuge, car, bien que la rareté soit un fait, une décision particulière… (par exemple, celle de savoir qui recevra un organe dont on a besoin de toute urgence) est rarement nécessaire au sens strict du terme.” C’est tout le problème du scoring jusqu’à 16 décimales, qui ne distingue plus de différences médicales entre des patients, mais les discrétise pour les discrétiser. La fausse rationalité du calcul, permet “d’esquiver la réalité que de tels choix, sont, à un certain niveau, arbitraires”. Ces subterfuges par le calcul se retrouvent partout. Poussé à son extrême, le score produit des différences inexistantes. Pour Robinson, “nous apprenons à expliquer ces choix impossibles dans des termes quantitatifs neutres, plutôt que de nous confronter à leur arbitraire”. Pour ma part, je pense que nous n’apprenons pas. Nous mentons. Nous faisons passer la rationalité pour ce qu’elle n’est pas. Nous faisons entrer des critères arbitraires et injustes dans le calcul pour le produire. Quand rien ne distingue deux patients pour leur attribuer un greffon, on va finir par prendre un critère ridicule pour les distinguer, plutôt que de reconnaître que nous devrions avoir recours à l’aléatoire quand trop de dossiers sont similaires. Et c’est bien le problème que souligne Robinson à la fin de son inspection du système de calcul de l’attribution de greffe de rein : la plupart des patients sont tellement similaires entre eux que le problème est bien plus relatif à la pénurie qu’autre chose. Le problème est de faire penser que les critères pour les distinguer entre eux sont encore médicaux, logiques, rationnels.
Pour Robinson, les algorithmes sont des productions de compromis, d’autant plus efficaces qu’ils peuvent être modifiés (et ne cessent de l’être) facilement. Leur adaptabilité même nous invite à tisser un lien, trop inexistant, entre la société et la technique. Puisque les modifier n’est pas un problème, alors nous devrions pouvoir en discuter en permanence et avoir une voix pour les faire évoluer. L’expertise technique n’est jamais et ne devrait jamais être prise comme une autorité morale. La participation ne devrait pas être vue comme quelque chose de lourd et de pesant, mais bien comme le seul levier pour améliorer la justice du monde. Robinson nous invite à imaginer un monde où les plus importants systèmes techniques refléteraient bien des voix, même la nôtre. Pour l’instant, ce que l’on constate partout, c’est que tout est fait pour ne pas les écouter.
Ce que nous dit le livre de Robinson, c’est combien la question de l’équité reste primordiale. Et qu’améliorer un système prend du temps. La justice n’est pas innée, elle se construit lentement, patiemment. Trop lentement bien souvent. Mais le seul outil dont nous disposons pour améliorer la justice, c’est bien le débat, la contradiction et la discussion. Malgré sa complexité et sa lenteur, la question du débat public sur les systèmes est essentielle. Elle ne peut ni ne doit être un débat d’experts entre eux. Plusieurs fois, dans ces débats, Robinson montre l’importance des patients. C’est leurs interventions lors des séances publiques qui modifient les termes du débat. Construire des systèmes robustes, responsables, nécessite l’implication de tous. Mais ce qui est sûr c’est qu’on ne construit aucun système responsable quand il n’écoute pas les voix de ceux pris dans ces filets. Nous devons exiger des comités de parti de prenantes partout où les systèmes ont un impact fort sur les gens. Nous devons nous assurer d’améliorations incrémentales, non pas imposées par le politique, mais bien discutées entre égaux, dans des comités où les experts ont autant la voix que les calculés. Aujourd’hui, c’est ce qui manque dans la plupart des systèmes. Y faire entrer les voix des gens. C’est la principale condition pour faire mieux, comme nous y invite David Robinson.
Hubert Guillaud
A propos du livre de David G. Robinson, Voices in the code, a story about people, their values, and the algorithm they made, Russell Sage Foundation, 2022, 212 pages. Cet article a été publié originellement sur le blog de Hubert Guillaud, le 24 novembre 2022.
-
7:00
L’internet des familles modestes : les usages sont-ils les mêmes du haut au bas de l’échelle sociale ?
sur Dans les algorithmesPour rendre hommage à la sociologue Dominique Pasquier, qui vient de nous quitter, nous avons voulu republier l’interview qu’elle nous accordait en 2018 pour InternetActu.net, à l’occasion de la parution de son livre, L’internet des familles modestes. Histoire de nous souvenir de son ton, de sa voix, de son approche. Merci Dominique.
Il semble toujours difficile de saisir une enquête sociologique, car, comme toute bonne enquête sociologique, celles-ci sont surtout qualitatives et se fondent sur des témoignages peu nombreux et variés… dont il semble difficile de dégager des lignes directrices. C’est pourtant ce que réussit à faire la sociologue Dominique Pasquier dans son livre, L’internet des familles modestes en s’intéressant aux transformations des univers populaires par le prisme des usages et des pratiques d’internet.
Alors qu’il n’y a pas si longtemps, la fracture numérique semblait ne pouvoir se résorber, les usagers les plus modestes semblent finalement avoir adopté les outils numériques très rapidement, à l’image de l’introduction de la photographie au début du XXe siècle dans les sociétés rurales traditionnelles qu’évoquait Pierre Bourdieu dans Un art moyen. L’internet des classes dominantes et urbaines a colonisé la société, rapporte Dominique Pasquier dans son étude où elle s’est intéressée aux employées (majoritairement des femmes) travaillant principalement dans le secteur des services à la personne et vivant dans des zones rurales. En matière de temps, d’utilisation des services en lignes, les usages d’internet des plus modestes ont rejoint les taux d’usages des classes supérieures. Reste à savoir si les usages sont les mêmes du haut au bas de l’échelle sociale. Interview.
Existe-t-il un usage populaire d’internet ? Quelles sont les caractéristiques d’un internet des familles modestes ?
Dominique Pasquier : Il n’a pas de caractéristique particulière. C’est un usage comme les autres en fait, avec quelques poches de spécificités, et c’est finalement ce qui est le plus surprenant. Parmi ces spécificités – qu’il faudrait valider en enquêtant plus avant sur des familles plus pourvues en revenus et en capital culturel -, il y a le refus d’utiliser le mail ou l’obligation de transparence des pratiques entre les membres de la famille, mais qui existent peut-être sous une forme ou une autre dans d’autres milieux sociaux. Le plus étonnant finalement, c’est de constater que pour des gens qui se sont équipés sur le tard, combien ces usages sont devenus aisés et rituels. Je m’attendais à trouver plus de difficultés, plus d’angoisses… Mais cela n’a pas été le cas. Les familles modestes se sont emparées d’internet à toute vitesse. Ils font certes des usages plutôt utilitaristes de ces outils polymorphes. Ils ont peu de pratiques créatives. Participent peu. Mais n’en ont pas particulièrement besoin. L’outil s’est glissé dans leurs pratiques quotidiennes, d’une manière très pragmatique. Les gens ont de bonnes raisons de faire ce qu’ils font de la manière dont ils le font.
Les témoignages que vous rapportez montrent une grande hétérogénéité d’usage. Mais ce qui marque, c’est de voir que pour ces publics, internet semble avant tout un outil d’accomplissement personnel, une seconde école. Il les aide à mieux se repérer dans l’information, à être plus ouverts, à élargir leur champ de compétences…
Dominique Pasquier : Oui, internet est une seconde école. Et ce constat n’est pas sans vertus pour des populations qui bien souvent ne sont pas allées à l’école ou qui n’ont pas le bac. Internet leur propose des manières d’apprendre qui leur correspondent mieux, sans hiérarchie ni sanction. On pourrait croire par exemple qu’en matière d’information ils ne recherchent pas des choses importantes, mais si. Ils cherchent à comprendre les termes qu’emploient le professeur de leurs enfants ou le médecin qu’ils consultent. Quelque chose s’est ouvert. L’enjeu n’est pas pour eux de devenir experts à la place des experts, mais de parvenir à mieux argumenter ou à poser des questions. D’être mieux armés. Le travail de la sociologue Annette Lareau qui a observé des réunions parents professeurs et des consultations médicales dans les milieux populaires, montrait que les parents des milieux populaires se trouvaient dans une position de déférence, imposée par l’interaction elle-même. Ils n’osent pas dire qu’ils ne comprennent pas. Or, cette déférence subie implique nombre de malentendus sur les diagnostics scolaires ou médicaux. Les gens que j’ai rencontrés se servent tout le temps de ces outils pour trouver le sens des mots ou pour apprendre. Les aides-soignantes travaillent souvent dans des structures très pesantes. Mais quand elles vont sur des sites de professionnels de la santé, elles s’aperçoivent qu’il y a des échanges horizontaux et hiérarchiques possibles. Internet permet d’ouvrir le bec – même si cela ne veut pas dire que ces aides-soignantes ouvrent le bec en ligne facilement pour autant.
Image : Dominique Pasquier sur la scène de la conférence Numérique en Communs, qui se tenait à Nantes.
… plus ouverts, mais pas totalement. Internet n’est pas l’espace des idées nouvelles…
Dominique Pasquier : Si internet permet de s’informer et de se former (via les tutoriels, très consommés pour progresser notamment dans ses passions), le public de mon enquête ne s’intéresse pas du tout à l’actualité. Il ne consulte pas la presse nationale. L’actualité demeure celle que propose la presse locale et la télévision. Ce manque d’ouverture est certainement lié aux territoires d’enquêtes. Pour les ruraux, l’information nationale ou internationale semble très loin. Dans ce domaine, la possibilité qu’ouvre l’internet n’est pas saisie. La consommation télévisuelle reste très forte. L’ouverture passe par la télévision, c’est de là qu’arrive la nouveauté, via la télé-réalité, les émissions de décoration et de cuisine. La « moyennisation » des styles de vie est concrète : elle se voit dans les maisons. La télévision a diffusé un dépouillement du décor mobilier par exemple comme on le voit dans les émissions de décoration. Dans ses enquêtes sur le monde ouvrier des années 80, le sociologue Olivier Schwartz montrait que les familles de mineurs qui réussissaient achetaient des salles à manger en bois. Elles ont disparu !
L’internet n’est pas sans difficulté pourtant pour les plus modestes. Vous évoquez notamment la difficulté à utiliser certaines ressources dans le cadre professionnel ou dans la relation administrative. Quelles sont ces difficultés et pourquoi persistent-elles selon vous ?
Dominique Pasquier : Dans leurs services en ligne, les administrations de la République sont lamentables. On ne met pas assez d’argent dans l’ergonomie, dans les tests usagers… pour des gens dont les budgets se jouent à 100 euros près et où le moindre remboursement qui ne vient pas est un drame. La dématérialisation de l’administration est inhumaine et brutale. Les familles modestes utilisent peu le mail. Leurs adresses servent principalement aux achats et aux relations avec les administrations. Mais les courriers de l’administration se perdent dans le spam qu’ils reçoivent des sites d’achat. Pour eux, le mail est un instrument de torture et ce d’autant plus qu’il est l’outil de l’injonction administrative. Les gens ont l’impression d’être maltraités par les administrations, à l’image de cet homme que j’ai rencontré, noyé dans ses démêlés avec Pôle emploi, en difficulté dans toutes ses démarches.
Les usagers ne sont pas contre la dématérialisation pourtant. Le public que j’ai rencontré utilise quotidiennement les applications bancaires par exemple, matins et soirs. Ils n’ont pas de mal à gérer leurs factures en ligne. Mais les relations avec les institutions sociales, en ligne, sont particulièrement difficiles.
Peut-être est-ce aussi lié à l’usage spécifique du mail qu’on rencontre dans ces familles. Vous soulignez, qu’une des rares spécificités de l’internet des familles modestes, c’est que l’usage du mail n’est pas tant individuel que familial…
Dominique Pasquier : Oui. Pour les familles modestes, le mail n’est pas un outil de conversation agréable. Il est asynchrone et écrit. Envoyer et attendre une réponse ne correspond pas aux valeurs du face à face dans l’échange, qui reste très fort dans les milieux populaires. Il demeure de l’ordre du courrier, ce qui en fait un dispositif formellement distant.
Les familles disposent bien souvent d’une seule adresse mail partagée. C’est un moyen de tenir un principe de transparence familial… (et de surveillance : une femme ne peut pas recevoir de courrier personnel). Ce principe de transparence se retrouve également dans les comptes Facebook, dans les SMS,… La famille intervient sur les comptes de ses membres, on regarde les téléphones mobiles des uns et des autres. On surveille ce qu’il se dit. Les familles modestes ne voient pas de raison à avoir des outils individuels. Sur Facebook, l’ouverture de comptes par les enfants est conditionnée au fait que les parents soient amis avec eux. Bien souvent, ces pratiques donnent une illusion de maîtrise aux parents, qui ne voient pas ce qui échappe à leur vigilance. Ils observent les murs des enfants et les commentaires, mais ne voient pas les échanges en messagerie instantanée incessants.
L’autre grande différence sociale que vous pointez c’est la participation : l’usage des plus modestes n’est pas très contributif. Pourquoi ?
Dominique Pasquier : Effectivement, l’internet n’est jamais vu comme un moyen de contribution. J’ai demandé ainsi à une femme qui souhaitait se remarier et qui me confiait avoir beaucoup consulté de forums pour se décider à franchir le pas de la famille recomposée… si elle posait des questions sur ces forums. Elle m’a clairement répondu non, comme si c’était impensable. Ce qui l’intéressait c’était la réponse aux questions qu’elle aurait pu poser. Mais la difficulté demeure d’oser, et ce même pour intervenir sur un simple forum, entouré de femmes dans la même situation qu’elle, qui se confient sur des choses intimes… On ne saute pas le pas. Une autre qui réalisait des tricots en puisant des idées sur des blogs contributifs n’y montrait pas non plus ses créations… Il y a une grande pudeur à poser des questions, « à ramener sa fraise »…
Sur l’internet des familles modestes, il y a une grande distance avec la création. Ce qui circule sur Facebook, c’est essentiellement des citations morales, des images, des dessins… des « panneaux » qui proviennent d’ailleurs. L’enjeu n’est pas tant de discuter du contenu de ces messages que de demander à ses amis s’ils sont d’accord avec le fait que ce qui est mis en ligne me reflète moi ! Le but est plus une recherche de consensus. On s’empare de ces messages pour dire qu’on s’y reconnaît et on demande aux autres s’ils nous y reconnaissent. Ces partages se font avec des gens qu’on connaît. On ne cherche pas à étendre sa sociabilité.
À Brest, Bénédicte Havard Duclos qui a travaillé sur des assistantes maternelles, plus diplômées que les populations sur lesquelles j’ai travaillé, à montré qu’elles avaient un peu plus d’ouverture dans leurs échanges en ligne : elles osaient échanger avec des gens qu’elles ne connaissaient pas. Les gens que j’ai vus ne sortent pas de leur monde, sauf en ce qui concerne les connaissances, mais pas en matière de culture ni de sociabilité. Ils utilisent internet pour apprendre des choses qu’ils ne connaissent pas ou perfectionner des pratiques, comme le tricot, la cuisine, le jardinage… Mais ce n’est pas une ouverture sur des nouveaux goûts culturels. Il n’y en a pas du tout dans mon public. Les liens partagés servent aussi beaucoup à rappeler le passé, à le célébrer ensemble une nostalgie. Leur fonction consiste plus à évoquer une culture commune et à renforcer le consensus qu’à une ouverture culturelle. Mais ces résultats auraient certainement été très différents si j’avais regardé les pratiques de leurs enfants.
Y’a-t-il un temps internet chez les plus modestes ou une connexion continue comme pour les catégories professionnelles supérieures ? La frontière entre le monde professionnel et le monde privé est-elle moins étanche chez les plus modestes qu’ailleurs ?
Dominique Pasquier : Il y a une différence entre ces milieux et ceux des cadres et des professions intermédiaires. Ici, quand on arrête de travailler, on arrête de travailler. S’il y a une forte perméabilité du personnel au professionnel, la frontière est complètement hermétique dans l’autre sens : les collègues n’ont pas le numéro de portable ! Beaucoup des femmes que j’ai rencontrées ont des conjoints artisans qui eux n’arrêtent jamais de travailler… mais le plus souvent, les milieux ouvriers ou d’employés subalternes, la frontière entre les deux mondes est forte.
Un long chapitre de votre livre s’intéresse à l’achat en ligne qui semble être devenu une pratique forte et complètement intégrée des milieux modestes. Qu’est-ce qu’a changé cet accès à la consommation ?
Dominique Pasquier : On pense souvent qu’internet permet d’acheter ce qu’on ne trouve pas localement. Pour les plus modestes, la motivation n’est pas du tout celle-ci. Internet sert à acheter moins cher. Et ces femmes y passent du temps. Reste qu’elles se sentent coupables vis-à-vis du petit commerce local, car ce sont des gens qu’elles connaissent. Pour nombre d’achats, elles transigent donc.
Le Bon Coin et les plateformes d’achats entre particuliers sont considérées, elles, comme vertueuses. Ça rapporte un peu d’argent. Ça rend service. On a l’impression que ces échanges sont moraux. « Sur le Bon Coin, chacun garde sa fierté ». Y vendre ou y acheter des produits, même très peu chers – et beaucoup des produits qu’on y échange le sont pour quelques euros -, c’est un moyen de conserver sa fierté, d’affirmer qu’on n’est pas des assistés. Il faut entendre l’omniprésence de la peur du déclassement dans ces populations, limites financièrement. Recourir à l’aide social et faire des démarches, c’est compliqué. Dans cette frange de la population, on déteste tout autant ceux qui sont socialement au-dessus qu’au-dessous. On y entend un discours d’extrême droite qui peut-être manié par des gens qui n’y sont pas acquis, mais qui est caractérisé par la peur de basculer vers les assistés. Comme le disait Olivier Schwartz, il n’y a pas qu’eux contre nous, que le peuple face aux élites, il y a ceux du haut, ceux du bas et les fragiles.
Vous notez dans votre livre que les familles modestes ont un rapport très distant avec l’information (notamment nationale), mais pas avec les causes. « Ceux qui parlent frontalement de politique le font de façon sporadique ». La politique n’est présente que sous une forme polémique, très liée à la crise du marché du travail. Pourquoi ?
Dominique Pasquier : Ce public ne s’informe pas. Beaucoup de rumeurs circulent et s’engouffrent sur des peurs. Les dépenses somptuaires ne les étonnent pas. Les rumeurs sur les fraudeurs et paresseux non plus. J’ai enquêté dans une région où l’immigration est peu présente, mais où le fantasme de l’immigré assisté est omniprésent. La hantise sociale est forte et est à relier à la crise du marché du travail, qui fait que ces familles semblent toujours sur le point de basculer dans la précarité. Ces femmes qui travaillent dans l’aide à domicile connaissent les difficultés du marché du travail : elles ont plein de petits patrons, des horaires à trous, des trajets difficiles et leurs situations sont précaires et instables… Reste que dans ces milieux issus des milieux ouvriers, les valeurs du travail, de l’entrepreneuriat privé et de la réussite restent fortes.
D’une manière assez surprenante, vous consacrez tout un chapitre à la question des relations hommes/femmes. Internet renforce-t-il la séparation des sphères domestiques masculines et féminines ? Comment en questionne-t-il ou en redistribue-t-il les frontières normatives ?
Dominique Pasquier : Effectivement. Nombre de comptes Facebook exaltent l’amour conjugal et la famille. Ce n’est bien sûr pas le cas des hommes célibataires que j’ai rencontrés, dans les comptes desquels dominent des blagues sur les femmes. Chez celles-ci, par contre, on trouve beaucoup de partage d’images et de maximes sur l’absence de partage des tâches domestiques. Chez ces femmes, l’idée qu’on se réalise en tenant son intérieur propre et son linge repassé ne fonctionne plus. L’épanouissement domestique ne fait plus rêver. Cela n’empêche pas que ces femmes continuent à tout faire et que leurs intérieurs soient nickels et parfaitement rangés. Elles aspirent à ce que ce ne soit plus une image valorisante, mais en vrai, la répartition des tâches traditionnelles demeure.
On entend en tout cas une revendication, une contestation de la division très asymétrique du travail domestique. Pourtant, pour ces aides-soignantes qui pratiquent les horaires décalés, bien souvent, les maris doivent faire le dîner pour les enfants. En tout cas, il n’y a plus ce qu’observait Olivier Schwartz, à savoir que les femmes trouvaient leur épanouissement dans la tenue du foyer. Il faut dire que contrairement aux enquêtes qu’il a réalisées dans les familles de mineurs, ces femmes travaillent. C’est sans doute la transformation du marché du travail qui fait bouger les lignes à la maison.
Pour autant, ce n’est pas la guerre non plus. On trouve plus d’endroits où on échange des maximes célébrant le couple que le contraire. C’est moins vrai pour les hommes célibataires. Dans les milieux populaires, les hommes sans qualification (comme les femmes trop qualifiées) ont du mal à entrer en couples. D’où l’expression d’un vif ressentiment.
À la lecture de votre livre, on a l’impression que la fracture numérique a été résorbée. Et on peinerait même à trouver des traces d’une fracture sociale d’usages ?
Dominique Pasquier : Oui. On trouve encore quelques personnes en difficultés, notamment les seniors, mais le plus frappant est de constater qu’internet est entré dans la vie de tous les jours, même chez les familles modestes.
La régulation parentale y est par exemple aussi présente qu’ailleurs. Mais dans les familles plus diplômées, on ne trouve pas la croyance que, parce qu’on sait se servir d’internet, on réussira dans la vie. Il y a ici, une illusion de modernité. Dans les milieux plus cultivés, on retrouve les mêmes difficultés à surveiller les pratiques des enfants et à réguler leurs pratiques, mais les parents offrent la complémentarité de l’écrit traditionnel valorisé à l’école. Ici, les mères croient bien faire en encourageant les pratiques numériques, pensant que cela sera un déclencheur de réussite. Mais c’est assez faux. Malgré la transparence qu’elles imposent, les familles modestes ne savent pas ce que font leurs enfants. En fait, il faut reconnaître que c’est plus difficile pour les parents qu’avant. Alors que la télé réunissait les familles, internet menace les dimensions collectives familiales, par ses pratiques addictives (comme le jeu vidéo) et parce que les pratiques des plus jeunes sont impossibles à réguler. Il transforme et menace profondément les familles. Mon discours à l’air très négatif, je le reconnais. Pour les plus jeunes, internet offre de fortes possibilités de divertissement. Mais comme il n’y a pas de limites et qu’on ne peut pas en mettre, tout repose sur la manière dont les enfants gèrent les sollicitations. Mes travaux sur la culture lycéenne, soulignaient déjà les limites de la transmission horizontale entre jeunes. Les mères, qui se sont mises au jeu et qui ont compris qu’elles étaient accros à leur tour, ont une meilleure compréhension de ce qu’il se passe quand on ne peut pas s’arrêter. Les disputes sur le temps d’écran sont moins présentes. Reste qu’une grande partie de la vie des enfants échappe au périmètre familial et c’est difficile à vivre pour les parents. Ils ont l’impression parfois de contrôler ce que font leurs enfants en ligne, mais ils se trompent.
Propos recueillis par Hubert Guillaud.
Cette interview a été originellement publiée sur InternetActu.net, le 21 septembre 2018.
-
7:03
Carte des tarifs douaniers imposés par les États-Unis : vers une guerre commerciale ?
sur Cartographies numériquesDonald Trump a annoncé le 2 avril 2025 une hausse spectaculaire des droits de douane pour de nombreux pays afin de compenser le déficit commercial des États-Unis qui a atteint 131 milliards de dollars en janvier 2025. La Maison Blanche parle de « Liberation Day » et se propose de disrupter la mondialisation. Une crise économique pourrait suivre cette hausse inédite des tarifs douaniers imposés par les États-Unis.
Un taux global de 10 % s’ajoute sur l’ensemble des importations américaines à partir du 5 avril 2025. Un taux personnalisé, annoncé pour un total de 60 pays dont l'UE, entre également en vigueur à partir du 9 avril. Le taux moyen des droits de douane aux États-Unis devrait ainsi atteindre autour de 30 %, soit le taux le plus élevé depuis plus d’un siècle. Le Canada et le Mexique semblent avoir évité le scénario du pire : les tarifs de 25 % sur les produits non couverts par l’accord de libre échange restent en vigueur. C'est toutefois un retour sans précédent du protectionnisme à l'échelle mondiale.
Si on observe sur une carte la distribution des tarifs douaniers appliqués par les États-Unis, on peut repérer quelques grandes logiques géographiques. Les droits de douane les plus bas concernent les pays du Moyen-Orient (notamment les pays exportateurs de pétrole), l'Amérique latine, le Royaume-Uni ainsi que d'autres pays faisant partie de la sphère d'influence américaine. A l'inverse, la Chine et une grande partie de l'Asie sont davantage taxées.
La carte a été réalisée avec l'application Magrit. Les données ont été prélevées sur le site de la Maison Blanche et rassemblées sous forme de fichier csv en incluant également des données sur les importations-exportations et sur la balance commerciale de chaque pays vis-à-vis des Etats-Unis. Le projet cartographique au format mjson peut être téléchargé et intégré directement dans Magrit.Lors de son discours, Trump s'en est pris à l'Union européenne, déclarant « ils nous ont arnaqués, c'est pathétique » et promettant des représailles : « Ils nous ont fait payer 39 %, nous allons leur faire payer 20 %. ». La proposition prévoit des tarifs proportionnels à ceux imposés par d’autres pays aux États-Unis. On peut noter quil ne s'agit pas vraiment de tarifs douaniers qui auraient calculés en fonction de chaque pays. Le mode de calcul global a consisté à prendre le déficit commercial et à le diviser par les importations américaines en provenance de chaque pays ou territoire. Ainsi par exemple, le déficit commercial avec la Chine (295,4 milliards de dollars) a été divisié par le montant des importations américaines en provenance de Chine (438,9 milliards de dollars), ce qui donne un taux de droit de douane de 67 %. Pour l'Europe, c'est 235,6 milliards de $ de déficit / 605,8 milliards $ d'importations = 39 % (voir la liste des pays et le détail du mode de calcul sur le site de la Maison Blanche). Ainsi la carte des droits de douane imposés par les Etats-Unis reproduit en gros celle de leur déficit commercial (voir la carte de leur balance commerciale proposée par Le Grand Continent).
La Russie, la Corée du Nord, la Biélorussie, le Burkina Faso, Cap-Vert, Cuba, Hong Kong, Macao, les Seychelles, la Somalie et la Gambie n’apparaissent pas parmi les pays ciblés directement dans les documents de la Maison-Blanche. On observe des incohérences au niveau des territoires français d'outre-mer : 37 % de droits de douane sur La Réunion et 10 % sur la Guyane, la Polynésie et Mayotte qui ne sont pas des pays, mais des parties intégrantes de la France et auraient donc dû être traités de la même manière que le reste du territoire de l’Union européenne avec un taux à 20%. S'agissant des territoires ultramarins mais aussi d'autres petites îles quasiment inhabitées, il semble que la Maison-Blanche ait utilisé le code iso international des pays et territoires. Ainsi les îles Heard Islands and Mac Donald’s sont taxées à 10% alors qu'elles sont globalement inhabitées sauf par des pingouins ou quelques scientifiques.
D'après Eurostat, en 2024, 20 des 27 Etats membres de l'UE avaient une balance commerciale excédentaire vis-à-vis des Etats-Unis, en ce qui concerne les échanges de biens. Il existe toutefois une grande différence de balance commerciale entre les biens et les services. Du côté des services, la tendance s'inverse. En ayant exporté pour 318,7 milliards d'euros vers les Etats-Unis en 2023 et importé pour 427,3 milliards d'euros, l'Union se retrouve cette fois en déficit commercial, à hauteur de 108,6 milliards d'euros. La « méthodologie » utilisée par la Maison-Blanche pour fixer les taux des droits de douane est largement contestée par les économistes. En prenant en compte les relations commerciales bilatérales des États membres avec les États-Unis, et non l’Union européenne dans son ensemble, les tarifs appliqués aux 27 varieraient de 10 à 47 %.
A partir du fichier csv proposé, qui contient des données sur les importations, les exportations et la balance commerciale des États-Unis vis-à-vis de chaque pays, Jean-Marc Viglino a proposé une carte bivariée qui croise les tarifs douaniers avec la balance commerciale en 2024. Il en ressort une typologie intéressante.
Carte bivariée des tarifs douaniers des pays et de la balance commerciale vis-à-vis des Etats-Unis(source : Macarte.ign.fr)
Références« Droits de douane : le choc mondial » (IRIS). La carte détaille le niveau des droits annoncés et la chronologie par zones géographiques.
« Les nouveaux droits de douane de Donald Trump. Comprendre la guerre commerciale » (Le Grand Continent). L'Union européenne essaie de se coordonner pour apporter une réponse commune. Les pays les plus pauvres sont visés par les tarifs douaniers les plus élevés.
« Trump annonce des "tarifs réciproques" mondiaux » (Le Monde). « Les conséquences seront désastreuses pour des millions de personnes dans le monde. Les produits alimentaires, les transports et les médicaments coûteront plus cher », a déclaré Mme von der Leyen.
« Les droits de douane imposés par Trump touchent même des îles reculées. L'une d'elles abrite principalement des manchots ». Les îles Heard et McDonald, un territoire subantarctique de l’Australie, figurent sur la liste des tarifs réciproques, tout comme une île volcanique isolée près du Groenland (Washington Post).
« Les décisions cachées derrière la formule tarifaire de Trump » (New York Times). La formule universelle est brutale : elle applique exactement les mêmes calculs aux pays, qu’ils aient de lourdes barrières commerciales ou des marchés largement ouverts. Elle ne prend en compte que l’ampleur du déficit commercial, et non les raisons de ce déficit. Comment les tarifs douaniers évolueraient si le déficit incluait les biens et les services ? Il est difficile de dire combien de temps cette formule restera telle quelle. M. Trump a déclaré qu'il était prêt à conclure des accords avec d'autres pays si les États-Unis obtenaient quelque chose de « phénoménal ».
« Quand les énormes droits de douane imposés par Trump frappent les petites économies africaines » (New York Times). La quantité de produits manufacturés exportés d'Afrique vers les États-Unis est infime. Mais pour le Lesotho par exemple, l'impact d'un tarif de 50 % est énorme.
« A combien s'élèvent les droits de douane sur les produits chinois ? C'est plus complexe qu'on ne le pense (New York Times). Quatre grandes catégories de droits de douane sont imposées sur les marchandises en provenance de Chine. Les taux dépendent en fin de compte de ce qui est importé, des matériaux utilisés (d'où ils proviennent), des taux spéciaux appliqués et des types de produits exonérés.
« La Réunion, Polynésie, Antilles, Saint-Pierre et Miquelon. Les Outre-mer également concernés par les droits de douane américains » (Outremers360.com).
« La taxe Trump pour La Réunion passe finalement de 37 à 10% » (Zinfos974). Trois jours après avoir sidéré la planète entière, l'administration Trump revient sur certaines de ses annonces choc. L’île de La Réunion voit ses droits de douane révisés à la baisse par rapport au niveau initialement annoncé.
« Quelle est la balance commerciale entre l'Union européenne et les Etats-Unis ? » (Toute l'Europe).
« Solde extérieur des biens et services en pourcentage du PIB » (OurWorldInData).
« La Chine riposte aux droits de douane américains et fait chuter les marchés financiers » (France24).
« Avec ses droits de douane, Donald Trump renvoie les États-Unis au niveau de taxation des années 1930 » (Le Figaro). Voir le graphique et les données montrant le virage protectionniste historique sur le site Coface.
Données et graphiques sur la composition du commerce sectorielle pays de l'UE - Etats-Unis (CEPII - Recherche et expertise sur l'économie mondiale).
Série de dessins satiriques et de caricatures concernant les tarifs douaniers par Trump sur X-Twitter et sur Bluesky.
Liens ajoutés le 13 avril 2025
« Comment Trump a changé d'avis sur les tarifs douaniers » (NBC News).
Le « Jour de la Libération » vient de céder la place au Jour de la Capitulation. Trump et les responsables de son administration ont reçu des appels de pays alliés et ses conseillers lui ont présenté des données inquiétantes sur les marchés obligataires. Le président Donald Trump a annulé mercredi 9 avril une série de tarifs douaniers sévères visant aussi bien ses amis que ses ennemis, dans une tentative audacieuse de remodeler l'ordre économique mondial. Trump a annoncé une pause de 90 jours qu'il compte utiliser pour négocier des accords avec des dizaines de pays qui se sont déclarés ouverts à une révision des conditions commerciales qui, selon lui, "exploitent les entreprises et les travailleurs américains". La Chine fait exception. Trump a augmenté les droits de douane sur le principal rival géopolitique du pays de 125 %, s'inscrivant dans une escalade de représailles et une guerre commerciale avec la Chine.
« Carte des tarifs douaniers américains du "Jour de la Libération" ». Le 9 avril 2025, ces droits de douane ont été suspendus pendant 90 jours, sauf pour la Chine. Nouveaux tarifs douaniers mis à jour au 10 avril 2025 (AB Pictoris).
« Droits de douane : trois graphiques pour visualiser l'ampleur du déficit commercial des Etats-Unis avec la Chine » (France-Info). Washington et Pékin se sont engagés dans une nouvelle guerre commerciale, à coups de tarifs douaniers record. Initié par Donald Trump, ce bras de fer économique pourrait avoir de lourdes conséquences pour les deux premières puissances mondiales, très dépendantes l'une de l'autre.
« Les smartphones et les ordinateurs exemptés des surtaxes de Donald Trump » (Le Monde). Les Etats-Unis, en pleine guerre commerciale avec la Chine, ont décidé d’exempter les smartphones et les ordinateurs des récentes surtaxes douanières imposées par Donald Trump, selon une notice du service des douanes. Il y a un « espace de négociation », estime le ministre de l’économie français.
« La Chine suspend ses exportations essentielles alors que la guerre commerciale s'intensifie » (The New York Times). Pékin a suspendu les exportations de certains minéraux de terres rares et d'aimants essentiels aux industries mondiales de l'automobile, des semi-conducteurs et de l'aérospatiale.
Thomas Piketty : « La réalité est que les Etats-Unis sont en train de perdre le contrôle du monde » (Le Monde). Le président américain voudrait que la pax americana soit récompensée par un tribut versé par le reste du monde, de façon à financer éternellement ses déficits. Le problème est que la puissance états-unienne est déjà déclinante et qu’il faut imaginer le monde sans elle, explique l’économiste dans sa chronique.
Articles connexes
La carte, objet éminemment politique : quand Trump dessine sa carte du monde
Quand l'Administration Trump fait disparaître des données sur les sites gouvernementaux
Le monde vu à travers les tweets de Donald Trump
Carte de l'influence mondiale de la Chine et des États-Unis
Cartographie des pays ayant les États-Unis ou la Chine comme principal partenaire commercial (2001-2023)
Mesurer le rayonnement des grandes puissances à travers leurs réseaux diplomatiques
La mondialisation appréhendée à travers un indice de connectivité mondiale
The Power Atlas. Un atlas pour aborder les éléments clés de la puissance aujourd'hui
Comment la Chine finance des méga-projets dans le monde
-
9:41
NEOGEO et SOGEFI allient leur catalogue de données et leur SIG pour les besoins de leurs utilisateurs
sur Neogeo TechnologiesUne solution mutualisée donnant une gamme complète d’outils pour répondre aux besoins cartographiques des acteurs publics.
Chez NEOGEO, nous avons décidé de nous associer à SOGEFI pour offrir à nos utilisateurs toute la puissance des données. Grâce à cette collaboration, la plateforme OneGeo Suite de NEOGEO est enrichie par les applications métier Mon Territoire de SOGEFI.
Ensemble, nous proposons une solution mutualisée qui fournit une gamme complète d’outils adaptés aux besoins des administrateurs, des gestionnaires de données, des services techniques, des élus et du grand public.
La combinaison de nos deux solutions offre une réponse précise et adaptée aux divers acteurs d’un territoire. Elle repose sur un socle commun robuste solide, structuré et évolutif centré sur les données, ce qui permet de créer un cycle vertueux de gestion de la donnée pour l’ensemble des acteurs de la structure, au bénéfice de leur territoire. Le développement de nos solutions respectives est axé sur l’expérience utilisateur, chaque outil étant conçu pour répondre aux besoins spécifiques des différents profils d’acteurs impliqués.
OneGeo Suite propose aux administrateurs une gamme de modules pour gérer les référentiels métiers et satisfaire aux exigences de publication et de partage des données Open Data. OGS valorise ces données grâce à des modes de publication et de reporting (Dataviz) adaptés aux besoins des utilisateurs et de leurs publics, qu’il s’agisse de partenaires ou du grand public. Avec son module Explorer pour la recherche et la consultation intuitive des jeux de données, son module Maps pour les fonctionnalités cartographiques avancées, et son module Portal pour un portail collaboratif, OneGeo Suite offre une solution complète et innovante. Cette suite est fondée sur des principes de mutualisation et de co-construction d’outils open source.
Mon Territoire propose une gamme complète d’outils métiers prêts à l’emploi pour les services techniques et les collectivités. Couvrant de nombreuses compétences, la gamme Mon Territoire utilise une sélection de données Open Data pour assister les agents responsables de l’urbanisme, de l’habitat, des réseaux, de la voirie et du développement économique.
Schéma décrivant les usages et les rôles au travers des applications fusionnées OneGeo Suite et Mon Territoire
« La gamme d’outils clé en main proposée par SOGEFI permet de compléter notre solution OneGeo Suite de catalogage et de diffusion de données par des modules métiers opérationnels directement accessibles aux utilisateurs de la plateforme.L’interopérabilité des deux solutions permet de mutualiser l’accès aux référentiels cartographiques et aux bases de données métier et le partage des droits sur les différents jeux de données offre la possibilité de définir une véritable stratégie de gouvernance des données. Enfin l’accès aux API Opendata proposées par SOGEFI et alimentées en temps réel permet d’enrichir l’offre de référentiels proposés dans le catalogue de données mis à disposition ».
« OneGeo Suite est la réponse idéale pour les structures départementales et régionales qui disposent d’un socle important de données. Les administrateurs de ces dernières disposent alors de tous les outils pour gérer ces importants volumes de données du catalogage à sa publication pour ses adhérents. OneGeo Suite, plateforme complètement Open Source, est totalement interopérable avec notre gamme Mon Territoire, elle apporte une vraie valeur ajoutée pour la diffusion et la valorisation de l’ensemble des données ainsi consolidées au fil du temps par les services et permet à l’IDG la mise en place d’un cycle vertueux de l’information pour l’ensemble de ces acteurs. »
L’un des avantages de notre collaboration est de pouvoir déployer rapidement des solutions prêtes à l’emploi grâce à un accompagnement spécifique par métiers et compétences. Une équipe pluridisciplinaire est mobilisée pour le déploiement de notre offre commune et le planning établi peut mobiliser différentes équipes en parallèle pour le bon avancement du projet. Chacun sur son métier, NEOGEO et SOGEFI ont à cœur de vous accompagner et de vous conseiller sur vos problématiques. Chacun mène une veille permanente sur l’Opendata ainsi que sur les technologies du domaine et vous propose de vous en faire bénéficier au travers des solutions et des services que nous mettons en place depuis plusieurs années. Construit autour de communautés d’utilisateurs, nos deux solutions sont reconnues sur le marché depuis de nombreuses années, elles sont au service de nombreux usagers qui nous font part de leurs besoins d’évolution et idées pour les versions à venir notamment au travers d’espace d’échanges dédiés (forum, page web dédié…). Ces remontées d’informations sont précieuses pour nos équipes afin de définir les feuilles de route de nos produits.
« Les outils métiers de SOGEFI sont tout à fait en adéquation avec les besoins et les usages des collectivités de toutes tailles dans leurs tâches du quotidien. Les partenariats existants avec Géofoncier sont un vrai plus pour les secrétaires de mairie. Nous pouvons également répondre aux besoins des services techniques des collectivités, des syndicats des eaux, d’assainissement. Les solution OneGeo Suite va nous permettre de maitriser nos données et de les mettre à disposition de nos utilisateurs et partenaires de manière simple et structurée (flux, datavisualisation, carte Web).? Le tout parfaitement intégré à notre SI et répondant à nos exigences en termes d’administration des comptes utilisateurs et des droits sur les données. »
« Depuis une douzaine d’année, la plateforme territoriale Guyane-SIG favorise l’accessibilité des données spatiales et la démocratisation de leurs usages sur la Guyane. En 2020, la Collectivité Territoriale de Guyane a initié un travail de modernisation de l’ensemble des composants fonctionnels en deux étapes :
-
-
- Nous avions besoins d’un outil performant pour proposer une lecture facilitée de l’information foncière pour l’ensemble de nos partenaires. Les attentes étaient fortes et avec Mon Territoire Carto, nous avons pu bénéficier rapidement d’un outil ergonomique mobilisant de nombreuses données en Opendata que nous avons pu compléter par des productions endogènes.
- Puis les efforts se sont portés sur les outils collaboratifs de partage et de valorisation des données dans le respect des standards. Avec la suite OneGeo, nos partenaires peuvent désormais publier en quelques clics leurs données.
-
L’accompagnement nous permet également de proposer régulièrement à nos partenaires des webinaires de présentation des évolutions fonctionnelles.
NEOGEO et SOGEFI sont ravis de poursuivre et renforcer leur partenariat déjà éprouvé depuis plusieurs années auprès du Portail Géofoncier. Ce portail porté par l’Ordre des Géomètres-Expert est aujourd’hui une référence nationale dans la valorisation de l’information foncière. L’ambition portée par Géofoncier a su s’appuyer sur la complémentarité des expertises de chacun. Les différents projets ont nécessité un travail de coordination et d’enrichissement mutuel des pratiques et technologies mobilisées par les deux sociétés dans un objectif commun. Nos équipes se connaissent, elles ont l’habitude de travailler ensemble et savent mobiliser les ressources en interne pour assurer une couverture élargie des compétences nécessaires aux projets.
« Depuis de nombreuses années, NEOGEO et SOGEFI sont nos partenaires privilégiés chez Géofoncier. Leurs expertises complémentaires et incontestées dans le domaine de la diffusion et de la valorisation de la donnée cartographique, associée à leurs écoutes attentives de nos besoins, font de NEOGEO et SOGEFI un groupement pertinent et essentiel à notre réussite. Leur engagement fort au quotidien à fournir en concertation des solutions complètes et pérennes ont grandement contribué au succès de Géofoncier. Nous sommes reconnaissants de pouvoir compter sur ces équipes d’experts aussi fiables et compétentes pour nous accompagner dans notre croissance continue.
NEOGEO possède une expertise avérée dans la mise en œuvre de solutions innovantes de partage, de valorisation et de visualisation de données géographiques auprès d’un large public. NEOGEO développe et met en place depuis sa création en 2008 des infrastructures de données géographiques et des plateformes open-source. NEOGEO a intégré en 2022 le groupe Geofit (leader français dans l’acquisition de données spatiales), permettant ainsi de renforcer ses compétences (équipe de 40 collaborateurs) et ses références (une cinquantaine de plateformes cartographiques majeures déployées en France et à l’étranger). C’est aussi la fusion des savoirs faires technologiques des deux structures qui a permis de donner le jour à la solution OneGeo Suite.
SOGEFI, expert de la data et du webmapping depuis 33 ans propose des solutions pour la gestion et l’exploitation de données par la cartographie. La gamme Mon Territoire est réservée aux collectivités pour la gestion par métier de leur territoire. SOGEFI place l’utilisateur au cœur de ses réflexions et de sa feuille de route et son expertise de la donnée lui permet de proposer des exploitations poussées de la donnée au sein de ses applications. La société équipe aujourd’hui plus de 1000 collectivités et entreprises avec ses solutions web-SIG cadastre, urbanisme, réseaux et voirie. Elle accompagne également le portail Géofoncier sur son expertise de la donnée par la mise à disposition de ses API. »
-
Recent items
-
11:55
gvSIG Team: Geoportal y Semana Santa: Planificación y seguridad con información geográfica actualizada
sur Planet OSGeoLa Semana Santa no solo es una de las celebraciones más emblemáticas del calendario, sino también un gran reto organizativo para los municipios. En este contexto, la colaboración entre el Ayuntamiento de Albacete, la Policía Local y la Junta de Cofradías ha permitido desarrollar itinerarios seguros para los desfiles procesionales, utilizando como herramienta clave la Infraestructura de Datos Espaciales, basada en tecnología gvSIG Online.
Gracias a esta plataforma, que ofrece información geográfica completa y constantemente actualizada, se ha podido planificar con antelación los servicios de emergencia, diseñar recorridos accesibles y seguros, y coordinar los distintos servicios municipales involucrados en la gestión de estos eventos multitudinarios.
Se ha publicado la información de las distintas procesiones de Semana Santa en el Geoportal de la Policía Local, accesible desde la web del Ayuntamiento y de la IDE de Albacete. La plataforma de gestión de información geográfica de Albacete no solo facilita el acceso a mapas, catálogos y servicios de visualización, sino que se ha convertido en una herramienta indispensable para el diseño de proyectos y la planificación urbana. Según ha destacado Francisco Navarro, teniente de alcalde y concejal de Movilidad, “el Geoportal es un servicio esencial y fundamental que permite conocer la ciudad centímetro a centímetro y nos ayuda en la planificación urbana”.
La Unidad de Cartografía, Topografía y Geomática del Ayuntamiento ha sido la encargada de elaborar y mantener la cartografía y la información espacial que alimenta esta plataforma. La información se organiza y visualiza en distintos visores temáticos, como el Visualizador de la Policía Local, desde donde se gestiona todo lo relativo a los recorridos procesionales de Semana Santa. Tras la creación de la estructura en la geodatabase por parte del equipo de Topografía, es la Policía Local quien se encarga de mantener actualizados los recorridos, fechas y detalles.
Además, la IDE de Albacete ofrece a los ciudadanos otras funcionalidades destacadas como el Visor de Urbanismo (Plan General de Ordenación Urbana), el Visor Cartográfico (con cartografía histórica y límites administrativos), el Visor del Cementerio (para localizar sepulturas) o el Visor Feria, que permite gestionar la ocupación de espacios durante grandes eventos.
Esta experiencia demuestra una vez más el valor de las plataformas basadas en tecnología gvSIG Online para la gestión municipal, la mejora de la eficiencia de los servicios públicos y la implicación de diferentes actores en la toma de decisiones a través de la geoinformación.
La prensa dice:
-
11:00
Mappery: Welcome to Bendigo
sur Planet OSGeoAndrew Tyrrell could have said “Here is one I made before” (readers of a certain age will get the cultural reference) but he was a bit more loquacious and said “Driving to #Queenstown to run my first half marathon tomorrow, and stopped off along Lake Cromwell to admire one of my #MapsInTheWild. I made this in my day job, and there’s one for each of the freedom camping sites managed by Toit? Te Whenua.”
Nice one, Andrew!
-
9:05
Hyperlocal Social Media
sur Google Maps ManiaEver wondered what people might say if conversations were pinned to real places - like digital graffiti on a map? That’s exactly the experiment Pintalk is trying out.Created as a minimalist web app, Pintalk invites you to talk where you are - or more accurately, to start or join public text conversations anchored to specific latitude/longitude points. Think of it like a chatroom stapled to a
-
21:33
Pas à pas - Prendre en main le mode Express d'ArcGIS Experience Builder
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierDepuis les premiers numéros du magazine SIGMAG, arcOrama collabore chaque trimestre à la rédaction d'un article didactique focalisé sur une fonctionnalité ou une application clé du système ArcGIS. Je reprends ci-dessous l'article publié dans le numéro 44 paru en mars 2025. Celui-ci présente, en quelques étapes, comment prendre en main le nouveau mode "Express" disponible dans ArcGIS Experience Builder.
ArcGIS Experience Builder est un concepteur d’applications, disponible avec ArcGIS Online ou ArcGIS Enterprise, qui permet de créer et de diffuser des expériences web sans aucune ligne de code. Depuis récemment, il propose un mode "Express" permettant une prise en main simplifiée, idéal dans le cas où vous souhaitez migrer une application réalisée avec ArcGIS Web AppBuilder. Dans ce pas à pas, je vous propose de découvrir comment fonctionne ce nouveau mode en l’utilisant pour recréer une application Web AppBuilder dans Experience Builder. 1. L’application que nous allons recréer permet aux utilisateurs de consulter les données de l’Annuaire Numérique de Santé de Metz Métropole mises à disposition par Data Grand Est. Dans le bandeau inférieur, plusieurs widgets permettent à l’utilisateur d’explorer les données : une fonctionnalité de zoom/dézoom, une recherche d’adresse, la légende de la carte, un filtre sur la spécialité du professionnel de santé et la possibilité de calculer un itinéraire. Un bouton "information" lui permet également d’en apprendre plus sur l’application. Vous pouvez la consulter ici.
2. Commencez par lancer Experience Builder depuis votre portail. Pour passer en mode Express, vous devez cliquer sur le bouton à bascule en haut à droite de l’interface d’accueil. Vous avez désormais accès aux expériences que vous aurez conçues en mode Express. Toutes les expériences que vous avez déjà créées en mode Complet seront à nouveau accessibles dans l’interface d’accueil si vous rebasculez en mode Complet en utilisant le même bouton. De la même manière qu’avec le mode Complet, cliquez sur "+ Créer" en haut à droite pour accéder à l’interface de conception d’expériences.3. Le mode Express vous fait alors sélectionner un modèle d’application. Les modèles disponibles sont équivalents à ceux proposés dans Web AppBuilder. Vous pouvez consulter les différents modèles avant de choisir celui qui vous convient le plus. Ici, choisissez le modèle "Flèche", correspondant au modèle utilisé dans Web AppBuilder pour l’ancienne application. Une fois le modèle sélectionné, cliquez sur "Créer une nouvelle application".
4. Vous arrivez alors dans l’interface de conception de l’expérience, qui est très épurée dans le mode Express afin de faciliter et d’accélérer la prise en main. Dans le bandeau de gauche, vous pouvez définir le style et les paramètres généraux de l’application, tandis que le bandeau de droite permet de configurer les widgets. Commencez par nommer l’expérience "Annuaire Numérique de Santé - Metz Métropole" en cliquant sur son nom en haut à gauche. Ensuite, en cliquant sur la palette de couleur à gauche, vous allez modifier le thème en cliquant sur "Personnaliser". Modifiez la couleur principale en indiquant le code hexadécimal #629b79 pour correspondre au style utilisé dans l’application initiale.5. Il est temps d’ajouter la carte à l’Expérience. Dans le bandeau de droite, qui est par défaut ouvert sur la configuration du widget "Carte ", cliquez sur "Sélectionner une carte" puis sur "Ajouter de nouvelles données" tout en bas du bandeau. Dans les contenus ArcGIS Online, recherchez "ANS Metz Métropole" , sélectionnez la carte qui apparaît et cliquez sur "Terminé". Cliquez ensuite sur la donnée qui vient de s’ajouter dans l’onglet de sélection des données puis refermez le bandeau. La carte apparaît dans l’expérience. Vous apercevez peut-être quelques différences avec la carte présente dans l’ancienne application, dont notamment l’étiquetage des agrégats permettant à l’utilisateur de savoir combien de professionnels de santé sont disponibles à chaque emplacement en un coup d’œil. Il s’agit bien de la même carte, mais contrairement à Web AppBuilder, Experience Builder se base sur la nouvelle génération de Map Viewer. Cela permet d’afficher les configurations présentes dans cette dernière qui n’existaient pas forcément dans Map Viewer Classic.
6. Vous allez maintenant modifier le titre qui s’affiche dans l’application. Double cliquez sur l’emplacement de titre et inscrivez "Annuaire Numérique de Santé - Metz Métropole". Dans le bandeau à droite, configurez la taille du texte sur 22px, et choisissez une couleur blanche. Vous pouvez ensuite sélectionner le sous-titre et le supprimer avec la touche "Suppr" de votre clavier, car il n’y avait pas de sous-titre dans l’application initiale.
7. Le modèle d’expérience propose des widgets par défaut. Dans la carte, vous retrouverez des outils de recherche et de zoom/dézoom. Nous allons les laisser en place. Notez que si vous le souhaitez, vous pouvez ajouter ou supprimer des outils de la carte en cliquant sur la carte puis en déployant l’onglet "Outils" dans le bandeau de droite.
Dans le bandeau vert, trois widgets supplémentaires sont disponibles : une légende, les couches cartographiques et une bibliothèque de fond de carte. Ces widgets sont inclus dans un contrôleur de widget. Cliquez entre deux des widgets pour accéder à la configuration du contrôleur. Dans le bandeau supérieur, vous voyez apparaître deux icônes. Cliquez sur celui de gauche "Gérer les widgets", puis supprimez Couches cartographique et Bibliothèque de fonds de carte en cliquant sur les croix.
8. Vous allez maintenant ajouter et configurer les widgets manquants pour proposer les mêmes fonctionnalités que l’ancienne application. Cliquez sur le second bouton ayant apparu dans le bandeau supérieur, "Ajouter un widget " et sélectionnez le widget "Feuille de route ". A droite, vous pouvez le configurer en choisissant une source pour le localisateur ainsi qu’un service d’itinéraire. L’option "utiliser la localisation actuelle " permettra à l’utilisateur de se géolocaliser pour renseigner le point de départ ou d’arrivée.
9. De la même manière, ajoutez le widget "Filtrer ". Pour la configuration, cliquez sur "+ Nouveau filtre ". Dans "Sélectionner des données ", sélectionnez la couche de points "Annuaire Numérique de Santé " qui apparaît lorsque vous cliquez sur le "+ " à côté de la carte ANS Metz Métropole. Dans le générateur d’expressions SQL, cliquez sur "+ Ajouter une clause " et choisissez le champ "lib_profession ", puis le test "est" puis « Uniques (prédéfinies) ". Cliquez ensuite sur la roue crantée à droite pour modifier l’étiquette par "Sélectionnez une spécialité " puis cliquez sur "OK ".10. Le dernier widget manquant est le widget "A propos ". Pour le recréer dans Experience Builder, vous pouvez simplement ajouter un widget Texte. Dans la fenêtre qui apparaît sur la carte, double cliquez sur le texte servant d’emplacement et remplacez-le par le texte présent dans l’application d’origine. Ensuite, dans la configuration à droite, modifiez l’icône du widget par le i encerclé et le titre du widget par "A propos ".
11. La configuration est terminée ! Vous pouvez désormais enregistrer, prévisualiser, publier et configurer les paramètres de partage de votre expérience grâce aux boutons présents en haut à droite de l’interface. Le mode Express vous laisse également la possibilité de basculer en mode Complet à tout moment. Cela vous permet, une fois votre expérience créée, d’accéder à l’intégralité des fonctionnalités d’Experience Builder. Vous pourrez ainsi enrichir votre application avec une mise en page très configurable, la capacité à ajouter plusieurs pages et fenêtres, et l’accès à un très grand nombre d’actions permettant de connecter vos données et vos widgets entre eux pour proposer à vos utilisateurs une expérience dynamique et personnalisée.
-
20:32
Atlas de l'absence. Le patrimoine culturel du Cameroun en Allemagne
sur Cartographies numériques
Source : Atlas de l'absence. Le patrimoine culturel du Cameroun en Allemagne (Technische Universität Berlin)Plus de 40 000 objets du Cameroun sont aujourd’hui conservés dans les musées publics de la République fédérale d’Allemagne – la plus grande collection au monde. Depuis la période coloniale allemande (1886-1916), ils sont conservés dans les dépôts des institutions et sont rarement montrés ou mis à disposition dans des publications. Les auteurs retracent pour la première fois cette présence invisible du Cameroun dans les musées allemands. Cela permet également de comprendre ce que signifie l’absence de patrimoine culturel pour le Cameroun.
Le projet
La publication est basée sur le projet « Histoire inversée des collections » financé par la Fondation allemande pour la recherche, sous la direction d'Albert Gouaffo (Université de Dschang) et de Bénédicte Savoy (Technische Universität Berlin). L'ouvrage a été présenté lors de la conférence « Le patrimoine culturel du Cameroun en Allemagne. Constats et perspectives » du 1er au 3 juin 2023, à la Technische Universität Berlin.
Avec les contributions de :
Mikaél Assilkinga, Berlin/Dschang ; Lindiwe Breuer, Berlin ; Fogha Mc Cornilius Refem (alias Wan wo Layir), Potsdam ; Albert Gouaffo, Dschang ; Dieu Ly Hoang, Berlin ; Yann Le Gall, Berlin ; Yrine Matchinda, Dschang ; Andrea Meyer, Berlin ; Prince Kum'a Ndumbe III., Douala ; Philippe Rekacewicz, Arendal/Wageningen ; Bénédicte Savoy, Berlin ; Sébastien-Manès Sprute, Berlin ; Richard Tsogang Fossi, Berlin/Dschang ; Eyke Vonderau, Berlin.
Un atlas absolument à découvrir
Tous les éléments et résultats de l'enquête sont disponibles dans le dépôt ouvert par l'Université technique de Berlin Inventaires et données de recherche. Un livre issu de cette enquête a été publié en juin 2023, il est disponible en papier, mais il est aussi téléchargeable en pdf en accès libre Atlas der Abwesenheit. Kameruns Kulturerbe in Deutschland ou par chapitres sur le site de l'éditeur. Une traduction en français "L'Atlas de l’absence. Le patrimoine culturel du Cameroun en Allemagne" est également disponible.
Pour en savoir plus
« Présence invisible en Allemagne d’un patrimoine absent du Cameroun » (Visionscarto).
« Atlas de l’absence » : une spectaculaire enquête sur le « Cameroun fantôme » en Allemagne (Histoire coloniale). Le site Histoire coloniale revient sur la vision coloniale véhiculée par les musées ethnographiques de l'époque, qui ont longtemps manqué de transparence voire minoré leurs inventaires. Un revirement politique assez récent les a poussés à coopérer avec des chercheur·es externes à leurs institutions, à l’instar du groupe formé entre Dschang et Berlin.
Bénédicte Savoy et Albert Gouaffo, qui ont coordonné l'Atlas, présente les enjeux de cet ouvrage dans le but de rendre visibles ces biens culturels qui ont subi une double invisibilisation, du côté du Cameroun qui en a été séparé pendant plus d'un sicèle et du côté de l'Allemagne où les musées ont peu mis en valeur ces "objets" ou seulement de manière récente. Philippe Rekacewicz propose, sur le site Visionscarto, des cartes rendant compte de ce double processus d'invisibilisation qui a contribué largement à créer un « Cameroun fantôme ».
Articles connexesUne carte pour recenser les objets africains dans les musées du monde
Carte des oeuvres du Louvre exposées en France métropolitaine
La projection Equal Earth, un bon compromis ?
Africapolis, un projet pour cartographier au plus près l'Afrique urbaine
Africartes : toute l’Afrique en cartes et en accès libre sur le site de l'AFD
ArchéOdyssée, une carte interactive de plus de 800 musées et sites archéologiques en France
Un projet de cartographie participative pour cartographier les écoles en Afrique
Le Blanc des cartes. Quand le vide s'éclaire (Atlas Autrement)
-
17:30
Tim Waters: Whoots updates: Some changes, and add new PHP version
sur Planet OSGeoWhoots is a simple tile server proxy for WMS servers. WMS > TMS. So if you have an application that only works with ZYX Google-style tiles and all you have is a WMS server, you can use it to re-route the request.
It was created way back in 2010! Here’s the post announcing it: WhooTS a small wms to tile proxy – WMS in Potlatch
There’s been few recent changes.
- Some validations to the code was added to make it a bit more secure.
- image/png and image/jpeg will now work. Defaults to png. Optionally pass in ?format=image/jpeg for jpeg
- You don’t need to have a map= param in the URL for it to work now.
- Puma server configs added
- new php port of the code
- The server at whoots.mapwarper.net was moved to a shared host and is now running the php version
The code is at [https:]]
-
14:00
Que se cache-t-il derrière l'image Docker officielle de QGIS Server ?
sur GeotribuLes mystères de l'image Docker officielle de QGIS Server
-
11:00
Mappery: Spectacular Highland Hall
sur Planet OSGeoJeff Allen shared htis. No idea what or where the building is but this is spectacular.
A little bit of image search and I discovered that this is Highland Hall on the University of Toronto Scarborough Campus, still spectacular.
-
10:53
Café géo de Paris, mardi 29 avril 2025 : « Littérature et géographie », avec Emmanuelle Loyer et Jean-Louis Tissier
sur Les cafés géographiquesMardi 29 avril 2025, de 19h à 21h, Café de Flore, salle du premier étage, 172 boulevard Saint-Germain, 75006 Paris
La géographie n’hésite plus à explorer les territoires les plus divers, notamment en géographie culturelle. C’est ainsi qu’un regard géographique peut servir de révélateur – sans doute partiel – d’une œuvre littéraire qui interroge l’espace et les lieux.
Pour le démontrer une nouvelle fois, nous avons invité une historienne (Emmanuelle Loyer) et un géographe (Jean-Louis Tissier) qui réfléchiront ensemble aux relations entre la géographie et la littérature à partir du livre L’impitoyable aujourd’hui (Flammarion, 2022) qu’E. Loyer a écrit pendant le « confinement ».
L’historienne de la culture a organisé son essai en trois séquences dans lesquelles la littérature, selon elle, s’est confrontée aux épreuves contemporaines, voire à des « fins du monde ». E. Loyer sait que dans l’histoire-géo le trait d’union est important : l’histoire déroule et tend le fil du temps, mais les événements ont lieu ici et/ou là. Et c’est au Flore, ce 29 avril, que nous évoquerons les dangers que l’anthropocène fait courir à la biodiversité !
-
10:27
The Tariff Busting Map Game
sur Google Maps ManiaIntroduction: The Egg CrisisIn a world where breakfast has become a luxury, an evil empire has imposed crippling tariffs on eggs, sending prices skyrocketing. Omelettes are now a distant memory for the average citizen, and scrambled eggs are a delicacy only the wealthy can afford. But hope is not lost! Rebel forces have uncovered a loophole in the empire's trade barriers - by launching eggs
-
8:32
Questionnaire Qualité des données géographiques
sur Conseil national de l'information géolocaliséeQuestionnaire Qualité des données géographiques
-
2:00
Kartoza: Streamlining Geospatial Data for GeoPackage Upload
sur Planet OSGeoMy GeoPackage exceeded the 5MB limit due to excess vertices, unused attributes, and residual data. By simplifying geometries and optimizing the database, I reduced it from 9.7MB to 1.6MB.
-
19:06
Portrait des nouveaux quartiers prioritaires de la politique de la ville en France métropolitaine
sur Cartographies numériquesL'INSEE a mis à jour au 1er janvier 2024 la liste et les contours des QPV pour la France métropolitaine, aboutissant à 1 362 quartiers prioritaires en France métropolitaine dans 776 communes et désormais tous les départements. Parmi eux, une large majorité (neuf QPV sur dix) sont issus de la liste des anciens QPV, avec un contour similaire ou modifié, tandis qu’une centaine de nouveaux QPV ont été créés. Seuls une cinquantaine de QPV sont intégralement sortis de la géographie prioritaire.
Les quartiers prioritaires de la politique de la ville (QPV) ont été créés par la loi du 21 février 2014 de programmation pour la ville et la cohésion urbaine. Jusqu’en 2023, la France métropolitaine comptait 1 296 quartiers prioritaires, dans 754 communes. La géographie prioritaire était présente dans tous les départements, à l’exception de la Lozère. En France métropolitaine, un département comptait en moyenne 14 QPV, avec au minimum 1 QPV dans plusieurs départements (les Hautes-Alpes, le Cantal, la Creuse, le Gers, le Lot) et au maximum 91 dans le Nord.
Les départements d’outre-mer (Guadeloupe, Martinique, Guyane, La Réunion et Mayotte) comprennent 140 QPV (zonage de 2014 toujours en vigueur), avec 7 QPV en Martinique et jusqu’à 49 à La Réunion. De plus, 78 QPV sont recensés dans les collectivités d’outre-mer : 76 en Polynésie française et 2 à Saint-Martin. Une nouvelle génération de quartiers prioritaires est entrée en vigueur au 1er janvier 2025 pour les Outre-mer, par le décret n° 2024-1212 du 27 décembre 2024 modifiant la liste des quartiers prioritaires de la politique de la ville dans les collectivités régies par l'article 73 de la Constitution, à Saint-Martin et en Polynésie française.
Il y a désormais 1 362 QPV en France métropolitaine, localisés sur l’ensemble des départements mais répartis de façon très hétérogène sur le territoire. Représentant 8 % de la population, les 5,3 millions d’habitants des QPV diffèrent des habitants des environnements urbains voisins de ces quartiers selon plusieurs caractéristiques. Ils sont plus jeunes : ils ont 35 ans en moyenne, contre 41 ans dans les environnements urbains. Les ménages y sont plus souvent constitués de familles monoparentales (un ménage sur six, contre un sur dix dans les environnements urbains), tandis que les couples sans enfant y sont moins présents. Les ménages des QPV sont très majoritairement locataires, le plus souvent d’un logement social, et résident davantage dans des logements suroccupés. Enfin, les habitants de ces quartiers, par définition plus modestes que dans leur environnement urbain, ont un niveau de diplôme plus faible et sont confrontés à une plus grande précarité sur le marché du travail.
- La population des QPV est plus jeune que celle de leurs environnements urbains
- Un ménage sur six résidant dans un QPV est une famille monoparentale
- La suroccupation des logements est nettement plus fréquente dans les QPV
- La population des QPV est moins diplômée et moins présente sur le marché de l’emploi
Décret n° 2023-1314 du 28 décembre 2023 modifiant la liste des quartiers prioritaires de la politique de la ville dans les départements métropolitains, JORF no 0301 du 29 décembre 2023.
Décret n° 2024-1212 du 27 décembre 2024 modifiant la liste des quartiers prioritaires de la politique de la ville pour les Outre-mer
Lien pour télécharger le découpage des QPV sur le site Data.gouv.fr.
Atlas de la géographie prioritaire de la politique de la ville 2024 tenant compte de cette mise à jour.
Pour compléter
« Les quartiers en politique de la ville, reflet des évolutions de la géographie sociale francilienne » (Institut Paris Région)
L'Île-de-France est la région la plus concernée par la politique de la ville, qui vise à améliorer les conditions de vie des habitants des quartiers défavorisés. En 2024, les périmètres des quartiers prioritaires de la politique de la ville (QPV) ont été actualisés : des quartiers intègrent la politique de la ville, d’autres la quittent ou voient leur contour redessiné. Cette nouvelle géographie traduit la paupérisation de certains secteurs ou, à l’inverse, la valorisation de quartiers transformés par une desserte améliorée, la diversification de l’habitat et l’arrivée de ménages plus aisés. Plus nombreux qu’en 2015, les QPV continuent de présenter, en 2024, des profils hétérogènes.- Une population en qpv inégalement répartie sur le territoire francilien
- Le plus grand nombre de nouveaux qpv en Seine-Saint-Denis
- Des qpv sortants à la suite des démolitions et de la diversification de l’habitat
- Des contours modifiés par la paupérisation et la gentrification
- Une population plus diplômée, active, familiale et immigrée
- Une hausse de la population en qpv dans les départements les plus concernés
- Des écarts inégalement marqués avec leur environnement
- Des politiques qui bougent elles aussi
- 1 Francilien sur 7 vit dans un QPV en 2024
- 1,7 million de Franciliens vivent dans un QPV (32 % des habitants de QPV à l'échelle nationale)
- 298 QPV en 2024 (272 en 2015) en Île-de-France
- 40 nouveaux QPV et 12 QPV sortants en 2024 en Île-de-France
Part de population en QPV au sein des EPCI de la région Ile-de-France (source : © Institut Paris Région)
De nouveaux contrats de ville "Engagements Quartiers 2030"Les nouveaux contrats de ville "Engagements Quartiers 2030" ont été signés localement en 2024. Ils assurent le cadre partenarial de l’engagement des acteurs publics et privés dans ces quartiers, conformément aux annonces du Comité interministériel des villes du 27 octobre 2023. Les mesures présentées lors de ce Comité interministériel d'octobre 2023 étaient axées autour de quatre points principaux :- la transition écologique ;
- la politique de la ville ;
- le plein emploi ;
- les services publics.
En contrepoint
Comment parler de "territoires délaissés" dégomme l'idée d'une France "périphérique" (France Culture). Carrément sans ministre à l'époque du gouvernement Barnier, la "politique de la ville" revient à l'agenda avec un Comité interministériel des villes le 17 avril 2025. Mais des chercheurs en sciences sociales proposent de changer de vocabulaire pour mieux décrypter les inégalités territoriales.
Articles connexes
Cartes et données sur les Quartiers prioritaires de la politique de la ville (QPV)
Etudier les établissements scolaires en lien avec la politique de la ville : intérêt et limites
Étudier les inégalités entre établissements scolaires à partir de l'Indice de position sociale (IPS)
Rapport de l'Observatoire des territoires sur l'impact des mobilités en France
Gentrification et paupérisation au coeur de l'Île-de-France (évolutions 2001-2015)
Intérêt et limites du zonage en aires urbaines
-
16:50
gvSIG Team: Leyenda por mapa de calor en gvSIG Online
sur Planet OSGeoEn la última versión de gvSIG Online se ha incorporado un nuevo tipo de simbología: la leyenda por mapa de calor. Dicha leyenda permite representar, tanto la densidad de puntos como con valores ponderados, mediante un gradiente continuo de colores.
En el caso de densidad de puntos podemos ver en qué zonas hay más puntos, y puede ser muy útil para ver dónde hay más farolas en un municipio, dónde ha habido más accidentes… En ese caso todos los puntos tienen el mismo valor.
Si se utiliza un campo para ponderar, un caso podría ser el de estaciones de tomas de datos, por ejemplo de temperatura, polución…, y donde el campo a ponderar sería el de dichos valores.
En ambos tipos de leyenda se dispone de dos tipos de gradientes: uno donde se indica el color inicial y color final, y en el que se calcula el gradiente entre esos dos colores, y otro en el que se pueden indicar gradiente de varios colores y el porcentaje de aplicación de cada uno.
Los otros parámetros que se deben configurar son el radio (en píxeles), que calcularíamos en función de la separación de los puntos que estemos representando, y los píxeles por celda.
Aparte, si la capa está configurada con parámetro temporal y aplicamos dicha leyenda, podríamos visualizar cómo cambian los gradientes en el tiempo. Por ejemplo si representamos una capa de delitos, podríamos ver si las zonas con más delitos han ido cambiando según el tiempo,
En el siguiente vídeo podéis ver su funcionamiento:
-
14:38
Explorer les images Sentinel-2 à l'aide de Sentinel-2 Explorer
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Depuis 2015, la mission Copernicus Sentinel-2 fournit des images optiques pour un large éventail d'applications, notamment la surveillance des terres, des eaux et de l'atmosphère. Elle repose sur une constellation de deux satellites identiques, phasés à 180 degrés, volant en tandem et couvrant l'ensemble des terres et des eaux côtières de la Terre tous les cinq jours.
Chaque satellite embarque un capteur multispectral qui génère des images optiques dans le visible, le proche infrarouge et l'infrarouge court du spectre électromagnétique. Ces images couvrent 13 bandes spectrales à des résolutions de 10, 20 et 60 mètres.
Avec son capteur multispectral et sa large couverture, la mission Sentinel-2 offre non seulement une continuité avec les missions Landsat, mais les élargit également en offrant une plus grande résolution spatiale et des capacités spectrales uniques pour la surveillance de l'agriculture et de la végétation dans le monde entier.
Sentinel-2 permet des applications opérationnelles principalement pour les services terrestres, notamment la surveillance de la végétation, des sols et de la couverture hydrique, ainsi que l'observation des voies navigables intérieures et des zones côtières.
Pour vous aidez à explorer facilement ce type de données, Esri propose l'application "Sentinel-2 Explorer" que je vous propose de découvrir dans cet article sous la forme d'un tutoriel.
Introduction de Sentinel-2 Explorer
Depuis de nombreuses années, un catalogue des images Sentinel-2 multispectrales et multitemporelles corrigées atmosphériquement est disponible sur le Living Atlas ArcGIS. Proposées avec rendus visuels instantanés et indices pour la visualisation et l'analyse, elles comprennent treize bandes multispectrales à des résolutions spatiales de 10, 20 et 60 mètres. Cette couche d'images provient du catalogue de données Sentinel-2 de niveau 2A de Planetary Computer sur Azure, mis à jour quotidiennement avec les dernières images disponibles.
Pour faciliter la recherche et l'exploration de ce catalogue de données, Esri propose désormais l'application Sentinel-2 Explorer est une application ArcGIS Living Atlas qui vous permet de déverrouiller et d'explorer la richesse des informations fournies par Sentinel-2.
L'application offre des fonctionnalités intéressantes :- Exploration visuelle d'une mosaïque globale dynamique des dernières scènes Sentinel-2 disponibles.
- Combinaisons et indices de bandes/polarisation à la volée pour la visualisation et l'analyse.
- Recherche interactive d'une scène par emplacement, capteur, heure et couverture nuageuse.
- Changement visuel au fil du temps, et comparaison de différents rendus, avec modes de balayage et d'animation.
- Analyses telles que le masquage de seuil et les profils temporels pour la végétation, l'eau, etc.
Ouvrir l'application
Sentinel-2 Explorer peut être ouvert depuis la page Applications d'ArcGIS Living Atlas, accessible via l'onglet Applications de la page d'accueil de Living Atlas. L'application peut également être ouverte directement depuis l'aperçu de Sentinel-2 Explorer. Cet aperçu fournit des informations complémentaires sur l'application et le programme Sentinel-2.
Outils essentiels
Les outils suivants sont toujours disponibles et peuvent être utilisés pour naviguer, partager, faire des captures d’écran, etc.
En haut à gauche, vous trouverez des outils pour en savoir plus sur l'application, Zoom, ainsi que les éléments suivants :
a - Zoom sur la résolution native des pixels de l’imagerie Sentinel-1.b - Zoomez sur toute l’étendue de l’image.c - Capturez la vue actuelle de la carte sous forme d’image.d - Copiez un lien vers l'application actuelle. C'est un moyen pratique de sauvegarder tous les paramètres et de partager votre travail.e - Enregistrer une nouvelle instance de Sentinel-2 Explorer dans son état actuel. Cela crée une nouvelle application web ArcGIS Online.
Explorer les scènes Sentinel-2
Mode d'affichage dynamique
L'application s'ouvre par défaut en mode "Vue dynamique". Dans ce mode, les scènes les plus récentes et les moins nuageuses de l'archive Sentinel-2 sont priorisées et fusionnées dynamiquement en une seule couche d'image mosaïquée. À mesure que vous effectuez un panoramique et un zoom, la carte continue de récupérer et de restituer dynamiquement les meilleures scènes disponibles.
L'application s'ouvre dans plusieurs emplacements intéressants, chacun utilisant un moteur de rendu différent mettant en valeur au mieux les caractéristiques spécifiques de l'image. Vous pouvez sélectionner ces emplacements et en savoir plus en suivant les étapes ci-dessous.
Étape 1 - Ouvrez Sentinel-2 Explorer. L'application ouvre un lieu intéressant grâce à un moteur de rendu spécifique, indiqué par les cartes sélectionnées (mises en surbrillance).
Étape 2 - Survolez une carte dans la section Lieux intéressants pour en savoir plus. Cliquez dessus pour zoomer sur le lieu.
Les capteurs multispectraux Sentinel-2 fonctionnent passivement en collectant la lumière solaire réfléchie par la surface terrestre. Les images sont collectées à différentes plages, ou bandes, du spectre électromagnétique. Ces bandes d'images peuvent être combinées pour créer des représentations de la Terre destinées à différentes applications.
Étape 3 - Survolez un moteur de rendu pour en savoir plus. Cliquez sur la carte pour appliquer le moteur de rendu à l'image.
Étape 4 - Cliquez n'importe où sur la carte pour obtenir plus d'informations sur les images Sentinel-2, comme la date et les coordonnées. Les autres informations présentées incluent l'indice d'humidité par différence normalisée (NDMI), l'indice de végétation par différence normalisée (NDVI) et l'indice d'eau par différence normalisée modifié (MNDWI).
Dans la section suivante, vous utiliserez les outils et les paramètres décrits ci-dessus pour en savoir plus sur un domaine spécifique.
Étape 5 - Dans la section "Lieux intéressants" , choisissez "Fucino". Survolez la carte pour en savoir plus sur la région.
Notez que lorsque Fucino est affiché, le rendu IR couleur est appliqué automatiquement. Survolez la carte IR couleur pour en savoir plus ; ce rendu affiche la végétation saine en rouge vif, tandis que la végétation stressée est rouge terne.
Étape 6 - Choisissez le moteur de rendu NDVI et visualisez l'image. Survolez la carte du moteur de rendu pour en savoir plus. Le vert foncé représente une végétation vigoureuse et le marron une végétation clairsemée.
Étape 7 - Explorez davantage en utilisant d'autres lieux et moteurs de rendu intéressants. Utilisez l'outil de recherche en haut à gauche pour trouver d'autres lieux intéressants.
Étape 8 - Utilisez l'outil "Copier le lien" décrit dans la section "Les essentiels de Sentinel-2 Explorer" pour capturer l'état actuel de votre carte pendant votre exploration. Voici quelques exemples :- Désert d'Atacama, Chili, bassins d'évaporation du lithium utilisant le moteur de rendu MNDWI
- Désert d'Atacama, Chili, bassins d'évaporation du lithium utilisant le moteur de rendu NDMI
- Littoral de Belize City avec rendu de couleurs naturelles
- Littoral de Belize City à l'aide du moteur de rendu NDVI
Rechercher des scènes Sentinel-2
Ce mode permet de sélectionner des scènes Sentinel-2 individuelles par année, mois et jour. Dans l'exercice suivant, vous trouverez des scènes couvrant la zone proche du village d'Odeceixe, au Portugal, où plusieurs incendies de forêt se sont déclarés en 2023.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer dans la zone proche d’Odeceixe en mode dynamique.
Étape 2 - Cliquez sur "Rechercher une scène" pour passer en mode scène.
Le calendrier de sélection des scènes s'affiche, affichant les scènes Sentinel-2 disponibles. Les filtres en haut du calendrier vous permettent de trouver les scènes par date et par couverture nuageuse.
Les scènes correspondant à vos critères sont incluses dans le calendrier et celles répondant aux paramètres de date et de couverture nuageuse sont mises en évidence par un remplissage uni.
Pour en savoir plus sur une scène spécifique, passez la souris sur un carré pour afficher l'info-bulle sur la scène.
Ensuite, vous trouverez des scènes disponibles autour de l’époque des incendies de forêt de 2023.
Étape 3 - Cliquez sur la liste déroulante des dates du calendrier et sélectionnez 2023 pour trouver les scènes disponibles pour cette année.
Étape 4 - Choisissez la scène du 7 août 2023.
La scène, utilisant le moteur de rendu Natural Color, montre les énormes panaches de fumée de l'incendie de 2023 soufflant vers l'ouest
Étape 5 - Choisissez un autre moteur de rendu pour visualiser les incendies. Testez différents moteurs de rendu pour trouver celui qui offre la meilleure visualisation.
Exemples :- Couleur naturelle : ce rendu montre la fumée des feux de forêt.
- IR à ondes courtes : ce moteur de rendu coupe à travers la fumée pour montrer les zones en combustion active.
- Rendu urbain : ce rendu montre clairement les zones en feu actif.
Exemple de rendu IR à ondes courtes lors de l'éruption du Mauna Loa le 3 décembre 2022:
Comparer différentes scènes Sentinel-2
Utilisez l'outil de balayage pour comparer les scènes
En mode Glissement , vous pouvez sélectionner deux scènes et les balayer pour comparer visuellement leurs différences. Il est courant de choisir entre des scènes de dates différentes, mais vous pouvez également balayer et comparer différents rendus de la même date, ou combiner les deux. Le balayage est un moyen simple et extrêmement puissant de détecter, d'explorer et d'analyser visuellement les différences et les similitudes entre deux images.
L'incendie de Cameron Peak s'est déclaré près de Chambers Lake, dans le Colorado, le 13 août 2020. Il a ravagé 83 000 hectares dans les forêts nationales d'Arapaho et de Roosevelt, dans les comtés de Larimer et de Jackson, ainsi que dans le Parc National des Rocheuses. Il est devenu le plus grand incendie de forêt de l'histoire du Colorado.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode dynamique avec le moteur de rendu de couleurs naturelles autour de la zone de l’incendie.
Étape 2 - Cliquez sur Balayer pour passer en mode balayage de scène.
Les cases empilées gauche et droite indiquent les scènes sélectionnées pour les côtés gauche et droit du balayage.
Étape 3 - Cliquez sur Gauche et, en suivant le flux de travail de sélection de scène décrit dans la section précédente, sélectionnez la scène du 20 juillet 2020. Il s’agit de la scène Sentinel-2 avant l’incendie.
Étape 4 -Choisissez le moteur de rendu "IR à ondes courtes" pour la scène de gauche.
Étape 5 - Cliquez avec le bouton droit et, en suivant le flux de travail de sélection de scène utilisé à l’étape 3, sélectionnez la scène du 8 octobre 2020. Il s’agit d’une scène après l’incendie.
Étape 6 - Choisissez le moteur de rendu IR à ondes courtes pour la bonne scène.
Votre balayage doit être configuré comme indiqué ci-dessous :
Étape 7 - Utilisez l'outil de balayage pour comparer les deux scènes. L'image de gauche montre les conditions avant l'incendie, tandis que celle de droite montre les conditions après l'incendie. Les zones brûlées sont clairement visibles en rouge dans les scènes utilisant le moteur de rendu IR à ondes courtes .
Étape 8 - Cliquez sur l’image ci-dessous pour la comparer avec votre carte ou ouvrez Sentinel-2 Explorer avec les paramètres d’exercice des étapes ci-dessus.
Animer plusieurs scènes
En mode Animation , vous pouvez sélectionner plusieurs scènes pour créer des animations temporelles captivantes. Une fois votre collection d'images rassemblée, cliquez sur le bouton de lecture pour lancer l'animation. Pendant la lecture, vous pouvez choisir la fréquence d'images et, si vous le souhaitez, exporter votre animation au format MP4 avec la mise en page de votre choix.
À partir de septembre 2023, le fleuve Pineios, en Grèce, a été fortement touché par les inondations généralisées causées par la tempête Elias. Dans le prochain exercice, vous animerez des scènes autour du delta du Pineios.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode dynamique avec le moteur de rendu "Natural Color" dans la zone englobant le delta de Pineios.
Étape 2 – Cliquez sur Animer pour passer en mode animation, puis cliquez sur "Ajouter une scène".
Étape 3 - À l'aide du calendrier de sélection de scènes , ajoutez les scènes suivantes. N'oubliez pas de cliquer sur "Ajouter une scène" pour ajouter des scènes supplémentaires.- 21 août 2023, Couleur naturelle
- 10 septembre 2023, Couleur Naturelle
- 30 septembre 2023, Couleur Naturelle
- 5 octobre 2023, Couleur Naturelle
- 10 octobre 2023, Couleur Naturelle
- 30 octobre 2023, Couleur Naturelle
Étape 4 - Une fois terminé, cliquez sur la flèche en bas de la liste des scènes pour lire l’animation.
Étape 5 - Utilisez les commandes de lecture pour (de gauche à droite) :- Ajustez la vitesse de l'animation.
- Capturez un lien vers l'animation.
- Téléchargez l'animation au format MP4.
- Pause/Lecture.
- Désactivez les commandes de lecture.
Astuce : après avoir ajusté la vitesse, vous pouvez mettre les animations en pause et utiliser le lien sur la barre d'outils de lecture ou la barre d'outils qui apparaît en haut à droite de l'application pour enregistrer les paramètres d'animation actuels.
Étape 6 - Cliquez sur l’image ci-dessous pour la comparer avec votre carte ou ouvrez Sentinel-2 Explorer avec les paramètres de l’exercice.
L'animation ci-dessous montre les variations saisonnières de l'irrigation des champs agricoles à pivot central dans le désert près de Tubarjal, en Arabie saoudite, tout au long de 2024. Cliquez sur l'image pour ouvrir "Sentinel-2 Explorer" avec l'animation.
Analyser vos scènes Sentinel-2
Analyser : Masque d'index
Utilisez des indices spectraux, dérivés de l'arithmétique des bandes , pour mesurer l'abondance relative d'éléments tels que l'eau, l'humidité et la végétation. En déplaçant le curseur, un masque s'affiche dynamiquement à l'écran, indiquant les zones respectant les seuils spécifiés. Vous pouvez également utiliser ce masque pour découper l'image et n'afficher que les pixels d'origine respectant les seuils spécifiés.
Dans ce prochain exercice, vous examinerez l’indice hydrique dans une région du nord du Canada.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer dans une zone du nord-ouest de la province de la Saskatchewan, en utilisant une scène capturée le 8 août 2024, affichée à l’aide du moteur de rendu Natural Color.
Étape 2 - Cliquez sur "Analyser", puis choisissez "Masque d’index" .
Étape 3 - Choisissez "Indice d’eau" dans la liste déroulante "Index".
Étape 4 -Ajustez le curseur aux valeurs souhaitées. Notez que la zone de masque calculée s'ajuste.
Étape 5 - (Facultatif) Expérimentez en utilisant les options "Découper pour masquer" et colorer.
Étape 6 - Utilisez l’outil "Copier le lien" pour capturer les paramètres actuels.
Les zones présentant l'indice hydrique le plus élevé sont mises en évidence. Cliquez sur l'image ci-dessous pour l'agrandir et la comparer à votre carte, ou ouvrez Sentinel-2 Explorer pour accéder aux paramètres enregistrés lors des étapes de l'exercice précédent.
Vous pouvez maintenant expérimenter cette fonctionnalité avec d’autres emplacements et d’autres masques d’index.
Analyser : Profil temporel
Grâce à l'outil "Profil temporel", vous pouvez détecter des tendances catégorielles au fil du temps, notamment en matière d'humidité, de végétation et d'eau. Vous pouvez également sélectionner l'intervalle de temps : annuel ou mensuel.
Lorsque vous sélectionnez "Annuel", vous pouvez spécifier le mois cible pour l'échantillonnage annuel. Cette option est idéale pour identifier les tendances à long terme. Lorsque vous sélectionnez "Mensuel", vous spécifiez l'année cible et les 12 mois de cette année seront échantillonnés. L'option mensuelle est utile pour observer les tendances saisonnières et les fluctuations tout au long de l'année.
Dans cet exercice, vous examinerez le profil temporel du bassin du lac Tulare, en Californie centrale. Cette zone a été inondée au printemps/été 2023. L'utilisation du profil temporel annuel met en évidence le pic d'inondation.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode d’affichage dynamique dans la zone du bassin du lac Tulare à l’aide du moteur de rendu Agriculture.
Étape 2 - Cliquez sur "Analyser", puis choisissez "Profil temporel".
Étape 3 - À l’aide du calendrier de sélection de scène , choisissez le 21 avril 2023.
Cette scène montre clairement le lac peu profond dans la zone agricole du bassin du lac Tulare en bleu.
Étape 4 - Cliquez n’importe où dans la zone bleu foncé.
Étape 5 - Choisissez "Eau" comme tendance dans la liste déroulante. Sélectionnez "Annuel" comme intervalle de temps. Notez le pic en avril 2023.
Étape 6 - Choisissez "Végétation" comme tendance dans la liste déroulante. Sélectionnez "Annuel" comme intervalle de temps. Notez le pic inversé pour la même période en avril 2023.
Étape 7 - Expérimentez en cliquant sur d’autres zones et en passant des tendances annuelles aux tendances mensuelles.
Étape 8 - Utilisez l’outil "Copier le lien" pour capturer les paramètres actuels.
Cliquez sur l'image ci-dessous pour afficher une version plus grande à comparer à votre carte, ou ouvrez Sentinel-2 Explorer en utilisant les paramètres enregistrés à partir des étapes de l'exercice ci-dessus.
Analyser : Profil spectral
L'imagerie multispectrale fournit des mesures des différentes quantités de lumière réfléchies par différents matériaux, autrement dit de leurs réponses spectrales. En collectant des échantillons de la réponse spectrale d'un même type de matériau à la surface de la Terre, il est possible d'établir une signature spectrale pour ce matériau.
Pour utiliser l’outil Profil spectral, cliquez sur "Analyser", puis sur "Profil spectral".
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode profil spectral dans une zone le long du Nil près de Gizeh, en Égypte, le 2 janvier 2025.
Étape 2 - Cliquez sur l’une des zones vert foncé au centre de la scène pour afficher le profil.
Étape 3 - Cliquez sur l’une des zones marron clair pour afficher le profil.
Étape 4 - Cliquez sur l’une des zones gris foncé pour afficher le profil.
Étape 5 - Cliquez sur le bouton "Développer" dans la fenêtre "Profil" pour afficher tous les profils.
Étape 6 - Expérimentez en cliquant sur d’autres zones ou scènes et en examinant les profils spectraux.
Analyser : Détection des changements
Dans ce mode, vous pouvez sélectionner deux scènes et calculer leur différence. Vous pouvez créer des masques de changement basés sur les indices de végétation, d'eau ou d'humidité. La création d'images de différence vous permet ensuite de réaliser des analyses plus approfondies, comme l'estimation des pertes de forêt et de végétation en cas d'incendie de forêt.
En utilisant des images similaires avant et après l'incendie de Cameron Peak dans l'exemple de balayage ci-dessus, nous pouvons calculer la différence de végétation entre les images pour créer un masque de différence.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode détection de changement. Les deux scènes (Scène A et Scène B) ont déjà été sélectionnées pour être affichées avant et après l'incendie à l'aide du moteur de rendu IR à ondes courtes.
Étape 2 - Cliquez sur Afficher Changer la scène A – Scène B.
Étape 3 - Choisissez l’indice de végétation dans la liste déroulante Modifier, puis ajustez les sélecteurs de plage.
Notez que la zone de changement estimée s'ajuste à mesure que vous ajustez la portée, fournissant une délimitation visuelle approximative et une surface de la perte de végétation due à l'incendie.
Cliquez sur l'image ci-dessous pour afficher une version plus grande à comparer à votre carte, ou ouvrez Sentinel-2 Explorer en utilisant les paramètres enregistrés à partir des étapes de l'exercice ci-dessus.
Étape 4 - Expérimentez en choisissant d’autres scènes et dates.
Conclusion
Alimentée par l'imagerie multispectrale Sentinel-2 de niveau 2A d'ArcGIS Living Atlas et conçue avec le SDK ArcGIS Maps pour JavaScript, l'application Sentinel-2 Explorer offre une simplicité d'utilisation et un accès sans précédent à l'intégralité des archives de produits scientifiques Sentinel-2 de niveau 2A. J'espère que cet article vous aura permis de découvrir un peu le potentiel de cette application. Pour mémoire, avec un objectif similaire, Esri propose également depuis quelques années l'application Landsat Explorer.
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
11:00
Mappery: A Reader’s Guide to Western Massachusetts Bookshops
sur Planet OSGeoDoug G spotted this, very useful if you are in Western Massachusetts
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:48
Live London Underground Trains
sur Google Maps ManiaLive maps displaying the movements of planes, trains, and automobiles have been among my favorite mash-ups over the years, so it seems fitting to launch the third decade of Maps Mania with a beautiful illustration of a live, real-time transit map.The Live Tube Map is a fully interactive, real-time 3D map that lets you watch underground trains move across London as they shuttle through
-
22:02
Sean Gillies: Bear training week 8 recap
sur Planet OSGeoI brought running back in week eight. I ran five times, and four days in a row for the first time since early June, 2024. The numbers:
31.9 miles running
12 hours, 12 minutes all training
5,171 ft D+ running
Tuesday I did hard running and hiking intervals on Towers road, 5.5 km of 10% grade. 30 minutes at 9/10 effort, my biggest single workout of the season. I'm only a minute slower on the climb than early season runs in 2020 and 2021. That's very encouraging.
Today I went back to the hills for an easy long run. It felt easy until mile eight, where I boarded the struggle bus for the last two and a half miles. Still, I enjoyed the entire run, saw lots of hikers, and the season's first wildflowers: sand lily, clematis, pasqueflower, and springbeauty.
Close up of white Sand lily blossoms with a dirt trail and high plains in the background. Lower Timber trail, Lory State Park, Colorado.
Conditions are very dry in our foothills. The creeks in Well Gulch and below Arthur's Rock often have running water into May, but have none now. It's not a good sign.
-
17:34
Celebrating 20 Years of Maps Mania
sur Google Maps ManiaIt was 20 years ago today Sergeant Pepper taught the band to play when Mike Pegg first started writing about Google Maps. Which means Google Maps Mania is 20 YEARS OLD TODAY! ? Celebrating 20 Years of Maps Mania: A Cartographic JourneyFor twenty years Maps Mania has been tirelessly chronicling the evolving world of interactive maps. Since its inception on Wednesday, April 13, 2005
-
16:43
Aux galop !
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLes amateurs de randonnée équestre disposent désormais d’une application mobile répertoriant les itinéraires officiels de la Fédération française d’équitation. Développé avec l’aide de Smart Origin, l’outil propose une interface intuitive et des fonctionnalités imaginées avec les cavaliers. Jusqu’ici uniquement disponible à partir du site internet GeoCheval, la solution est maintenant téléchargeable pour découvrir de nouveaux itinéraires et planifier des sorties. Un explorateur de parcours vient classer les itinéraires par pratique, distance et possibilité de retour au point de départ. Comme en voiture, un suivi en temps réel est possible avec des points d’intérêts pratiques et touristiques. Accessible en « freemium » pour le grand public et en « premium » pour les licenciés avec l’enregistrement personnalisé de POI, téléchargement hors-ligne des parcours et l’accès à davantage de parcours et aux fonds de carte IGN.
+ d'infos :
geocheval.com
-
11:00
Mappery: Lacrima Olea
sur Planet OSGeoRaf has been on a run of great maps in the wild recently. This one is a detailed aerial image on the label of Lacrima Olea, “The plots where the olives come from, in gold on top of the orthophotomap, is the label of Lacrima Olea, the Picual variety extra virgin olive oil home grown and cold pressed produced by Cooperativa de Godall, Catalunya”
-
7:51
Carte interactive du débat sur l'avenir industriel de Fos-Étang de Berre
sur Cartographies numériques« Projets industriels, impacts pour les territoires et alternatives. Débattons-en ! ». Pour le tout premier débat public en France consacré à l'avenir industriel du territoire de Fos-Étang de Berre, la Commission nationale du débat public (CNDP) a choisi de mettre à disposition des outils de diagnostic inédits. Et notamment cette carte interactive que Denis Vanier a réalisée avec Eclectic Experience à la demande de l'équipe du débat.
Fos - Étang de Berre, un avenir industriel en débat - Carte interactive proposée par Débat public
L'outil permet de localiser la trentaine de projets industriels en débat et d'ajouter des couches thématiques, en particulier en ce qui concerne les risques industriels, d'incendie et d'inondation-submersion. La carte ainsi que les fiches descriptives qui sont fournies permettent d'évaluer les enjeux pour la population, l'environnement, l'emploi, les transports. Son contenu va évoluer au cours des prochains mois en fonction des besoins (voir le dossier du débat). En l'état actuel, le fond de carte intègre les secteurs artificialisés et les zones d'habitat, dont l'empreinte a été calculée spécialement à partir de la BD Topo de l'IGN (voir la méthodologie).
L’Etat propose que la zone Fos-Berre devienne « un pôle industriel de référence en Europe du Sud pour les activités portuaires, l’industrie décarbonée et la logistique ». Le débat public porte aussi bien sur la vocation du territoire que sur les projets qui y contribuent et sur les enjeux liés (énergie, environnement, économie, santé, risques, mobilités, emploi, logements, etc.). Près de cinquante projets industriels ont été identifiés dans les secteurs de l’hydrogène, de l’acier, de la chimie ou de la pétrochimie, du secteur aérien, des énergies, des transports, de la logistique, etc. Ce débat public vise à informer et débattre de l’avenir du territoire (voir la carte des territoires concernés). Les thèmes du débat concernent les domaines suivants :
- Transition industrielle et décarbonation
- Emplois et formation
- Énergie et électricité
- Environnement
- Santé et qualité de vie
- Risques naturels et technologiques
- Mobilités et transports
- Aménagement du territoire
- Financement et gouvernance
Bien qu'il ne constitue pas en soi un outil de cartographie participative, l'objectif de ce type d'initiative citoyenne est de pouvoir alimenter le débat public en portant à connaissance les informations et les débats sur ce territoire, cartes à l'appui. Le site parviendra-t-il à aller au delà de la seule information du public ? Les éléments de débat, qui ont vocation à venir alimenter le site dans les mois qui viennent, permettront de le dire...
Articles connexes
Les cartes et données sur le Grand Débat National suite au mouvement des Gilets Jaunes
L'accès aux services publics dans les territoires ruraux : éléments de débat à partir d'un rapport de la Cour des Comptes
Rendre les bidonvilles visibles sur les cartes : le rôle de la cartographie participative
La carte, objet éminemment politique. Cartographie radicale par Nepthys Zwer et Philippe Rekacewicz
Cartes et données pour alimenter le débat sur les attaques de requins dans le monde
Géopolitique des débats présidentiels de l'entre deux tours depuis 1974
Un débat public sur l'implantation des éoliennes en mer en Normandie
-
11:00
Mappery: Gordon the Globe
sur Planet OSGeoJavier Jimenez Shaw spotted this giant ad at Alexanderplatz station, Berlin. We last saw Gordon on the London Underground, now he is in Berlin – he gets around!
-
9:06
Le samedi, c'est MapStory !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Le vélo est une de mes nombreuses passions et quand arrive le début de saison on commence par la période des Grandes Classiques et notamment le Paris-Roubaix. Comme c'est désormais une tradition depuis quelques années à la Région Hauts-de-France, le service Information Géographique et Appui à la Connaissance propose une application interactive de la 5ème édition du Paris-Roubaix femmes le samedi 12 avril 2025 et de la 122eme édition du Paris-Roubaix hommes le dimanche 13 avril 2025.
Cette application cartographique est constituée d'une série de StoryMaps qui vous permettent de visualiser l’itinéraire de la course masculine avec un focus sur ses secteurs pavés allant du secteur n°30 de Troisvilles au secteur n°1 de Roubaix (espace Crupelandt) avant l’arrivée sur le vélodrome de Roubaix tout comme le tracé de la course féminine et ses 17 secteurs pavés.
Vous y retrouverez, pour chacun de ces secteurs, la longueur et le niveau de difficulté, ainsi que les horaires prévisionnels de passage de la caravane et de la course.
Sont également présentés 23 sites touristiques immanquables à proximité du parcours. Vous accéderez en un clic à une fiche de présentation du site, vous permettant d’avoir plus d’informations sur celui-ci.
L’application est également accessible en version anglaise et néerlandaise.Anglais : [https:]] Néerlandais : [https:]]
On notera que cette application est une collection de StoryMaps configurées avec ArcGIS StoryMaps et que les différents contenus sont hébergés sur la plateforme SaaS ArcGIS Online.
-
7:56
L'Atlas des déserts. Comment naît un atlas
sur Cartographies numériques
Source : Ninon Blond. L’Atlas des déserts. ArchéOrient - Le Blog (11 avril 2025)Ninon Blond, maîtresse de conférences en géographie à l’ENS de Lyon, spécialiste de géoarchéologie et d’évolution des socio-écosystèmes dans les milieux désertiques, revient sur la genèse de l'Atlas des déserts paru en 2025 aux éditions Autrement. Si beaucoup de thématiques ou d’espaces sont couverts, les objets spatiaux sont restés longtemps un peu dans l’angle mort de la collection : les forêts ont été traitées pour la première fois en 2022 et les glaciers très récemment, en septembre 2024. Il manquait encore à la collection un atlas des déserts, mettant en avant les problématiques et les enjeux propres à ces espaces.
- À l’origine du projet éditorial : recherche et belles rencontres
- Au centre du questionnement : définir les déserts
- Des cartes, des textes, et beaucoup d’échanges
- Embrasser la diversité
- Les déserts ont une longue histoire : la retracer permet de comprendre comment ils se sont formés, comment ils évoluent et quelles sont leurs spécificités.
- Ces espaces ont fait l’objet d’explorations scientifiques ou ayant pour finalité de dénicher les ressources et matières premières dont ils regorgent.
- Des modes de vie et une économie spécifiques s’y sont développés : nomadisme, agriculture, tourisme, construction de villes ultra-modernes…
- Espaces marginaux, les déserts servent de refuge ou de repli et les États tentent de contrôler ces marges stratégiques.
- Les déserts ont toujours fasciné l’homme, qui a développé tout un imaginaire autour de ces lieux : on le retrouve dans la religion, la littérature ou les jeux vidéo.
Articles connexes
Le Blanc des cartes. Quand le vide s'éclaire (Atlas Autrement)
« Personne n'habite ici » ou comment cartographier le vide ?
Atlas critique de la Guyane (par Matthieu Noucher et Laurent Polidori)
Atlas présentés sur le blog Carto numérique
Cartes et atlas thématiques
-
11:00
Mappery: Vintage Geo Fabric
sur Planet OSGeoRaf spotted this fabric sold by the meter at El Barato shop in Reus, with a vintage map pattern
-
10:49
Spinning at a Thousand Miles an Hour
sur Google Maps ManiaI'm currently sitting in London, spinning at 640 miles per hour. My friend Sofía lives in Quito, Ecuador, and because of the equatorial speed bonus, she’s currently spinning much faster than me - at 1,037 mph. The Earth rotates once every 24 hours (roughly), and we all rotate with it. The circumference at the equator is about 24,901 miles, so at the equator, you're spinning at about 1,037
-
7:00
De la montée de la dépendance de la science à l’IA
sur Dans les algorithmesAlors que l’IA colonise tous les champs de recherche, « la crise de reproductibilité dans la science basée sur l’apprentissage automatique n’en est qu’à ses débuts », alertent les chercheurs Arvind Narayanan et Sayash Kapoor dans Nature. « Les outils de l’apprentissage automatique facilitent la construction de modèles, mais ne facilitent pas nécessairement l’extraction de connaissances sur le monde, et pourraient même la rendre plus difficile. Par conséquent, nous courons le risque de produire davantage, tout en comprenant moins », expliquent les deux chercheurs, qui rappellent que ce qui est bénéfique à l’ingénierie ne l’est pas forcément pour la science.
-
7:00
Adapt’Canicules. Identifier les vulnérabilités des quartiers populaires face aux canicules
sur Cartographies numériquesLe site Adapt’Canicules permet d'identifier le risque caniculaire des quartiers prioritaires de la politique de la ville pour 130 agglomérations de l’hexagone. Développée par RésO Villes, l'application permet d’évaluer la vulnérabilité aux canicules et d'identifier les priorités d’actions à engager sur les quartiers les plus fragiles.
Quelles sont les vulnérabilités des populations ?
Pour comprendre comment se répartissent les vulnérabilités des populations à la canicule dans un territoire urbain, nous avons identifié les principaux facteurs de vulnérabilité :
- La pauvreté,
- Les enfants en bas âge (0-3 ans),
- Les plus de 65 ans et la situation résidentielle
- Les conditions de logement
Est-ce que l’environnement urbain est favorable en cas de canicule ?
Si l’exposition d’un territoire au risque est inégale, est-ce que ses différents secteurs fournissent des qualités d’environnement et de proximité d’équipements qui peuvent aider à minimiser ou accompagner les habitants lors de fortes chaleurs ? Nous avons cherché à analyser pour chacun des territoires si l’environnement urbain est favorable en cas de canicule, en particulier :
- Le couvert arboré
- L’accessibilité à des lieux extérieurs source de fraîcheur
- L’accessibilité à des lieux de soin
- La proximité à des lieux d’information
- L’accessibilité à des lieux intérieurs frais
Le croisement de ces 2 indicateurs permet d’obtenir un indicateur synthétique qui cumule risque et environnement (voir le détail de la méthodologie avec les différents indicateurs utilisés)
Une cartographie interactive est proposée pour les risques caniculaires des agglomérations suivantes :
- Métropole de Lyon
- Rennes Métropole
- Communauté d'agglomération de la Région Nazairienne et de l'Estuaire
- Montpellier Méditerranée Métropole
- Culture du risque - Les clefs pour mieux impliquer les populations, Guide du CEREMA
- Transformer mon territoire avec les habitants, ADEME
- Documenter son quartier pour se l’approprier, les jeunes derrière la caméra, LabO Cités
- Ilots de chaleur et ilots de fraîcheur ressentis : une carte interactive et participative à destination des habitants, MCE
- Ilots de chaleur : Agir dans les territoires pour adapter les villes au changement climatique, CEREMA
- Canicule et fortes chaleurs : définition et conséquences sur la santé, Ameli. 2022
- Canicule : comment garder son logement frais ? , ADEME
- Que faire en cas de canicule ou de fortes chaleurs ? , Ameli.fr . 2022
- Il fait (trop) chaud ? 5 conseils pour bien manger et s’hydrater MACIF. 2022
- Recensement, dépliant et carte interactive des lieux publics où se rafraîchir à Rennes
- Cartographie des lieux rafraîchis de la ville de Strasbourg
- Les solutions d’ombrage en ville, adaptaville
- Identifier finement les espaces à risque : Avec le générateur de « local climate zone maps »
- Les îlots de chaleur urbains à Paris. Cahier 2 : simulations climatiques de trois formes urbaines parisiennes et enseignements. APUR. 2014
- Les images satellite pour cartographier les îlots de chaleur urbains. CEREMA. 2020
- Rafraîchir les villes. Des solutions variées. Guide.ADEME.
- Des solutions grises concernant les infrastructures urbaines (revêtements, mobilier urbain, bâtiments). ADEME. 2021
- Une canopée pour la Métropole de Lyon ? Enseignement d’un benchmark international. Résumé de l’étude. Urbalyon. 2019
- Végétaliser : Agir pour le rafraîchissement urbain. Les approches variées de 20 projets d’aménagement. ADEME
- Des solutions vertes fondées sur la nature (végétal,eau). ADEME. 2021
- Aménager avec la nature en ville. Des idées préconçues à la caractérisation des effets environnementaux, sanitaires et économiques. Expertises. ADEME. 2018
- Mon Vademecum pour adapter Bordeaux métropole à la chaleur urbaine. A’urba
- La géothermie, une solution à la hausse des températures. La Gazette des Communes. 27/08/2020
- Améliorer le confort d’été dans l’habitat collectif. Guide de solutions pratiques à l’usage des décideurs du secteur de l’habitat social. E-cahiers du CSTB. 2008
- Adapter son logement aux fortes chaleurs. ADEME
Ilots de chaleur et inégalités urbaines en France
La France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
Renforcer l'atténuation, engager l'adaptation (3e rapport du Haut Conseil pour le climat - 2021)
Rapport du Giec 2021 : le changement climatique actuel est « sans précédent »
Les villes face au changement climatique et à la croissance démographique
Les stations de montagne face au changement climatique (rapport de la Cour des comptes)
Comment la cartographie animée et l'infographie donnent à voir le changement climatique
Surmortalité attribuée à la chaleur et au froid : étude d'impact sur la santé dans 854 villes européennes
Cartes et données sur les Quartiers prioritaires de la Ville (QPV)
-
16:01
Paris-Roubaix à la carte
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa célèbre course cycliste Paris-Roubaix est de retour pour une 122? édition ! Cette année, ASO joue la carte de la nouveauté en modifiant le tracé pour les hommes. Deux secteurs pavés supplémentaires font aussi leur apparition. Comme à son habitude, le service Information Géographique et Appui à la Connaissance de la Région Hauts-de-France s’est mobilisé pour proposer une application interactive de l’édition femmes le samedi 12 avril 2025 et de la course des hommes le dimanche 13 avril 2025.
Cette application cartographique utilisable gratuitement permet de visualiser l’itinéraire de la course masculine avec un focus sur ses secteurs pavés allant du secteur n°30 de Troisvilles au secteur n°1 de Roubaix (espace Crupelandt) avant l’arrivée sur le vélodrome de Roubaix tout comme le tracé de la course féminine.et ses 17 secteurs pavés. Vous y retrouverez, pour chacun de ces secteurs, la longueur et le niveau de difficulté, ainsi que les horaires prévisionnels de passage de la caravane et de la course.
Zoom sur les secteurs pavésCertains secteurs sont particulièrement mis en valeur, notamment lorsqu'ils connaissant des modifications. C'est le cas de la Trouée d'Arenberg, l'un des passages de l'enfer du Nord qui met à dure épreuve hommes et machines. L’année passée, des chicanes avaient dû été installées pour éviter un grand nombre de chutes. Pour cette édition 2025, un nouveau parcours permettra aux cyclistes de se lancer différemment sur cette portion longue de 2,3 km. Le parcours 2025 introduit aussi deux nouveaux secteurs pavés autour de Quérénaing. Au total, 30 secteurs pavés attendent les coureurs sur les 259,2 km de course entre Compiègne et Roubaix.
L’application permet aussi de découvrir le tracé pour les femmes et ses 17 secteurs pavés entre Denain et Roubaix.
Autour de la courseEnfin, les géomaticiens des Hauts-de-France n’oublient pas de valoriser le patrimoine autour de la course. Ils présentent 23 sites touristiques immanquables, accessibles en un clic à travers une fiche de présentation.
À noter que cette application construite avec les solutions d’Esri se décline en 3 langues, optimisant ainsi son utilisation et contribuant à faire rayonner Paris-Roubaix et le nord de la France.
+ d'infos
=> L’application en français : [https:]]
=> L’application en anglais : [https:]]
=> L’application en néerlandais : [https:]]
-
14:59
Les routes de la soif. Voyage aux sources de la mer d’Aral (Cédric Gras, Stock, 2025)
sur Les cafés géographiques?
?
Le titre est un jeu de mots (« soif » / « soie ») qui donne deux clés essentielles de l’ouvrage, la localisation (l’Asie centrale parcourue par les antiques routes commerciales chinoises) et le thème majeur (le stress hydrique dont souffre cette région).
En seize petits chapitres, son auteur, Cédric Gras, écrivain/géographe/voyageur, nous conduit des rives kazakhes de la mer d’Aral (de ce qu’il en reste) aux hautes terres du Pamir en remontant l’Amou-Daria. En fait, la mer d’Aral n’a jamais été qu’un grand lac fermé dans lequel se jetaient deux fleuves, Amou-Daria et Syr-Daria (phénomène d’endoréisme) (1). Mais au milieu du XXème siècle elle accueillait une flotte hauturière importante dont la production était vendue sur tout le territoire soviétique. Aujourd’hui elle n’est plus constituée que de quelques flaques, son ex-fond est planté de saxaouls (2) et l’Amou-Daria se perd dans les sables. C’est pour comprendre ce phénomène que Cédric Gras et son comparse, le cinéaste Christophe Raylat, ont entrepris ce périple.
L’ouvrage est un récit de voyage avec ses descriptions de paysages, ses rencontres avec la population et les autorités, ses fatigues et ses bonnes surprises. Les deux compagnons ont du mérite car ils sont amoureux de la haute montagne mais peu amateurs de déserts (« J’ignore comment l’on peut passer sa vie dans ces steppes pelées ») qui constituent une grande partie des 2000 km parcourus. Il a fallu aussi se plonger dans les archives pour comprendre l’assèchement progressif de la mer d’Aral. Mais un des grands intérêts de ce livre est d’ordre géopolitique. L’Amou-Daria est un fleuve commun à quatre Etats, trois républiques ex-soviétiques et l’Afghanistan. Même s’il n’est pas question de poser un pied sur ce dernier Etat, les frontières entre les trois autres se révèlent difficiles à franchir. Cette situation est une des raisons de l’assèchement progressif de la mer (l’auteur rappelle opportunément l’étymologie commune aux mots « riverain » et « rival » : rivalis).
Le premier pays traversé est l’Ouzbékistan. C’est le plus agricole et c’est celui qui dépend le plus de l’Amou-Daria pour irriguer ses récoltes. Certes on trouve des traces d’irrigation dès l’Antiquité dans la région de Khiva mais les grands travaux datent de l’époque soviétique lorsque Khrouchtchev voulut faire de cette partie de l’Asie centrale un « grenier à coton » (3). L’eau du fleuve et le travail obligatoire des enfants et étudiants lors de la récolte devaient permettre de remplir facilement les objectifs du Plan. Les terres sèches furent quadrillées d’un réseau de canaux alimentés par l’Amou-Daria. La prospérité agricole entraîna une forte croissance démographique. Ces choix n’ont pas été remis en cause après l’indépendance du pays en 1991.
Abaissement du niveau des eaux du fleuve, division du cours entre des bancs de sable de plus en plus larges, infiltration des eaux dans le sous-sol et prélèvements en amont… Plus aucune goutte n’arrive dans la mer d’Aral. Pour les Ouzbeks, les responsables sont « les autres », c’est-à-dire les pays qui se trouvent en amont.
Le premier « autre » est le Turkménistan traversé par l’Amou-Daria dans sa partie orientale. Pierrailles et dunes occupaient ce territoire où la température pouvait excéder 52° à l’ombre en été, jusqu’à ce qu’en 1948 Staline ne décide du creusement d’un canal traversant le désert du Karakoum, de l’Amou-Daria à la Caspienne (1375 km) pour irriguer des terres agricoles. Les travaux se terminèrent dans les années 1980. Le grand « Plan de Transformation de la Nature » soviétique était réalisé mais l’évaporation et les infiltrations provoquent de lourdes pertes en eau.
Le deuxième pays d’amont est l’Afghanistan séparé de l’Ouzbékistan par une frontière de 137 km marquée par l’Amou-Daria. A Termez, ville-frontière, le fleuve a un cours ample et puissant. Il est alimenté par la Sukhandarya (premier affluent rencontré depuis la mer d’Aral), au régime nivo-glaciaire, coulant d’une petite chaîne frontalière du Tadjikistan. Le débit du fleuve susciterait l’optimisme si une récente annonce des talibans n’inquiétait fortement Ouzbeks et Turkmènes : la réalisation d’un canal de 285 km à partir de l’Amou-Daria (le canal de Qosh Tepa) pour irriguer 550 000 ha de terres. C’est un projet ancien, qui avait même été repris par les Américains après le 11 septembre et qui devrait voir sa mise en œuvre en 2028. Est-ce la fin annoncée du fleuve dans toute sa partie aval ?
La dernière étape conduit Cédric Gras et Christophe Raylat au Tadjikistan, dans le massif du Pamir où naissent les deux principales sources de l’Amou-Daria, le Piandj et le Vakhch qui assurent 90% du débit final. Les deux amis se trouvent enfin dans le milieu montagnard qu’ils affectionnent et vont pouvoir explorer le Fedchenko, plus long glacier de montagne du monde (77 km) aux ressources en eau considérables. Peu de temps avant la chute de l’URSS, les Soviétiques avaient conçu un projet de résurrection de la mer d’Aral par l’accélération de la fonte des neiges du Pamir. Le projet est resté sans suite et le Fedchenko continue de reculer. Les Tadjiks ne cherchent pas dans les cours d’eau de quoi irriguer leurs cultures mais de quoi produire de l’électricité. La vallée encaissée du Vakhch est barrée par le barrage en remblai de Nourek qui alimente une centrale électrique développant une puissance de 3 gigawatts utilisés en grande partie pour produire de l’aluminium. En 2028 devrait être achevé un second barrage en amont sur le Vakhch, celui de Rogoun qui pourra se prévaloir d’être le plus haut barrage du monde (335 m). Les deux barrages fourniront alors 93% des besoins en électricité du pays. Mais certaines vannes sont fermées en été, ce qui affaiblit le débit de l’Amou-Daria en Ouzbékistan et au Turkménistan…
Que les raisons en soient climatiques et/ou économiques, l’assèchement de la mer d’Aral devrait provoquer une réaction coordonnée entre tous les pays riverains pour être efficace. Or même s’il existe une Commission interétatique pour la coordination de l’eau en Asie Centrale, les relations entre les Etats sont difficiles ou inexistantes. Comme réponses aux questions que Cédric Gras a posées aux experts, c’est la langue de bois qui a prévalu niant les problèmes.
Avec l’Afghanistan la frontière est fermée. Le fleuve, entouré de barbelés, surveillé par de nombreux militaires, est franchi par un pont, toujours vide, construit au moment de l’invasion soviétique, dont le nom pourrait faire sourire s’il n’avait été témoin de nombreux drames, le « Pont de l’Amitié ». Aux Ouzbeks inquiets du creusement du canal de Qosh Tapa et voulant négocier avec les Afghans, il a été opposé une fin de non-recevoir.
Entre les trois Etats qui ont eu une histoire commune au sein de l’URSS, les relations sont à peine meilleures. Ils connaissent des régimes autoritaires à des degrés variés. L’Ouzbékistan est le plus démocratique (recul du nombre des prisonniers politiques et de la corruption) et ouvert sur le monde extérieur grâce au tourisme. Le Turkménistan et le Tadjikistan sont des dictatures.
Nos deux voyageurs ont dû interrompre leur remontée de l’Amou-Daria lorsque celui-ci a franchi la frontière ouzbéko-turkmène. Pas de visa. Le pays est fermé aux journalistes et aux curieux d’une manière générale, surtout lorsqu’ils sont munis de caméra ou d’appareils photo. Christophe a dû rester en Ouzbékistan et Cédric est passé par Istanbul pour atterrir à Achgabat, officiellement « invité par l’ambassadeur de France » pour faire des conférences sur la culture française ! il lui est interdit de prendre des photos, est contrôlé en permanence et n’a pu suivre le canal du Karakoum jusqu’à l’Amou-Daria. C’est en avion qu’il regagne l’Ouzbékistan. La population turkmène est entièrement coupée du monde extérieur par la censure et ignore tout des problèmes hydriques du pays. Peu traité dans la presse internationale, le régime politique turkmène est un des pires au monde et des plus extravagants. En témoignent les actes de son premier dirigeant après l’indépendance, Saparmourat Niazov Turkmenbachy (« le père des Turkmènes »), qui a conçu une nouvelle capitale tout en marbre blanc et décors dorés. Seules les voitures de couleur blanche sont autorisées à y circuler !
Le Tadjikistan, pays très pauvre, n’offre pas plus de signe d’ouverture démocratique. Tout le parcours de nos voyageurs était rythmé par des panneaux de propagande politique. Les contrôles militaires sont réguliers d’autant plus que dans le Haut-Badakhchag la population a des relations tendues avec la capitale. Il faut savoir ruser. C’est ainsi que les drones de Christophe Raylat ont été démantelés et les pièces détachées cachées au milieu du matériel.
Les problèmes de l’Amou-Daria sont mal connus de ses riverains. Toute tentative d’accord rationnel semble exclue dans la situation géopolitique actuelle. Le Fedchenko qui offre jusqu’à un km d’épaisseur de glace offre encore des réserves. Mais le réchauffement climatique et l’inconscience politique laisseront-ils encore longtemps les fleurs du cotonnier s’épanouir en Asie centrale ?
Notes :
(1) Endoréisme : mode d’écoulement des eaux superficielles aboutissant à une dépression fermée, sans exutoire vers la mer.
(2) Saxaoul : gros arbuste endémique des déserts et des steppes d’Asie centrale.
(3) « Grenier à coton » : Expression utilisée en URSS pour désigner l’Ouzbékistan devenu dans les années 1970-1980 une importante région productrice approvisionnant en coton toute l’industrie de l’Union.Michèle Vignaux, avril 2025
-
12:24
Risques interconnectés de catastrophe (rapport de l'ONU)
sur Cartographies numériques
Source : Interconnected Disaster Risks : Turning Over a New Leaf (rapport de l'ONU, avril 2025)Le rapport "Risques interconnectés de catastrophe 2025" de l'Université des Nations Unies (UNU-EHS) identifie 5 leviers pour un monde durable : mieux gérer les déchets, se reconnecter à la nature, répartir équitablement les responsabilités, penser à long terme et redéfinir la valeur. Il s’appuie sur des exemples concrets. Le rapport déplace l'accent du diagnostic des problèmes vers la définition de solutions. Il établit que nombre des solutions actuelles sont superficielles et que, pour créer un changement durable, nous devons remettre en question les structures sociétales et les mentalités qui perpétuent ces défis.
Malgré des décennies d'avertissements de la part des scientifiques, de nouveaux extrêmes négatifs font l'actualité presque quotidiennement. Les scientifiques nous indiquent ce qui doit changer : cesser d'utiliser les combustibles fossiles ; protéger et restaurer les écosystèmes ; vivre durablement.Néanmoins, nous progressons peu vers ces objectifs. On peut donc se demander : si nous savons ce que nous devons faire, pourquoi ne le faisons-nous pas ?
Les éditions précédentes du rapport « Risques de catastrophes interconnectés » ont analysé l'interdépendance des catastrophes que nous observons et les points de bascule que nous atteindrons si l'humanité continue d'affaiblir les systèmes dont nous dépendons tous. L'édition de cette année s'inscrit dans la continuité des précédentes éditions en posant la question centrale qui préoccupe beaucoup de personnes : comment changer de cap ? Le rapport 2025 Turning Over a New Leaf analyse à quoi pourrait ressembler le monde si nous procédions à ces changements, et ce qui nous en empêche.
Appliquée à l'exemple des déchets, la théorie du changement profond identifie les valeurs sous-jacentes en jeu, à savoir notre hypothèse selon laquelle la consommation matérielle est source de bonheur, ou que le « neuf » est meilleur que le vieux, ce qui nous pousse à accumuler toujours plus et à jeter les objets usagés. Tant que notre système reposera sur ces hypothèses, toute mesure de gestion des déchets peinera à être véritablement efficace. Le recyclage n'a qu'une certaine efficacité si nous continuons à produire des volumes toujours croissants de déchets. En fait, des recherches montrent que la possibilité de recycler peut même augmenter la quantité de déchets produits.
Si notre définition d'un avenir plus désirable est celle d'un monde sans déchets, nous devons remettre en question les croyances sous-jacentes du système. Si nous acceptions que les ressources soient limitées et précieuses, nos objectifs et nos structures seraient différents de ceux d'aujourd'hui. Nous pourrions, par exemple, valoriser davantage nos biens actuels et chercher à prolonger leur durée de vie. Pour y parvenir, il faudrait également adopter des structures différentes. Nous pourrions par exemple adopter des lois obligeant les entreprises à proposer la réparation des produits cassés, ou à les concevoir de manière à ce que les pièces puissent être remplacées afin de les maintenir en service le plus longtemps possible.
Des études ont montré que le public entend actuellement parler de manière disproportionnée d'une part restreinte de la science climatique : principalement des sciences naturelles, et surtout de projections négatives. Si ces projections doivent être prises au sérieux et peuvent faire la une des journaux, elles suscitent souvent la peur et une paralysie potentielle, le public se sentant condamné quoi qu'il arrive. De plus, face à des projections négatives, notre réaction naturelle est de réfléchir aux moyens de les prévenir. Cela se traduit par des objectifs et des cibles tels que « limiter le changement climatique » ou « prévenir la perte de biodiversité ». Cependant, le rapport soutient que nous ne devons pas nous contenter de stopper les pires impacts. Nous pouvons plutôt œuvrer activement à la création d'un monde où nous aimerions vivre. L'édition précédente Interconnected Disaster Risks avait mis en garde contre des points de basculement irréversibles en matière de risques. En 2025, les auteurs ont repris là où le dernier rapport s'était arrêté en développant une voie à suivre : la théorie du changement profond (ToDC). Cette théorie s'attaque aux causes profondes des problèmes mondiaux, identifiant les structures et les présupposés sociaux qui les entretiennent. Par exemple, lorsqu'une rivière est tellement encombrée de déchets plastiques qu'elle provoque des inondations catastrophiques, les citoyens pourraient critiquer le système de gestion des déchets et réclamer davantage de recyclage. Les scientifiques comparent leur modèle à un arbre, où les résultats visibles sont les fruits, mais les vrais problèmes se situent au niveau des racines : des racines pourries produisent des fruits pourris. La ToDC distingue deux types de leviers qui doivent se combiner pour créer un changement profond et durable : les leviers intérieurs et extérieurs.
Pour télécharger les ressources en pdf :
- Se reconnecter avec la nature
- Reconsidérer les responsabilités
- Redéfinir la valeur
- Réimaginer le futur
- Repenser les déchets
Artilces connexes
Carte mondiale d'exposition aux risques climatiques, de conflit et à la vulnérabilité
Carte de répartition des risques naturels en France métropolitaine (IGN)
Rapport du Forum économique mondial sur la perception des risques globaux
Les risques globaux prévus en 2021 selon le site Control Risks
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Analyser et discuter les cartes de risques : exemple à partir de l'Indice mondial des risques climatiques
Aborder la question de l'inégalité des pays face au changement climatiqueLa France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
Data visualisation sur la responsabilité et la vulnérabilité par rapport au changement climatique
Atlas climatique interactif Copernicus
-
11:00
Mappery: Theatrical Maps
sur Planet OSGeoMichael Stuyts shared pamphlet with us from a play being performed in Antwerp
-
10:58
The Most Beautiful Places in the World
sur Google Maps ManiaHollow Rock. Grand Portage, MN by @TuckOlson The Earthporn Map is a simple interactive map that showcases the top 1,000 images submitted to r/EarthPorn. r/EarthPorn is a subreddit on Reddit dedicated to sharing stunning, high-quality images of natural landscapes and scenery from around the world.To be clear—despite the name, there's nothing explicit or NSFW here. Just a whole lot of beautiful
-
9:33
Mutualisation urbanistique
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueJusqu’ici disposant de huit PLU, le support intercommunal a été adopté au conseil de territoire fin 2024 pour les huit villes : Boulogne-Billancourt, Chaville, Issy-les-Moulineaux, Marnes-la-Coquette, Meudon, Sèvres, Vanves et Ville-d’Avray. Ce projet coordonné par la Direction de l’information géographique et de l’innovation territoriale (DIGIT) est consultable sous forme d’application, offrant une visualisation des données par parcelle. Sous deux versions, l’une publique et l’autre destinée aux agents des villes, « il est possible de faire une recherche par adresse ou par parcelle », explique Prune Bonnivard, Directrice de la DIGIT. Un clic donne accès à la note d’informations, résultat d’une analyse géographique de toutes les couches qui composent le PLUI. « L’outil reprend 19.900 unités foncières », précise Mateusz Pietrzak, technicien SIG à la DIGIT.
+ d'infos :
seineouest.fr
-
9:12
Mise à jour d'ArcGIS Experience Builder - Février 2025
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
La mise à jour d'Experience Builder de février 2025 dans ArcGIS Online et en version 1.17 (mars 2025) pour la Developer Edition inclut 3 nouveaux widgets et de nombreuses améliorations pour vous permettre d'aller plus loin dans la configuration de vos expériences web. Dans cet article, je vous propose de découvrir ensemble les principales nouveautés de cette mise à jour.
Widget "Visionneuse d'imagerie orientée"
Avec le widget visionneuse d'imagerie, vous pouvez visualiser des couches d'imagerie orientée contenant des images photographiées depuis n'importe quel angle dans une carte 2D ou une scène 3D.
Ce widget peut être très utile pour l'inspection d'équipements à partir de photos prises sur le terrain, comme par exemple ci-dessous avec les poteaux de fibre optique.
Ce nouveau widget vient remplacer le widget "Imagerie orientée classique", qui prenait en charge l'ancienne génération de catalogues d'imagerie orientée (OIC). Vous pouvez consulter cet article pour en apprendre plus sur les évolutions récentes sur les couches d'imagerie orientée dans le système ArcGIS.
Si vous ne disposez pas encore de couches d'imagerie orientée, vous pouvez tester ce nouveau widget à l'aide de la couche d'imagerie orientée "Panoramax for ArcGIS" du Living Atlas en ajoutant la carte ci-dessous dans votre expérience :
Widget "Modèles de traitement" Dans ArcGIS, il est possible de définir des modèles de traitement (ou modèles de fonction raster) permettant d'appliquer des fonctions de visualisation ou d'analyse sur vos couches d'imagerie. Dans Experience Builder, ce widget permettra à l'utilisateur d'accéder à des fonctions raster spécifiquement prédéfinies en amont par le concepteur de l'application qu'il pourra appliquer à la couche d'imagerie. Notez que la configuration des modèles de traitement doit se faire dans le Map Viewer.
Ligne avec débordement automatique Ce nouveau widget de mise en page permet de positionner du contenu dans une colonne, sans être contraint par les 12 colonnes présentes dans le widget ligne auquel vous êtes habitués. Cela signifie que chaque élément inclus dans votre widget pourra prendre exactement la largeur de votre choix.En haut : le widget ligne classique ; en bas, le widget ligne avec débordement automatique
Paramètres d'export
Vous pouvez désormais configurer plus finement les options d'export de vos données avec la nouvelle fonctionnalité Paramètres d'exportation de l'onglet données. Si votre application est par exemple destinée à un public peu familier avec les SIG, vous pouvez choisir de ne laisser que le format CSV disponible à l'export. Vous pouvez définir cela à l'échelle de chacune des couches individuelles, mais vous avez aussi la possibilité de le paramétrer pour toutes les couches simultanément, ce qui peut être particulièrement utile si votre application contient de nombreuses données.
Améliorations Widget "Autour de moi" Le widget Autour de moi inclut désormais la possibilité de générer des rapports grâce à la nouvelle option d'export au format PDF.
Widget "Couches Cartographiques" Beaucoup d'améliorations ont été apportées au widget Couches Cartographiques avec cette mise à jour. La première est de pouvoir activer ou désactiver toutes les couches simultanément. De la même manière, il est maintenant possible de développer ou réduire toutes les couches en même temps. Ces nouveaux paramètres sont accessibles en activant l'option "Activer les options de traitement par lots des couches" dans la configuration du widget.
Les autres améliorations incluent la possibilité d'afficher les tables, d'ajuster l'opacité d'une couche à l'aide d'un slider, et d'afficher des couches ajoutées lors de l'exécution de l'application avec le widget Ajouter des données.
Widget Carte Vous pouvez désormais définir des plages d'échelles pour vos cartes 2D, empêchant l'utilisateur de trop zoomer ou dézoomer sur la carte. Ce paramétrage peut se faire via un slider, ou en rentrant directement des plages personnalisées comme il était possible de faire dans Web AppBuilder.
Widget "Table" Il est maintenant possible de gérer les pièces jointes directement dans une table (mise à jour, ajout, suppression et visualisation). Les formats de pièce jointes prises en charge dans les tables sont consultables dans cette section de la documentation.
Widget "Texte" Le widget "Texte" permet désormais d'intégrer des images directement, et de les aligner avec le texte. Les formats d'image supportés sont PNG, GIF, JPG, JPEG, BMP et WebP.
Widget "Liste"
Avant cette mise à jour, lorsque vous passiez d'une vue de données à l'autre à partir de la même source de données, le widget Liste perdait ses paramètres et sa mise en forme. Il fallait donc reconfigurer ces paramètres, et notamment reconnecter les données de texte dynamique. Avec cette mise à jour, le widget conserve désormais ces paramètres lors du passage d'une vue de données à l'autre. Cette amélioration est aussi incluse dans les widgets Diagramme et Texte.Widget "Ajouter des données" Vous pouvez maintenant ajouter plusieurs données simultanément à partir du widget Ajouter des données. Vous pouvez aussi redimensionner la fenêtre de sélection des données à ajouter pour parcourir les éléments plus facilement.
Widget "Rechercher" Dans vos applications destinées au grand public, le menu déroulant permettant de sélectionner une source de recherche dans la barre de recherche peut s'avérer déroutant. Vous avez maintenant la possibilité de désactiver ce menu.
Si vous choisissez l'option Interagir avec un widget Carte dans le paramétrage de la source, vous pourrez également personnaliser encore davantage la recherche, en restreignant celle-ci à l'étendue actuelle de la carte ou en activant la recherche locale.
Widget "Feuille de route" Le widget "Feuille de route" vous permet maintenant de modifié l'itinéraire proposé en ajoutant interactivement des arrêts et des interruptions.
Vous pouvez aussi paramétrer les unités utilisées pour afficher les distances (système métrique ou impérial). Widget "Mise à jour" et "Dessiner" Dans les widgets "Mise à jour" et "Dessiner", vous pouvez désormais surimposer une grille à la carte à laquelle vous pouvez vous accrocher pour éditer des entités ou ajouter une couche de dessin. Cela vous permet un alignement précis des entités. Notez que pour le widget Mise à jour, vous devrez activer cette capacité dans les paramètres de capture lors du paramétrage du widget. Vous pouvez également activer les infos-bulles pour obtenir des informations pendant le dessin (distance, surface, déflexion...).Générateur Avant cette mise à jour, le chargement d'un grand nombre de couches dans le widget carte prenait un certain temps. Les performances ont été améliorées pour réduire celui-ci. La dernière nouveauté dont nous allons parler est la possibilité de générer des QR codes permettant d'accéder au brouillon et à la version publiée de votre Expérience. Cette fonctionnalité est très pratique à la fois pour le partage avec le public, mais aussi pour accéder rapidement à votre expérience sur votre mobile pendant la phase de configuration pour examiner le comportement de l'application sur un portable.
Accessibilité Plusieurs améliorations liées à l'accessibilité ont été introduites :- Dans le paramétrage du thème, vous pouvez changer la couleur de l'indicateur de focus qui montre sur quel élément de l'application le focus du clavier est actif ;
- L'accessibilité est maintenant supportée dans le widget "Accordéon";
- L'accessibilité est maintenant supportée dans les filtres personnalisés configurés dans le widget "Filtre";
- Un nouveau modèle public disponible dans ArcGIS Online nommé Job Hunting (A11Y) est désormais disponible. Il est designé spécifiquement pour fournir une expérience accessible, avec une interaction via le clavier et des labels pour les lecteurs d'écran.
Vous trouverez toutes les informations sur l'accessibilité dans Experience Builder dans cette rubrique de la documentation.
Ressources
Comme à chaque nouvelle version, la matrice de fonctionnalité entre Web AppBuilder et Experience Builder a été mise à jour, et que la roadmap de l’année 2025 est disponible. Vous pouvez les retrouver sur cette application dédiée aux ressources Experience Builder. Pour plus d'informations sur les changements spécifiques à la Developer Edition (dont notamment les breaking changes), vous trouverez les notes de version complètes dans la documentation.
-
7:25
[Replay] Webinaire – La collaboration autour de QGIS
sur OslandiaLe vendredi 4 avril 2025, Oslandia a co-animé un webinaire avec Bordeaux Métropole sur la collaboration autour de QGIS.
Un grand merci à Julien Pagiusco, Chef de projet numérique SIG chez Bordeaux Métropole qui a présenté le contexte SIG au sein de la Métropole et plus spécifiquement l’utilisation de QGIS et le financement du support CMJN.
En deuxième partie, Vincent Picavet a reparlé du support du CMJN, qui grâce au financement de Bordeaux Métropole, est désormais disponible dans QGIS 3.40, faisant définitivement tomber la dernière barrière empêchant leur migration complète depuis ArcGIS vers QGIS.
Un exemple de collaboration répondant pleinement aux valeurs de l’open source !
Cette nouvelle fonctionnalité a pu voir le jour grâce à Julien Cabieces, core Comitter QGIS chez Oslandia, notre partenaire privilégié sur Qt, KDAB, et plus précisément Giuseppe D’Angelo qui a réalisé les développements nécessaires et à QGIS.org qui a financé les développements sur Qt !
Vous souhaitez échanger sur vos projets QGIS, vous souhaitez contribuer ?Contactez-nous : infos+qgis@oslandia.com
Pour accéder au replay, répondez à notre questionnaire : [https:]]
-
7:15
Les satellites de nouvelle génération cartographient les fonds marins depuis l'espace
sur Cartographies numériquesSource : Next-Generation Water Satellite Maps Seafloor From Space (NASA)
Des cartes plus précises basées sur les données de la mission SWOT (Surface Water and Ocean Topography) peuvent améliorer la navigation sous-marine et permettre une meilleure connaissance de la façon dont la chaleur et la vie se déplacent dans l'océan mondial. Les navires équipés d'instruments sonars peuvent effectuer des mesures directes et extrêmement détaillées des fonds marins. Cependant, à ce jour, seulement 25 % environ de ces fonds ont été étudiés de cette manière.
Pour obtenir une image globale des fonds marins, les chercheurs se sont appuyés sur des données satellitaires. Dans le cadre de ces efforts continus, une équipe soutenue par la NASA a récemment publié l'une des cartes les plus détaillées à ce jour des fonds océaniques, grâce aux données du satellite SWOT, fruit d'une collaboration entre la NASA et le Centre national d'études spatiales (CNES).
Topographie des eaux de surface et des océans (SWOT) - Source : Studio de visualisation scientifique de la NASA
Cette animation présente les caractéristiques des fonds marins dérivées des données SWOT concernant les régions au large du Mexique, de l'Amérique du Sud et de la péninsule Antarctique. Le violet indique les régions plus basses. Les zones plus élevées, comme les monts sous-marins, sont représentées en vert. L'Eötvös est l'unité de mesure des données gravimétriques utilisées pour créer ces cartes.
Des cartes plus précises des fonds marins sont essentielles à diverses activités maritimes, notamment la navigation et la pose de câbles de communication sous-marins. Elles sont également importantes pour mieux comprendre les courants et les marées des grands fonds, qui influencent la vie dans les abysses, ainsi que les processus géologiques comme la tectonique des plaques. Les montagnes sous-marines, appelées monts sous-marins, et d'autres formations océaniques, comme leurs cousins ??plus petits, les collines abyssales, influencent le mouvement de la chaleur et des nutriments dans les profondeurs et peuvent attirer la vie. Les effets de ces caractéristiques physiques se font même sentir à la surface par l'influence qu'elles exercent sur les écosystèmes dont dépendent les communautés humaines.
La cartographie des fonds marins n'est pas l' objectif principal de la mission SWOT. Lancé en décembre 2022, le satellite mesure la hauteur d'eau sur la quasi-totalité de la surface terrestre, y compris l'océan, les lacs, les réservoirs et les rivières. Les chercheurs peuvent exploiter ces différences de hauteur pour créer une sorte de carte topographique de la surface de l'eau douce et de l'eau de mer. Ces données peuvent ensuite être utilisées pour évaluer l'évolution de la banquise ou suivre la progression des inondations le long des rivières.
La carte des fonds marins basée sur SWOT a été publiée dans la revue Science en décembre 2024. On peut également la télécharger sur le site de la NASA (Seamounts and Abyssal Hills Mapped From Space).
Monts sous-marins et collines abyssales cartographiés depuis l'espace (Source : NASA)Articles connexes
Progression de la cartographie haute résolution des fonds marins (programme Seabed 2030 - GEBCO)
Prior Lake Database, une base de données complète sur les lacs dans le monde (données SWOT)
Les câbles sous-marins, enjeu majeur de la mondialisation de l'information
Les frontières maritimes des pays : vers un pavage politique des océans ?
La carte de protection des océans proposée par Greenpeace pour 2030 : utopie ou réalisme ?
MPAtlas, un atlas de la protection marine pour évaluer les aires marines réellement protégées
Densité du trafic maritime mondial et effets sur le réchauffement climatique
Entre maritimisation des échanges et mondialisation de l'information : de quoi l’incident de l'Ever-Given est-il le nom ?
CLIWOC. Une base de données climatologiques des océans à partir des journaux de bord des navires (1750-1850)
Une sélection d'atlas maritimes issus de la Harvard Map CollectionLa carte de la hauteur de la canopée dans le monde (NASA Earth Observatory)
-
7:00
Pourquoi la technologie favorise-t-elle le surdiagnostic ?
sur Dans les algorithmesLa neurologue irlandaise, Suzanne O’Sullivan, qui vient de publier The Age of Diagnosis: Sickness, Health and Why Medicine Has Gone Too Far (Penguin Random House, 2025) estime que nous sommes entrés dans l’ère du diagnostique, c’est-à-dire que l’essor technologique nous permet désormais d’améliorer les diagnostics. Mais, tempère-t-elle, cet essor « ne semble pas s’être accompagné d’une amélioration de notre santé ». Si nous détectons et traitons davantage de cancers à des stades plus précoces, ce qui sauve la vie de certaines personnes, en revanche, d’autres reçoivent des traitements inutiles, et il se pourrait que la proportion des personnes surtraitées soit plus forte que la réduction de la mortalité. En fait, des études à grande échelle montrent que l’amélioration du dépistage ne conduit pas à une amélioration des taux de survie, rappelle le Times. Pour la spécialiste qui dénonce cette dérive diagnostique, « nous sommes victimes d’une médecine excessive ». Pour elle, l’augmentation des diagnostiques de neurodivergence notamment (Troubles de l’activité et autisme) a surtout tendance à pathologiser inutilement certaines personnes. Nous ne devenons pas forcément plus malades, nous attribuons davantage à la maladie, regrette-t-elle. « Les explications médicales sont devenues un pansement ».
Le diagnostic apporte des réponses tant aux patients qu’aux médecins, mais ne soigne pas toujours. Diagnostiquer des patients alors qu’il n’existe pas de traitements efficaces peut aggraver leurs symptômes, explique-t-elle dans une interview à Wired. Entre 1998 et 2018, les diagnostics d’autisme ont augmenté de 787 % rien qu’au Royaume-Uni ; le taux de surdiagnostic de la maladie de Lyme est estimé à 85 %, y compris dans les pays où il est impossible de contracter la maladie. Le diagnostic de l’autisme est passé d’une personne sur 2 500 à un enfant sur 36 au Royaume-Uni et un sur 20 en Irlande du Nord. Nous sommes passés d’un sous-diagnostic à un sur-diagnostic, estime O’Sullivan. Or, ce sur-diagnostic n’améliore pas la santé des patients. « L’échec de cette approche est dû au fait que, lorsqu’on arrive aux stades les plus légers des troubles du comportement ou de l’apprentissage, il faut trouver un équilibre entre les avantages du diagnostic et l’aide disponible, et les inconvénients du diagnostic, qui consistent à annoncer à l’enfant qu’il a un cerveau anormal. Quel est l’impact sur la confiance en soi de l’enfant ? Comment est-ce stigmatisé ? Comment cela influence-t-il la construction de son identité ? Nous avons pensé qu’il serait utile de le dire aux enfants, mais les statistiques et les résultats suggèrent que ce n’est pas le cas. » De même, nous sur-diagnostiquons désormais différents types de cancer, tant et si bien que de plus en plus de personnes reçoivent des traitements alors qu’elles n’en ont pas besoin. Le problème c’est que nous devons veiller à ce que le surdiagnostic reste à un niveau bas. Nous multiplions les tests plutôt que de perfectionner ceux que nous avons.
Ce n’est pas tant qu’il ne faut pas dépister, estime la neurologue, mais que les décisions doivent être prises parfois plus lentement qu’elles ne sont. Pour The Guardian, le surdiagnostic nous fait croire que notre société va mal ou que la vie moderne nous rend malade (ce qui n’est pas nécessairement faux). La réalité est que nos outils de diagnostics sont devenus plus précis, mais les variations de santé physique et mentale sont inutilement médicalisées et pathologisées. Pour le dire autrement, nous n’avons pas beaucoup de méthodes pour limiter les faux positifs en médecine, comme ailleurs.
-
1:59
Sean Gillies: Bear training week 7 recap
sur Planet OSGeoPoor weather last week complicated my training plans. I ran more than I did in week six, but not much more. I did some indoor intervals, a tempo run, the usual yoga and pool HIIT, my favorite bike loop of Southwest Fort Collins, and a great trail run in the hills of Lory State Park on Saturday. All together, here are the numbers:
24 miles running
9 hours, 32 minutes all training
2,313 ft D+ running
My body is holding up well, so I'll be doing even more running in week eight. Spoiler alert: I've already had one solid running workout, the hardest of my season so far.
A sandy trail along a partially snow-covered ridge approaches a stand of pine trees under a blue sky. Lory State Park, Colorado.
-
17:28
Sean Gillies: The Poulletier sandwich
sur Planet OSGeoI'm not the first person to make a sandwich with fried eggs and pastrami, but I think I may have come up with a name for it that could stick. Served hot with melted cheddar cheese on slices of grilled sourdough bread, I call it the "Poulletier" after François Poulletier de la Salle, the discoverer of cholesterol.
A grilled sandwich, cut in two, on a green plate.
Hash browns would be good in this. As would a thick smear of pesto sauce, suggested by a person in a reply to my Mastodon post. I'll try one or both of these additions next time.
-
11:00
Mappery: Another Mappy Chair
sur Planet OSGeoKevin Carey sent this “A glorious mappy chair at Oldmeldrum House Hotel, Aberdeenshire”
-
9:44
Mapping the Red Sea Attacks
sur Google Maps ManiaThe International Crisis Group has released an interactive story map, The Red Sea Attacks Explained, that does a great job of breaking down the background and consequences of the Houthis’ attacks on cargo ships in the Red Sea.The map uses Mapbox's Story Map template to great effect, illustrating the Houthis’ strategic strongholds and their disruptive impact on global trade routes. I
-
7:00
Dans les défaillances des décisions automatisées
sur Dans les algorithmesLes systèmes de prise de décision automatisée (ADM, pour automated decision-making) sont partout. Ils touchent tous les types d’activités humaines et notamment la distribution de services publics à des millions de citoyens européens mais également nombre de services privés essentiels, comme la banque, la fixation des prix ou l’assurance. Partout, les systèmes contrôlent l’accès à nos droits et à nos possibilités d’action.
Opacité et défaillance généraliséeEn 2020 déjà, la grande association européenne de défense des droits numériques, Algorithm Watch, expliquait dans un rapport que ces systèmes se généralisaient dans la plus grande opacité. Alors que le calcul est partout, l’association soulignait que si ces déploiements pouvaient être utiles, très peu de cas montraient de « manière convaincante un impact positif ». La plupart des systèmes de décision automatisés mettent les gens en danger plus qu’ils ne les protègent, disait déjà l’association.
Dans son inventaire des algorithmes publics, l’Observatoire des algorithmes publics montre, très concrètement, combien le déploiement des systèmes de prise de décision automatisée reste opaque, malgré les obligations de transparence qui incombent aux systèmes.
Avec son initiative France Contrôle, la Quadrature du Net, accompagnée de collectifs de lutte contre la précarité, documente elle aussi le déploiement des algorithmes de contrôle social et leurs défaillances. Dès 2018, les travaux pionniers de la politiste Virginia Eubanks, nous ont appris que les systèmes électroniques mis en place pour calculer, distribuer et contrôler l’aide sociale sont bien souvent particulièrement défaillants, et notamment les systèmes automatisés censés lutter contre la fraude, devenus l’alpha et l’oméga des politiques publiques austéritaires.
Malgré la Loi pour une République numérique (2016), la transparence de ces calculs, seule à même de dévoiler et corriger leurs défaillances, ne progresse pas. On peut donc se demander, assez légitimement, ce qu’il y a cacher.
A mesure que ces systèmes se déploient, ce sont donc les enquêtes des syndicats, des militants, des chercheurs, des journalistes qui documentent les défaillances des décisions automatisées dans tous les secteurs de la société où elles sont présentes.
Ces enquêtes sont rendues partout difficiles, d’abord et avant tout parce qu’on ne peut saisir les paramètres des systèmes de décision automatisée sans y accéder.
3 problèmes récurrentsS’il est difficile de faire un constat global sur les défaillances spécifiques de tous les systèmes automatisés, qu’ils s’appliquent à la santé, l’éducation, le social ou l’économie, on peut néanmoins noter 3 problèmes récurrents.
Les erreurs ne sont pas un problème pour les structures qui calculent. Pour le dire techniquement, la plupart des acteurs qui produisent des systèmes de décision automatisée produisent des faux positifs importants, c’est-à-dire catégorisent des personnes indûment. Dans les systèmes bancaires par exemple, comme l’a montré une belle enquête de l’AFP et d’Algorithm Watch, certaines activités déclenchent des alertes et conduisent à qualifier les profils des clients comme problématiques voire à suspendre les possibilités bancaires d’individus ou d’organisations, sans qu’elles n’aient à rendre de compte sur ces suspensions.
Au contraire, parce qu’elles sont invitées à la vigilance face aux activités de fraude, de blanchiment d’argent ou le financement du terrorisme, elles sont encouragées à produire des faux positifs pour montrer qu’elles agissent, tout comme les organismes sociaux sont poussés à détecter de la fraude pour atteindre leurs objectifs de contrôle.
Selon les données de l’autorité qui contrôle les banques et les marchés financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermé en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont été condamnées pour ce délit.
Le problème, c’est que les organismes de calculs n’ont pas d’intérêt à corriger ces faux positifs pour les atténuer. Alors que, si ces erreurs ne sont pas un problème pour les structures qui les produisent, elles le sont pour les individus qui voient leurs comptes clôturés, sans raison et avec peu de possibilités de recours. Il est nécessaire pourtant que les taux de risques détectés restent proportionnels aux taux effectifs de condamnation, afin que les niveaux de réduction des risques ne soient pas portés par les individus.
Le même phénomène est à l’œuvre quand la CAF reconnaît que son algorithme de contrôle de fraude produit bien plus de contrôle sur certaines catégories sociales de la population, comme le montrait l’enquête du Monde et de Lighthouse reports et les travaux de l’association Changer de Cap. Mais, pour les banques, comme pour la CAF, ce surciblage, ce surdiagnostic, n’a pas d’incidence directe, au contraire…
Pour les organismes publics le taux de détection automatisée est un objectif à atteindre explique le syndicat Solidaires Finances Publiques dans son enquête sur L’IA aux impôts, qu’importe si cet objectif est défaillant pour les personnes ciblées. D’où l’importance de mettre en place un ratio d’impact sur les différents groupes démographiques et des taux de faux positifs pour limiter leur explosion. La justesse des calculs doit être améliorée.
Pour cela, il est nécessaire de mieux contrôler le taux de détection des outils et de trouver les modalités pour que ces taux ne soient pas disproportionnés. Sans cela, on le comprend, la maltraitance institutionnelle que dénonce ATD Quart Monde est en roue libre dans les systèmes, quels qu’ils soient.
Dans les difficultés, les recours sont rendus plus compliqués. Quand ces systèmes mé-calculent les gens, quand ils signalent leurs profils comme problématiques ou quand les dossiers sont mis en traitement, les possibilités de recours sont bien souvent automatiquement réduites. Le fait d’être soupçonné de problème bancaire diminue vos possibilités de recours plutôt qu’elle ne les augmente.
A la CAF, quand l’accusation de fraude est déclenchée, la procédure de recours pour les bénéficiaires devient plus complexe. Dans la plateforme dématérialisée pour les demandes de titres de séjour dont le Défenseur des droits pointait les lacunes dans un récent rapport, les usagers ne peuvent pas signaler un changement de lieu de résidence quand une demande est en cours.
Or, c’est justement quand les usagers sont confrontés à des difficultés, que la discussion devrait être rendue plus fluide, plus accessible. En réalité, c’est bien souvent l’inverse que l’on constate. Outre les explications lacunaires des services, les possibilités de recours sont réduites quand elles devraient être augmentées. L’alerte réduit les droits alors qu’elle devrait plutôt les ouvrir.
Enfin, l’interconnexion des systèmes crée des boucles de défaillances dont les effets s’amplifient très rapidement. Les boucles d’empêchements se multiplient sans issue. Les alertes et les faux positifs se répandent. L’automatisation des droits conduit à des évictions en cascade dans des systèmes où les organismes se renvoient les responsabilités sans être toujours capables d’agir sur les systèmes de calcul. Ces difficultés nécessitent de mieux faire valoir les droits d’opposition des calculés. La prise en compte d’innombrables données pour produire des calculs toujours plus granulaires, pour atténuer les risques, produit surtout des faux positifs et une complexité de plus en plus problématique pour les usagers.
Responsabiliser les calculs du socialNous avons besoin de diminuer les données utilisées pour les calculs du social, explique le chercheur Arvind Narayanan, notamment parce que cette complexité, au prétexte de mieux calculer le social, bien souvent, n’améliore pas les calculs, mais renforce leur opacité et les rend moins contestables. Les calculs du social doivent n’utiliser que peu de données, doivent rester compréhensibles, transparents, vérifiables et surtout opposables… Collecter peu de données cause moins de problèmes de vie privée, moins de problèmes légaux comme éthiques… et moins de discriminations.
Renforcer le contrôle des systèmes, notamment mesurer leur ratio d’impact et les taux de faux positifs. Améliorer les droits de recours des usagers, notamment quand ces systèmes les ciblent et les désignent. Et surtout, améliorer la participation des publics aux calculs, comme nous y invitent le récent rapport du Défenseur des droits sur la dématérialisation et les algorithmes publics.
A mesure qu’ils se répandent, à mesure qu’ils accèdent à de plus en plus de données, les risques de défaillances des calculs s’accumulent. Derrière ces défaillances, c’est la question même de la justice qui est en cause. On ne peut pas accepter que les banques ferment chaque année des centaines de milliers de comptes bancaires, quand seulement un millier de personnes sont condamnées.
On ne peut pas accepter que la CAF détermine qu’il y aurait des centaines de milliers de fraudeurs, quand dans les faits, très peu sont condamnés pour fraude. La justice nécessite que les calculs du social soient raccords avec la réalité. Nous n’y sommes pas.
Hubert Guillaud
Cet édito a été publié originellement sous forme de tribune pour le Club de Mediapart, le 4 avril 2025 à l’occasion de la publication du livre, Les algorithmes contre la société aux éditions La Fabrique.
-
6:25
Atlas des paysages de La Réunion
sur Cartographies numériques
Atlas des paysages de La Réunion - DEAL Réunion - Agence Folléa-Gautier - 2023Le paysage est souvent appréhendé comme une notion subjective. En proposant un cadre d’analyse et des clefs de lecture, l’Atlas des paysages de La Réunion proposé par la DEAL Réunion et par l'Agence Folléa-Gautier, favorise un regard partagé sur les paysages actuels et sur leurs devenirs potentiels ou souhaités. Outil d’aide à la compréhension et à la décision pour les acteurs du territoire, il contribue à la préservation, à la valorisation et à la transmission des paysages réunionnais.
La multiplicité des thématiques traitées par l’Atlas des paysages (Eau douce, littoral, nature, agriculture, habitat, énergie, activités, équipements, déplacements) révèle l’interdisciplinarité de cette matière et la nécessité de porter sur les paysages des regards croisés. Toutes ces composantes, parties intégrantes du mode de vie des Réunionnais, sont traitées comme un tout indissociable. « Nos paysages, qu’ils soient grandioses ou plus banals, sont notre bien commun ».
- Plaquette de présentation (50 Mo)
- Projet QGIS de l’Atlas (270 Mo)
- Projet QGIS de l’Observatoire photographique (2,95 Go)
Pourquoi un Atlas des paysages de La Réunion ??
- Pour mieux connaître les paysages
- Pour mieux agir individuellement et collectivement sur les paysages
- Pour mieux construire le cadre de vie de demain
- Pour préserver les richesses paysagères de La Réunion
- Pour mieux faire connaître La Réunion?
Quels sont les intérêts et les limites de l’Atlas ?
L'Atlas a d’emblée été conçu sous la forme d’un site Internet, pouvant de ce fait être accessible à tous. Il articule les échelles de l’aménagement, depuis l’échelle stratégique d’ensemble jusqu’à l’échelle de sites ponctuels. Il propose une synthèse cartographiée et commentée des grands enjeux en matière d’aménagement qualitatif pour chaque unité de paysage. Il est très abondamment illustré de photographies de terrain, légendées, commentées et repérées sur SIG (Système d’Information Géographique). Leur repérage sous SIG rend possible en complément la construction d’un observatoire photographique des paysages pour mesurer les dynamiques d’évolution par reconduction des prises de vues géoréférencée. Il propose une représentation numérique en trois dimensions du territoire, sous forme de blocs-diagrammes, qui permettent une représentation synthétique de chaque unité de paysage. Il offre des cartographies pour chaque unité de paysage dont les référencements sous SIG rendent possibles leur complément, enrichissement et actualisation. Il offre plusieurs points d’entrées possibles, par cartes, par noms de lieux ou de communes ou par mots clefs. Il dispose d’un moteur de recherche qui facilite l’obtention des informations souhaitées.
En aucune façon l’atlas n’a vocation à se substituer aux réflexions plus localisées sur un territoire ou plus ciblées sur un thème, comme une révision de document d’urbanisme ou, a fortiori, un projet d’aménagement particulier.
Plus de 4000 illustrations accompagnent le texte (photographies légendées, cartographies, dessins, croquis, schémas et blocs–diagrammes…). Enfin l’Atlas Internet est facilement évolutif ; il a non seulement capacité mais aussi vocation à se préciser et se parfaire dans les années à venir.
Plan de l'Atlas
Galerie Photo
Accueil
Site d’observation
1. Tableau d’ensemble
2. Les fondements naturels et anthropiquesLes paysages et la géologie ?
3. Les fondements culturels
Les paysages et les reliefs?
Les paysages et les climats?
Les paysages et l’eau douce?
Les paysages et le littoral?
Les paysages, la forêt et les espaces naturels?
Les paysages et l’agriculture?
Les paysages, l’urbanisation et les infrastructures?
4. Les unités de paysageLes pentes de Saint?DenisLes pentes du nord?estLes pentes de Saint?BenoîtLes pentes de Sainte?Rose et Saint?PhilippeLes pentes du sudLes pentes de Saint?Pierre / Le TamponLes pentes de Saint?Louis / L’Étang?SaléLes pentes de l’ouestLes pentes de Saint?Paul / Le Port / La PossessionLes pentes de La Montagne11. Le cirque de SalazieLe cirque de MafateLe cirque de CilaosLa plaine de Bébour-BélouveLe massif du Piton de la FournaiseLa plaine des CafresLa plaine des Palmistes
5. Les processus, enjeux et orientations thématiquesIntroduction : puissance des transformations des 70 dernières annéesLes valeurs paysagères clefs de La Réunion?Les paysages de l’eau douceLes paysages du littoralLes paysages de natureLes paysages agricolesLes paysages de l’habitatLes paysages des mobilitésLes paysages des énergiesLes paysages des activités et des équipementsSynthèse : les enjeux majeurs de paysage
6. Synthèse des orientations et recommandations
Observatoire photographique
Documentation
Articles connexes
L’autosuffisance alimentaire est-elle possible pour La Réunion ?
Atlas des territoires éducatifs à La Réunion
L'histoire de La Réunion par les cartes
Découvrir les structures cachées du paysage grâce au lidar (Cesbio)
Carte détaillée du paysage sous la calotte glaciaire de l'Antarctique
Comment les frontières politiques façonnent les paysages. Une série d’images satellites Planet en haute résolution
Tentative de description du paysage sur la ligne à grande vitesse Paris-Lyon-Marseille
Environnement et justice dans les paysages anthropisés. Une exposition virtuelle du Leventhal Center
L'histoire par les cartes : l'empreinte de la guerre sur les paysages du Vietnam central
-
16:50
GeoCat: GeoServer 3 Crowdfunding: Last Call!
sur Planet OSGeoThe GeoServer 3 crowdfunding campaign is now entering its final phase. After months of effort and strong engagement from the geospatial community, we are approaching our collective goal. The campaign ... -
15:00
GeoSolutions: GeoServer 3 Crowdfunding – Last Call!
sur Planet OSGeoYou must be logged into the site to view this content.
-
11:00
Mappery: Priorat
sur Planet OSGeoAnother one from Raf, he must have been. traveling a bit. This one is a hand drawn map on a blackboard inside El Refugi, a small eats & drinks place in Arbolí, Catalunya
-
10:14
The First Cuckoo of Spring
sur Google Maps ManiaThe Cuckoo Tracking Project At the end of March, Hafren (a male adult cuckoo) left the Republic of Côte d'Ivoire to begin his epic migration north to England. From Côte d'Ivoire, Hafren skirted the eastern border of Guinea, crossed south-eastern Mali, motored through Mauritania, and—after a journey of around 1,370 miles—arrived in Western Sahara.By early April, Hafren had reached Mijek in
-
9:25
Makina Corpus publie sa propre librairie d'authentification OpenID Connect pour Django
sur Makina CorpusNous publions en logiciel libre notre intégration du protocole OpenID Connect (OIDC) avec Django : django-pyoidc.
-
7:00
L’IA est un outil de démoralisation des travailleurs
sur Dans les algorithmes« Le potentiel révolutionnaire de l’IA est d’aider les experts à appliquer leur expertise plus efficacement et plus rapidement. Mais pour que cela fonctionne, il faut des experts. Or, l’apprentissage est un processus de développement humain désordonné et non linéaire, qui résiste à l’efficacité. L’IA ne peut donc pas le remplacer », explique la sociologue Tressie McMillan Cottom dans une tribune au New York Times. « L’IA recherche des travailleurs qui prennent des décisions fondées sur leur expertise, sans institution qui crée et certifie cette expertise. Elle propose une expertise sans experts ». Pas sûr donc que cela fonctionne.
Mais, si ce fantasme – qui a traversé toutes les technologies éducatives depuis longtemps – fascine, c’est parce qu’il promet de contrôler l’apprentissage sans en payer le coût. Plus que de réduire les tâches fastidieuses, l’IA justifie les réductions d’effectifs « en demandant à ceux qui restent de faire plus avec moins ». La meilleure efficacité de l’IA, c’est de démoraliser les travailleurs, conclut la sociologue.
-
6:31
[Témoignage] Matthieu Tracol, UpFactor sur son utilisation de CityForge
sur OslandiaUpfactor est une entreprise qui réalise pour les collectivités des études afin de détecter le potentiel de surélévation des bâtiments à l’échelle d’un quartier, d’une ville ou d’une métropole. Upfactor modélise en 3D les règles d’urbanisme, définissant les gabarits des bâtiments, puis compare cette modélisation avec la 3D de l’existant pour obtenir le potentiel de surélévation de chaque zone urbaine.
Interview de Matthieu Tracol, chef de projet SIG UpfactorCityForge nous permet, à partir de données tel que le Lidar HD de l’IGN, de générer un modèle 3D simplifié d’une zone : qui va de l’échelle du quartier à une métropole.
Grâce à cette modélisation des villes en 3D, une suite d’algorithmes développés par Upfactor nous permet d’identifier les volumes de surélévations potentiels.
CityForge simplifie la reconstruction de bâtiments en 3D et nous permet d’être plus efficace qu’en utilisant la méthodologie plus lourde et coûteuse en temps que nous avions développé auparavant.
Les fichiers CityJSON générés par CityForge sont également partagés avec nos clients, afin qu’ils puissent les exploiter, et notamment pour travailler sur le jumeau numérique de leur ville.
La mise à jour de CityForge début 2025 est tombée à pic car nous avions une étude à réaliser pour la ville du Mans.
La collaboration avec Oslandia a été très satisfaisante, de la prise de contact à l’exploitation du plugin dont la documentation complète, nous a permis une mise en application en autonomie pour notre projet.
-
2:00
GeoServer Team: GeoServer 3 Crowdfunding – Last Call!
sur Planet OSGeoThe GeoServer 3 crowdfunding campaign is now entering its final phase. After months of effort and strong engagement from the geospatial community, we are approaching our collective goal. The campaign has reached over 90% of its target, with only €40,000 remaining. Several organizations are currently engaged in discussions, and we remain confident that we will successfully complete the campaign.
? We will officially close the campaign on Monday, April 21, 2025.
This is the final window of opportunity for organizations that wish to contribute and ensure GeoServer’s continued innovation and reliability.
Why this upgrade is criticalGeoServer 3 is more than just a version number—it is a significant technical shift that will modernize the platform’s foundations and secure its future. This includes:
- Migration to Spring 6 and JDK 17: Required to maintain compatibility with modern Java ecosystems, ensure long-term support, and adopt secure, future-proof components.
- End of support for Spring 5: From January 2025, no more security updates will be provided, making the upgrade essential for compliance and operational security.
- OAuth2 support and improved security architecture: Crucial for enterprise-grade authentication and integration with modern infrastructure.
- Switch from JAI to ImageN: A much-needed replacement for image processing, improving speed, maintainability, and compatibility.
- Alignment with current deployment environments: Including Tomcat 10 and Jakarta EE, ensuring compatibility with containerized and cloud-native environments.
You can learn more about the technical transition already underway in this behind-the-scenes update.
What happens if we exceed the goal?If the total contributions exceed the financial target, the additional workforce funded through this campaign will be redirected to tasks identified and prioritized by the GeoServer Project Steering Committee (PSC). This ensures the extra support directly benefits the project’s long-term roadmap and the broader user community.
Acknowledgements and next stepsWe extend our sincere thanks to all who have supported this campaign so far—through funding, code contributions, testing, and outreach. The effort has already mobilized an international team of core contributors who are ready to move forward.
We now invite all remaining stakeholders to join before the deadline. If your organization uses GeoServer and values its open, sustainable evolution, this is your moment to act.
? To pledge or contact the coordination team, please visit:
[https:]]Let’s complete this journey—together.
The following organisations have pledged their support:
Individual donations: Abhijit Gujar, Laurent Bourgès, Stefan Overkamp.
-
17:05
QGIS Blog: Plugin Update – February to March, 2025
sur Planet OSGeoIn the last couple of months a total of 57 new plugins were published in the QGIS plugin repository.
HighlightsIn early February a new web portal for QGIS plugins was launched, in line with the main website overhaul, intending on improving the user experience and with new functionalities as well as detailed information on over two thousand plugins. Congratulations on all involved, and enjoy everyone!
Overview
Here follows the quick overview in reverse chronological order. If any of the names or short descriptions catches your attention, you can find the direct link to the plugin page in the table below:
Space trace Draws a spacecraft’s ground trace over the Earth’s surface. SpaceMouse3Dconnexion Plugin Direct HID support for 3DConnexion SpaceMouse in QGIS 3D views. ?HMÚ/CHMI – Meteorological Data Processing Weather measurements and spatial interpolation. UHI Urban Heat Island. FPT Plot Allocation Plot allocation for forest inventory. Cornelis Help produce ‘cartographic’ tessellations of the plan, and try to imitate M.C. Escher. Fun Reprojector Reproject vector layers by selecting anthropomorphized characters as coordinate systems. Enjoy transforming your layers with a fun and intuitive graphical interface! AzimuthTool A powerful QGIS plugin for generating vector line layers from azimuths or quadrant bearings and distances, starting from a user-defined point. GSM Cover Builder GSM Cover Builder allows you to quickly generate coverage plans based on localities and a defined coverage radius. Matti A plugin to estimate soybean maturity. SplashTool Result Loader Load and symbolize results from a SplashTool output directory. aGrae | Mapeo Integral | Analíticas de Mapeo aGrae Mapeo Integral, permite gestionar la informacion de cultivos asociados a la explotacion. aGrae | Mapeo Integral | Mapeo de Procesos aGrae Mapeo Integral, permite gestionar la informacion de cultivos asociados a la explotacion. Change GPKG Path QGIS Plugin to change all GPKG datasources inside a GPKG project. Layer Group Locator Plugin Registers a locator filter that searches for layer groups by name (case insensitive) and jumps to the group in the layer legend. Warszawa GIS Wtyczka zapewniaj?ca ?atwy dost?p do danych przestrzennych m.st. Warszawy. QGIS Track Changes This plugin helps track changes in vector layer data, including:
– Feature modifications
– Geometry updates
– Attribute changes
It ensures data integrity by logging changes efficiently within QGIS.Promptly This plugin provides an interface to send prompts to various LLM providers (Ollama, OpenAI, OpenRouter, Anthropic, and custom endpoints) and execute the generated Python code in QGIS. Features include: Support for multiple LLM providers, Database schema integration for SQL queries, Layer metadata reference for QGIS operations, Code execution with error handling and fixing, Cross-platform compatibility. FloodRiskSwatPlus QGIS plugin to assess flood risk impacts in economic terms for SWAT+ scenarios. QTempo Plugin for accessing data from the TEMPO-Online statistical database of the National Institute of Statistics of Romania. NeighborHighlighter ????????????????????? Geom From Attribute This plugin allows users to create geometry using attributes from table. PackageInstallerQgis Package installer for QGIS plugins. AutoSave Automatically saves the QGIS project and editable layers at a user-defined interval. Stratigraphic Thickness Estimates the stratigraphic thickness based on a trigonometric calculation with topographic correction using a DEM. Pan Europeo Processing gdal calc wrapper for multi utility attribute functions raster calculator. grd2stream Streamline generation from gridded data. Add BIM Data Dictionary Semantics Use the buildingSMART Data Dictionary (bSDD) API or similar APIs to classify features and add attributes. PlacesSearch Fetch places data from Google Maps API and save to Shapefile. Crop Site Suitability Analysis Equal weighted overlay analysis for crop site suitability mapping. MOVE – MobilityDB QGIS Plugin to display MobilityDB query results. LayoutSelector Load and manage QPT layout templates in QGIS. Social Tenure Domain Model A pro-poor land information tool that offers a complimentary land administration system that is pro-poor, gender-sensitive, affordable and sustainable for the promotion of secure land and property rights for all. QGIS Pip Manager A QGIS plugin to manage Python packages within the QGIS environment, simplifying the installation, uninstallation, and searching of packages without command-line interaction. VectorSelector Select a one or multiple fields in a vector file filter columns and create a widget. Sig Caceres WMS Gestión del SIG de Cáceres. Menú de carga de capas WMS. Buscador Sig Caceres Buscador SIG de Cáceres. Permite realizar búsquedas por:
Barrios, calles, caminos, carreteras, toponimia,…Minimum Bounding Box Create layer with extents (minx,miny, maxx, maxy) and extents geometry. Manning’s Roughness Generator Plugin to generate high resolution 2D Manning’s roughness coefficients raster from land cover data. IdentifProj This QGIS plugin is an easy way to guess which map projection has been used for a location. The plugin has 3 use cases :
– type projected coordinates and get all thez possible points all over the world
– click on a location on the map and find all the possible projected coordinates
– draw a bbox and find all the projected bboxes
IMPORTANT: at the first start, the plugin will build its CRS database from Qgis CRS list. It can last au couple of minutes but it will only happen one time. This plugin has been initially developed during a third year engineering project at ENSG ( [https:]] )QMapCompare A QGIS plugin that enables you to compare maps smoothly. Italy Inspire Cadastre Downloader QGIS plugin for downloading cadastral data of cadastrals parcels and cadastral zoning in Italy. EconoMe Load information from QGIS into your EconoMe project and vice versa. Download the calculated damage and risk results from EconoMe to visualize them in your QGIS project.
IMPORTANT: You need to have an EconoMe User Account in order to use the plugin!MeasureCalculator QGIS plugin for calculates area, perimeter, and length for selected features with automatic reprojection for accuracy. iNaturalist Extractor Extract data from iNaturalist database from an extent. 3D IO Plugin for converting to and from popular 3D data formats. Add Legend Labels to Layer Attributes Plugin to extract legend labels from the current layer style and assigns them as attribute values to the corresponding features. Georondonia Tools for the georeferencing of rural properties in Settlement Projects or Land Projects, based on the updated Technical Manual for Georeferencing of Rural Properties from the National Institute of Colonization and Agrarian Reform (INCRA), and for the Rural Environmental Registry (CAR). Temporal Resample This plugin uses as input a user vector layer that has a temporal field and resamples it to a new time spacing provided by the user. tomofast_x_q Supports Tomofast-x geophysical inversion code geol_qmaps The geol_qmaps plugin facilitates legacy field data import, fieldwork preparation and post-fieldwork processing using the geol_qmaps QGIS mapping template developed by the WAXI Team. LibreGeoLens Experiment with MLLMs to analyze remote sensing imagery. Equalyzer – Split Polygons into Equal Areas or Parts Splits polygons into equal areas or equal parts easily EBVCubeVisualizer Visualize biodiversity-related netCDF data within QGIS. Gender Enabling Environments Spatial Tool (GEEST) Gender Enabling Environments Spatial Tool. Topaze Add to QGIS capability to compute topographical survey with data fom field recorder. GDI This plugin is designed to facilitate seamless discovery and access to data available on the GDI platform by leveraging its integrated APIs: the Data Explorer, Authorization Server, and OGC Resource Server.
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
11:00
Mappery: Petrofuture at the Georgetown Steam Plant
sur Planet OSGeoConspiracy of Casrtographers shared this mock-up image of seven Petrofuture maps on display in the boiler room of the Georgetown Steam Plant. For more on Petrofuture have a look at [https:]]
-
10:36
Mise à jour ArcGIS Urban - Mars 2025
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierA l'occasion du salon "BIM World - Jumeau Numérique", nous avons eu l'occasion de présenter différentes thématisation des Jumeaux Numériques des territoire, notamment autour de l'aménagement et de l'urbanisme. Dans le système ArcGIS c'est la solution ArcGIS Urban qui permet de construire et d'exploiter le Jumeau Numérique pour le suivi, l'évaluation et la planification de sa stratégie de développement urbain.
Présentations ArcGIS Urban - BIM World - Jumeaux Numériques 2025
ArcGIS Urban évolue vite et l'année 2025 sera une année importante en terme d'innovation et d'accélération de l'adoption. Depuis quelques jours, les utilisateurs d'ArcGIS Urban sur ArcGIS Online peuvent bénéficier d'une nouvelle mise à jour Dans cette nouvelle version, Esri propose notamment une refonte de la gestion des projets. Grâce à ces nouveaux projets, les urbanistes peuvent désormais importer des modèles 3D dans la base de données 3D d'Urban et analyser leur impact sur l'environnement. La partie "projets" bénéficie notamment d'une nouvelle interface utilisateur qui simplifie l'expérience de mise à jour des scenarii du projet mais également l'ensemble du contexte de planification et de suivi des projets d'aménagement (démolition, ajout de modèles, dessin interactif, ajout d'actifs, analyses, mesures, ...) dans ArcGIS Urban.
Gérer l'aménagement de vos sites avec des projets
Selon l'état d'avancement d'un projet, les urbanistes travaillent généralement avec différents niveaux de détail à partir des informations disponibles. De l'intention initiale d'un aménagement, dont seul l'emplacement peut être connu, à une esquisse représentant le volume d'un bâtiment ou d'un ouvrage, jusqu'à une maquette 3D ou un modèle BIM détaillé, vous pouvez désormais représenter toutes les étapes du cycle de vie d'un aménagement dans ArcGIS Urban.
Une nouvelle expérience d'édition pour les projets
Que vous ayez déjà des projets dans votre modèle ArcGIS Urban ou que vous en créiez un nouveau, vous pouvez désormais accéder à la nouvelle expérience d'édition. Vous configurez les informations du projet, telles que le nom, l'imagette associée, le statut et la description, dans le nouveau mode d'information, le tout depuis un seul et même endroit.
En mode développement, vous pouvez télécharger des modèles 3D, dessiner des volumes et des surfaces et ajouter des ressources telles que des arbres pour une représentation avec une niveau de détail plus fin de votre projet. Avec ce nouveau workflow d'édition, vous pourrez désormais ajouter plusieurs ressources descriptives de vos projets beaucoup plus facilement.
Une nouvelle barre d'outils d'édition est située juste en dessous des éléments sélectionnés dans le projet. Elle vous permet d'explorer toutes les options d'édition disponibles, y compris la sélection multiple, et d'effectuer des modifications directement dans la scène.
Toutes les fonctionnalités de l'ancien éditeur de projet se trouvent désormais dans la nouvelle expérience de l'éditeur de projet. Ce dernier s'accompagne également d'une navigation améliorée et d'une interface utilisateur plus ordonnée.
Téléchargez vos modèles 3D
Lorsqu'un projet d'aménagement atteint le point où un architecte ou un promoteur soumet un modèle 3D détaillé, par exemple pour obtenir un permis de construire, le responsable de dossier ou l'équipe d'urbanisme souhaite pouvoir généralement afficher, visualiser et vérifier rapidement ce modèle dans le contexte environnant.
La nouvelle fonctionnalité de téléchargement de modèles 3D permet aux urbanistes d'accéder à ce flux de travail dans ArcGIS Urban. Différents formats sont pris en charge : IFC, DWG, FBX, glb, glTF, USDC, USDZ et OBJ. Le fichier d'origine est téléchargé et stocké dans votre système d'enregistrement 3D sans aucune modification.
En arrière-plan, le modèle 3D est converti et stocké en tant que couche de scène d'objets 3D (3D Objects Scene Layer). Cette étape vous permet d'ajuster le positionnement de votre modèle 3D dans l'éditeur de projet. Une fois le téléchargement finalisé, le modèle 3D s'affiche dans la scène et vous pouvez ajuster l'élévation, l'orientation, l'échelle et les coordonnées exactes pour le positionner avec précision.
Les performances d'affichage et de modification des modèles 3D peuvent être optimisées en suivant quelques bonnes pratiques de création de modèles 3D. Vous pouvez les consulter dans la documentation.
Analyser l'impact d'un projet
Maintenant que votre aménagement est doté d'un modèle 3D détaillé, vous pouvez utiliser le nouveau mode d'analyse pour comprendre l'impact du projet. Ce mode vous permet, pour l'instant, d'utiliser les outils d'analyse déjà familiers : projection d'ombre, profil d'élévation, ligne de visibilité et champ de vision.
Une nouveauté intéressante dans cette mise à jour, vous pouvez désormais sauvegarder vos analyses et les récupérer ultérieurement à partir de la liste des analyses déjà réalisées.
Les outils de ligne de visibilité et de champ de vision sont également dotés d'une interface utilisateur supplémentaire dans laquelle vous pouvez configurer les points d'observation à l'aide de coordonnées exactes, y compris la hauteur exacte au-dessus du sol, par exemple pour imiter la perspective piétonne.
Utiliser les projets comme contexte de planification
Dans ArcGIS Urban, les projets font totalement partie du jumeau numérique : ils peuvent être visualisés et utilisés dans le cadre d'autres activités de planification, et pas uniquement dans l'interface de gestion des projets. Dans l'aperçu ci-dessous, vous pouvez afficher les projets avec leurs modèles 3D détaillés ou uniquement avec les volumes de bâtiments, ils sont alors colorés selon leur statut. Vous obtenez ainsi un aperçu spatial rapide de la situation de votre territoire.
De plus, les projets sont présentés dans le cadre des plans de zonage et d'aménagement des espaces, avec leurs modèles 3D détaillés. Cette nouvelle fonctionnalité permet aux urbanistes d'avoir une vue d'ensemble de ce qui se passe actuellement (ou dans le futur) dans le cadre de leurs plans à long terme.
Et enfin, très pratique, vous pouvez désormais afficher dans l'éditeur de projets, les projets environnants avec leurs modèles 3D pour placer et afficher votre projet d'aménagement dans le contexte d'un quartier.
Autres nouveautés
Bien que cette version se concentre sur les nouveaux projets, voici quelques autres mises à jour à ne pas manquer :
Télécharger des images de vos plans d'aménagement comme contexte pour vos plans ArcGIS Urban
Dans les dernières versions d'ArcGIS Online, Esri a ajouté la prise en charge des couches multimédias dans les couches scènes web. Cette mise à jour d'ArcGIS Urban vous permet donc d'importer des images, telles que des plans d'aménagement, directement dans votre plan, de les géoréférencer et de les stocker sous forme de couches multimédias dans le scénario souhaité de votre plan.
Le nouveau téléchargement d'images dans l'éditeur de plans est doté de plusieurs fonctionnalités pratiques telles que la persistance des points de contrôle lors du téléchargement d'une nouvelle version d'une image ou la possibilité de modifier l'ordre des images qui se chevauchent lorsque votre scénario contient plusieurs plans.
Pour la liste complète des nouvelles fonctionnalités et améliorations d'ArcGIS Urban, vous pouvez consulter les notes de version.
Mises à jour de l'API d'ArcGIS Urban
L'API d'ArcGIS Urban permet d'interagir, depuis une application tierce, avec les couches d'un modèle ArcGIS Urban (les plans et les projets notamment). Dans cette version, l'API Urban a ajouté la prise en charge des nouveaux projets via le champ ObjectSceneLayerItemId pour récupérer la couche d'entités d'objet 3D associée au projet, ainsi que les couches MediaLayers sur les branches qui peuvent être interrogées pour accéder aux couches multimédias téléchargées dans les plans.
De plus, les configurations d’analyse des outils d’analyse conservés dans la base de données peuvent être interrogées via l’API Urban et peuvent être utilisées pour répliquer la même analyse dans d’autres outils.
Vous pouvez consulter les notes de version de l'API d'Urban via cette page.
En résumé
Les nouveaux projets d'ArcGIS Urban pour la gestion des aménagements de sites vous permettent de passer d'une vue d'ensemble des activités de développement urbain à une représentation spatiale partagée et détaillée des projets à différentes étapes du processus.
La nouvelle fonctionnalité de téléchargement 3D pour les projets supprime le besoin d'expertise technique ou d'outils spécifiques pour afficher et comprendre les modèles 3D dans leur contexte. Les fichiers originaux de différents formats peuvent être stockés pour être récupérés et archivés, faisant d'ArcGIS un puissant système d'archivage 3D pour la planification urbaine.
Grâce aux nouvelles capacités d’analyse, les analyses de projets peuvent être menées de manière concluante et complète, créant ainsi une compréhension partagée de l’impact des projets et rendant la collaboration entre les aménageurs, les décideurs et les autres parties prenantes plus efficace.
Comme toujours, n'hésitez pas à nous faire part de vos commentaires ou questions en contactant l'équipe Urban et les autres utilisateurs d'ArcGIS Urban via la page de la communauté ArcGIS Urban Esri.
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:29
Oslandia: (Fr) [Replay] Webinaire – La collaboration autour de QGIS
sur Planet OSGeoSorry, this entry is only available in French.
-
9:12
3D Racing Games
sur Google Maps ManiaGLENN is a fun (though very basic) driving game built on a 3D Mapbox map. Essentially, it lets you drive a small 3D car around a map of any location in the world.A lot of the appeal of GLENN comes from being able to explore a 3D version of your own neighborhood. However, there are several other enjoyable features that help keep the game interesting. For example, there are four time-trial
-
7:44
Grand Belfort immersif
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueDans sa démarche de création d’un jumeau numérique du territoire, la Communauté d’agglomération du Grand Belfort (90) a acquis des données sur l’extérieur des bâtiments. Au-delà de cette vue, elle ambitionne également de capturer l’intérieur de certains établissements publics. Le premier bâtiment bénéficiant de cette couverture est le multiaccueil « Les petits artistes » dans le quartier des Glacis du château. À l’aide du BIM mêlé à l’imagerie orientée et ArcGIS Indoors, une vue immersive est proposée. Elle permet de visiter les lieux à distance. Dans ce cas, allier le BIM et les vues immersives contribue à l’attractivité de cet établissement. C’est un outil de communication destiné aux parents de la CA. La piscine de Belfort et le théâtre Grrranit disposent aussi de leur numérisation pour des usages plus orientés sur la maintenance, le suivi des réseaux ou des travaux.
+ d'infos :
an.fr
-
2:00
GeoServer Team: Mastering WFS Transactions in GeoServer
sur Planet OSGeoGeoSpatial Techno is a startup focused on geospatial information that is providing e-learning courses to enhance the knowledge of geospatial information users, students, and other startups. The main approach of this startup is providing quality, valid specialized training in the field of geospatial information.
( YouTube | LinkedIn | Facebook | X )
Mastering WFS Transactions in GeoServer: A Comprehensive GuideIn this session, we’ll explore WFS transactions available in GeoServer. If you want to access the complete tutorial, click on the link.
IntroductionThe Web Feature Service (WFS) transactions in GeoServer, enable users the ability to manipulate geographic data for serving and editing geospatial information over the web. This feature allows for direct editing of spatial features within a dataset through a web browser or application, without needing to download and edit the data locally.
WFS transactions in GeoServer allow users to dynamically edit spatial data by sending XML requests to insert, update, or delete features. This real-time editing is crucial for applications like online maps and collaborative planning systems. It improves efficiency, data accuracy, and supports real-time collaboration.
Note. This video was recorded on GeoServer 2.22.4, which is not the most up-to-date version. Currently, versions 2.25.x and 2.26.x are supported. To ensure you have the latest release, please visit this link and avoid using older versions of GeoServer.
Note. In all examples in this blog post, we utilize the
WFS Insert Featuretopp:tasmania_roads
layer.The Insert Feature operation, when used with GeoServer’s WFS transaction feature, allows users to append new features to an existing dataset. This ensures the new feature is securely added to the layer, preventing data duplication and errors.
Note. Backup your data and configuration before making any changes to avoid potential data loss or unexpected behavior.
Here is an example of how to use the WFS insert feature in GeoServer:
- Navigate to the Demos page, then click on the Demo requests link.
- From the Request drop-down list, select WFS_transactionInsert.xml.
-
Enter the new coordinates and road’s type as follows:
<wfs:Insert> <topp:tasmania_roads> <topp:the_geom> <gml:MultiLineString srsName="http://www.opengis.net/gml/srs/epsg.xml#4326"> <gml:lineStringMember> <gml:LineString> <gml:coordinates decimal="." cs="," ts=" "> 145.2,-42.5 145.2,-43.3 145.8,-43.3 </gml:coordinates> </gml:LineString> </gml:lineStringMember> </gml:MultiLineString> </topp:the_geom> <topp:TYPE>street</topp:TYPE> </topp:tasmania_roads> </wfs:Insert>
- Remember that using the WFS transaction in GeoServer requires appropriate permissions and access rights to ensure that only authorized users can modify the data. Enter the username and password to be authorized, and then press the Submit button.
- GeoServer processes the transaction request. If successful, it adds the new feature to the road layer; if unsuccessful, a relevant error information is displayed and no changes are made to the data.
- Navigate to the Layer Preview section and open up the OpenLayers preview for the
tasmania_roads
layer. Your map should now look like this:
You have successfully used the insert feature with WFS transaction in GeoServer to add a new street to your dataset.
WFS Update FeatureThe Update feature of the WFS transaction in GeoServer enables users to modify existing features within a geospatial dataset. By submitting a request that specifies both the feature type and the desired changes to attributes and geometry, users can efficiently update specific attributes while altering the shape, location, and size of various features.
Here are the steps to perform an update feature with WFS transaction in GeoServer:
-
Select WFS_transactionUpdateGeom.xml from the Request drop-down list, then edit the codes as follows:
<wfs:Update typeName="topp:tasmania_roads"> <wfs:Property> <wfs:Name>the_geom</wfs:Name> <wfs:Value> <gml:MultiLineString srsName="http://www.opengis.net/gml/srs/epsg.xml#4326"> <gml:lineStringMember> <gml:LineString> <gml:coordinates>145.55,-42.7 145.04,-43.04 145.8,-43.4</gml:coordinates> </gml:LineString> </gml:lineStringMember> </gml:MultiLineString> </wfs:Value> </wfs:Property> <ogc:Filter> <ogc:FeatureId fid="tasmania_roads.15"/> </ogc:Filter> </wfs:Update>
- Enter the username and password to be authorized, and then press the Submit button.
- After the GeoServer has processed the transaction request, go back to the Layer Preview section and open up the OpenLayers preview for the
tasmania_roads
layer. Your map should now look like this:
WFS Delete FeatureThis operation allows users to selectively remove specific features from a dataset by providing their unique identifiers. The process of deleting features can be seamlessly executed through the WFS transaction capabilities in GeoServer.
This functionality gives users more control over their geospatial database, helping them manage and manipulate data efficiently. As an example, let’s remove the features whose type attribute is equal to
road
. To do this, follow the steps displayed on the screen:-
Select WFS_transactionDelete.xml from the Request drop-down list, then edit the codes as follows:
<wfs:Delete typeName="topp:tasmania_roads"> <ogc:Filter> <ogc:PropertyIsEqualTo> <ogc:PropertyName>topp:TYPE</ogc:PropertyName> <ogc:Literal>road</ogc:Literal> </ogc:PropertyIsEqualTo> </ogc:Filter> </wfs:Delete>
- Enter the username and password to be authorized, and then press the Submit button.
- After the GeoServer has processed the transaction request, preview for the
tasmania_roads
layer. As you can see, the features of typeRoad
have been deleted.
Remember that you can define filter conditions to remove the specific features using the WFS Delete transaction. This can include feature IDs, attributes, spatial extent or other criteria.
-
Again, select WFS_transactionDelete.xml from the Request drop-down list, then edit the codes as follows:
<wfs:Delete typeName="topp:tasmania_roads"> <ogc:Filter> <ogc:FeatureId fid="tasmania_roads.15"/> </ogc:Filter> </wfs:Delete>
- Enter the username and password to be authorized, and then press the Submit button.
- After the GeoServer has processed the transaction request, open the OpenLayers preview for the
tasmania_roads
layer from the Layer Preview section. As you can see, thefid 15
has been deleted.
In this session, we took a brief journey to explore WFS Transaction to insert update and remove features in GeoServer. If you want to access the complete tutorial, click on the link.
-
16:59
Nous aurons toujours besoin des forêts
sur Les cafés géographiquesGigantesques incendies de forêts en Californie, déforestation en Amazonie, développement de la filière bois dans de nombreux pays… autant d’aspects qui soulignent l’importance des forêts dans le monde actuel. A l’heure de l’anthropocène, les écosystèmes forestiers présentent des enjeux environnementaux majeurs dans la mesure où leur rétraction spatiale contribue à l’accélération du changement climatique.
Laurent Testot (à droite) interviewé par Gilles Fumey (à gauche) Photo M. Huvet-Martinet
Mardi 25 mars nous avons reçu Laurent Testot (L.T), pour aborder les enjeux contemporains de la forêt en se plaçant dans une perspective géo-historique transdisciplinaire de longue durée et globale de l’humanité sur de longues distances. Laurent Testot, journaliste scientifique, est l’auteur de plusieurs ouvrages d’histoire environnementale et présente ce soir sa dernière publication : les Forêts *.
Les écosystèmes forestiers.
Les forêts existent depuis environ 400 millions d’années bien avant l’arrivée de l’homo Sapiens en Europe (vers -47 000 ans) ; elles couvraient alors les 2/3 de la surface terrestre et étaient plutôt constituées de grandes fougères avec des écorces très épaisses. Les forêts (actuellement un tiers de la surface terrestre mondiale, un tiers du territoire français) rendent de multiples (une quinzaine) services écosystémiques : fournissent de l’oxygène, de la fraicheur, de l’humus, du bois, protègent les sols de l’érosion, abritent la biodiversité…Le rôle de l’humus est essentiel mais pour qu’il se constitue positivement il faudrait laisser les forêts intactes en libre évolution.
« Le carbonifère : un enfer » ? Il y a 359 millions d’années, ce fut un moment important quand cette énorme masse végétale, largement composée d’écorces, se fait piéger avec des masses d’eau pour pourrir et fermenter sous fortes pressions et former un énorme capital énergétique : les couches de charbon actuellement exploitées. La parabole de l’enfer vient du fait qu’il reste suffisamment de réserve pour nous faire monter en enfer ; on brûle ce charbon en émettant du CO2 qui pollue l’atmosphère alors même qu’on déforeste. Ce charbon sera one shot : à priori on n’en reconstituera jamais une telle quantité.
« La forêt est notre mère » : les hominidés frugivores en sont en effet sortis il y a 10 millions d’années. Nous sommes les héritiers d’une sélection naturelle liée au fait que nous avons un gène qui nous permet de digérer l’alcool et qui nous a permis de manger les fruits trop mûrs tombés des arbres, riches en éthanol.
Les grands éléphantidés dont on estime qu’il y en avait 27 espèces sur les différents continents (y compris en Amérique), il y a 100 millions d’années, (il n’en reste plus que trois) ont été la force motrice du déboisement de la terre en créant des clairières et des corridors qui ont permis la progression des prairies. Ils se nourrissaient en se procurant du fourrage par les feuillages ou des fruits dont ils étaient friands.
Le facteur feu. Pour certains auteurs les brulis anthropiques remonteraient à 1,5million d’années en Afrique. Nos ancêtres ont maitrisé le feu probablement il y a 800 000 à 900 000 ans et avec certitude il y a 300 000 ans. Ils ont pratiqué très tôt l’écobuage c’est-à-dire mettre le feu dans un milieu déterminé pour y faire bruler la matière combustible. Les aborigènes d’Australie l’ont pratiqué depuis au moins 40 000 ans. L’homme de Néandertal le pratiquait aussi. Les Grandes Prairies d’Amérique du Nord auraient été créées et entretenues par les Amérindiens pour encourager les troupeaux de bisons qui constituaient leur réserve de nourriture. D’autres peuples avaient appris depuis longtemps à gérer les forêts pour dégager les sous-bois afin d’y fixer de grands herbivores tels les cerfs ou wapitis ou même des plus petits animaux comme les castors ou les dindons.
Rôle des glaciations. Les cycles glaciaires depuis 2,6 millions d’années ont duré depuis environ 1 million d’années sur des périodes glaciaires de 100 000 ans en alternance avec des périodes plus tempérées de 10 000 à 20 000 ans dont la dernière il y a 11 700 ans, l’Holocène correspond au néolithique. Les hommes ont contribué alors à la disparition de plus de la moitié des grands animaux qui régulaient la forêt et consommaient les graines des arbres en les déplaçant ce qui permettait de conquérir de nouveaux milieux. Ainsi la courge en Amérique aurait dû disparaitre en même temps que ces animaux mais les hommes sont parvenus à la replanter, la domestiquer et la cultiver en la déclinant sous diverses formes, empêchant les forêts de reprendre du terrain. Les humains en un processus assez lent ont co-évolué avec les forêts et les ont menées dans des états différents avec des biodiversités diverses, relativement pauvres dans les forêts européennes en comparaison des écosystèmes des régions tropicales. Il n’y a que 250 à 350 espèces d’arbres indigènes en Europe.
Les forêts permettent les économies d’énergie, sont les championnes du durable et de la biodiversité. Les arbres par leur réseau radiculaire sont essentiels pour le cycle de l’eau. Ils déploient leurs feuilles sur la canopée, captent le CO2 et limitent l’apport de lumière dans le sous-bois. L’eau afflue en grande quantité par leurs racines et les feuilles en évaporant une grande partie ce qui apporte de la fraicheur estivale. Les forêts fertilisent les sols par leur humus, abritent la biodiversité, filtrent l’air et régulent le cycle de l’eau.
La déforestation. Elle a été entamée très tôt par les hommes qui ont su fabriquer du charbon de bois, à forte valeur énergétique pour faire monter en température les fours des potiers puis ceux des sidérurgistes à l’âge des métaux. La forêt disparait alors progressivement car elle sert de combustible. Les Romains et les Chinois sont considérés comme de grands dévastateurs. Les Romains ont déboisé massivement car leur civilisation est une grosse consommatrice d’énergie notamment pour les hypocaustes des thermes ; ils ont été très loin jusqu’en Belgique et Anatolie pour trouver du bois. Ils voient la forêt comme un espace sauvage (désigné par le mot silva devenu selve en bas latin) vierge d’influence humaine où se multiplie le gros gibier. Le terme forêt apparait tardivement (vers le xième s) venu de selve forestis, désignant plutôt une réserve de chasse laissée aux nobles qui s’approprient progressivement les forêts d’Europe au moyen-âge et multiplient les droits (taxes) sur leurs multiples usages. La forêt devient alors le territoire des puissants aménagé en mode cynégétique.
Les aléas climatiques peuvent être importants. Quand il y a refroidissement la forêt repart par déprise, comme au haut moyen-âge quand la température baisse de de 2 à 3° C pendant quelques décennies entrainant une baisse démographique et une déprise agricole. Il peut y avoir alors des changements politiques : on expliquerait ainsi les successions dynastiques en Chine. Le cas de la Chine des Song (XIIe s) est à cet égard intéressant.
Le reboisement et le sauvetage des forêts sont liés à la surexploitation. A la fin du moyen-âge la forêt n’occupe en France que 25% du territoire, ce ne sera plus que 12% fin XVIIIe s et 8% début XIXème (ce sera le point le plus bas) car la Revolution Française a ouvert largement les à tous les habitants.
L’époque moderne a vu l’apparition d’administrations forestières dans les régions les plus menacées. C’est dans ce contexte qu’il faut replacer l’action essentielle de Colbert. C’est surtout la géopolitique qui a poussé la royauté à légiférer pour sauver ses forêts. La compétition se jouant sur mers, il fallait être capable aligner des marines de guerre de plus en plus puissantes pour contrôler les voies maritimes vers les colonies. La France est alors en retard sur ses concurrents britannique et hollandais. Les grands navires de l’époque étaient des forêts flottantes : chacun d’entre eux nécessitait plusieurs milliers de m3 de bois. Colbert, dès qu’il est nommé intendant des finances du roi, se saisit de cette question prioritaire et initie toute une série de mesures pour limiter les droits d’usage sur les forêts et surtout créer les fondements d’une exploitation rationnelle des forêts en plantant des futaies de hêtres et de chênes pouvant fournir les hauts mats nécessaires à la marine de guerre. Sachant qu’il faut environ deux siècles pour faire pousser de tels arbres, ils ne furent jamais utilisés pour la marine : Colbert ne pouvait pas anticiper les navires cuirassiers à vapeur fin XIXe s !
Une des grandes urgences au XIXe s c’est de replanter en Europe (alors qu’on continue à déforester la forêt tropicale dans les colonies notamment pour les plantations de sucre comme au Brésil) d’autant qu’avec la révolution industrielle la demande en bois est importante pour étayer les galeries des mines. On s’inspire des Allemands qui ont déjà reboisé essentiellement en résineux parce qu’ils poussent vite et droit. Une école royale forestière est créée à Nancy en 1824. Dès lors une véritable technocratie de la foresterie se développe en voulant souvent faire des forêts utiles donc le plus souvent monospécifiques, c’est-à-dire composées à plus de 75% d’une seule espèce d’arbres comme dans les Landes. Ces forêts sont fragiles et il faut s’en occuper : c’est le rôle de l’ONF créé en 1964 dans une optique productiviste. Les forêts les plus biodiverses proviennent de l’exode rural et de la déprise agricole.
Les forêts rendent de multiples services : sociétaux, économiques et surtout, à l’heure du réchauffement climatique, écologiques. Il faut arbitrer pour les préserver et ne pas compter sur l’action de l’Etat. De nombreux collectifs citoyens s’emparent de ces questions et s’investissent pour racheter des espaces forestiers qu’ils reboisent et laissent en libre évolution. La fondation Francis Hallé vise à reconstituer une forêt primaire d’environ 70 000 ha en Europe (en Alsace ou dans les Ardennes ?) : c’est un projet d’avenir unique puisqu’ il faudrait la laisser en libre évolution sans intervention humaine pendant 800 ans !
Les mégafeux sont hors normes et dévastateurs. Ils sont liés au fait que les espaces sont inhabités ou non entretenus alors qu’autrefois les habitants prélevaient de la biomasse qui maintenant s’accumule (elle a triplé en France au cours du XXe s). Les ronces, les branches ne sont plus prélevées accumulant du matériau qui avec les stress hydriques fournissent du combustible. Sur de grandes surfaces comme au Canada, Australie, Californie…ces feux créent eux-mêmes les conditions de leur entretien et se propagent très vite. Pour lutter il faut rétablir l’écobuage traditionnel et réhabiter les forêts. Le seul mégafeu répertorié comme tel en France a eu lieu dans les Landes en 1947.
Questions de la salle :
Forêt de Bialowieza : seule et dernière forêt primaire d’Europe ? Pas vraiment d’après L.T car elle a été une réserve de chasse royale et n’a été laissée » tranquille » que depuis 500 ans, ce qui est insuffisant. Il faudrait plutôt parler de « forêt ancienne » avec une grande richesse biologique et de biodiversité comme certaines forêts en Roumanie et Bulgarie. Pour L.T il n’y a plus de forêts primaires : il faut remonter avant l’holocène pour en trouver. Sur cette forêt déjà évoquée aux cafés de géo voir [https:]]
Rôle de la sécheresse actuelle sur la pousse des arbres ? Elle oblige, pour reboiser, à ne pas utiliser de graines à germer mais à planter les jeunes arbres génétiquement sélectionnés grandis préalablement, ce qui donne des racines superficielles : l’arbre est de ce fait moins résistant aux coups de vent mais supporte mieux les stress hydriques. Les arbres sont très résistants aux changements climatiques : ils s’adaptent bien notamment en élargissant leur période génétique. On connait mal encore les capacités d’adaptation des arbres mais elles sont considérables.
La forêt comme « bien commun ». L’idée était d’utiliser autrefois des ressources (hors la chasse) qui étaient dédaignées par les puissants souvent propriétaires des lieux, pour en laisser la jouissance au menu peuple, moyennant le plus souvent le paiement de droits très divers suivant les lieux : il s’agissait de ramasser du bois mort, des champignons, des glands (droit de glandée), de faire paitre des animaux… Il s’agissait aussi surtout, le plus souvent d’utiliser les landes qui ont énormément reculées en France. Les communautés paysannes savaient utiliser la biodiversité de ces écosystèmes pour en exploiter les diverses ressources. Les forêts d’autrefois étaient moins étendues et moins denses qu’actuellement avec moins de biomasse mais elles étaient beaucoup plus biodiverses donc d’une plus grande richesse.
*Laurent Testot, les forêts : des forêts primaires aux enjeux du XXIème siècle, Ed. Frémeaux & Associés, Paris 2024
Micheline Huvet-Martinet, avril 2025
-
11:00
Mappery: Manhattan
sur Planet OSGeoEnclosure: [download]
My mum sent me this picture for my birthday—her first Map in the Wild.
-
2:33
Sean Gillies: Bug Club at Hi-Dive, April 1
sur Planet OSGeoTuesday, April 1, Ruthie and I, and a couple of friends, drove to Denver to see The Bug Club at the Hi-Dive on South Broadway. The Bug Club have become one of my favorites over the past two years, since I first heard them on a WFMU show. I can't remember if it was Joe Belock's or Todd-o-Phonic Todd's. I was extremely excited to see them, and to see them with Ruthie. We're going to Denver to see music less frequently as we get older, so this was a special occasion. The Breeders at The Ogden in 2018 was our last show in Denver, if I recall correctly.
The Hi-Dive is a small club with a modest stage and no seating, only an open floor in front of the stage. I don't think there is any backstage, either. Bands enter and leave the stage using steps at the front of the stage. It's unabashedly no-frills and I liked it.
Ducks Limited were nominally the main act. I've listened to them a little and they're good, if not exactly my cup of tea. The opening act was Denver's own Mainland Break. Like Ducks Ltd., they play a jangly 80's pop, but also channel the Replacements on stage. I enjoyed their short set.
The effect of putting The Bug Club between these bands was a bit like giving the Minutemen a long set in the middle of an REM show in 1983. They tore through 20 songs in a little over an hour with humor and grace but otherwise no break. Every song from The Intricate Inner Workings of The System, minus Actual Pain and Cold Hard Love (which I love), a new single, and from earlier albums: Marriage, Cheap Linen, Short and Round, It's Art, and Little Coy Space Boy. There were songs I didn't recognize, including one with dueling spiels between Sam and Tilly, that especially reminded me of the Minutemen, what with their physically imposing and proficient producer Tom Rees driving the drumbeat, Sam's buzzed head, and it being D. Boon's birthday. Uncanny!
The Bug Club setting up at Denver's Hi-Dive club.
I'm looking forward to my next chance to see The Bug Club. They really did put on a satisfying show.
-
21:46
TorchGeo: v0.7.0
sur Planet OSGeoTorchGeo 0.7.0 Release NotesTorchGeo 0.7 adds 26 new pre-trained model weights, 33 new datasets, and more powerful trainers, encompassing 7 months of hard work by 20 contributors from around the world.
Highlights of this releaseNote
The following model and dataset descriptions were generated by an imperfect human, not by an LLM. If there are any inaccuracies or anything else you would like to highlight, feel free to reach out to @adamjstewart.
Growing collection of foundation modelsTorchGeo has a growing collection of Earth observation foundation models, including 94 weights from 13 papers:
- GASSL (@kayush95 et al., 2020): Uses spatially aligned images over time to construct temporal positive pairs and a novel geo-location pretext task. Great if you are working with high-resolution RGB data such as Planet or Maxar.
- SeCo (@oscmansan et al., 2021): Introduces the idea of seasonal contrast, using spatially aligned images over time to force the model to learn features invariant to seasonal augmentations, invariant to synthetic augmentations, and invariant to both.
- SSL4EO-S12 (@wangyi111 et al., 2022): A spiritual successor to SeCo, with models for Sentinel-1/2 data pretrained using MoCo, DINO, and MAE (new).
- Satlas (@favyen2 et al., 2022): A collection of Swin V2 models pretrained on a staggering amount of Sentinel-2 and NAIP data, with support for single-image and multiple-image time series. Sentinel-1 and Landsat models were later released as well.
- Scale-MAE (@cjrd et al., 2022): The first foundation model to explicitly support RGB images with a wide range of spatial resolutions.
- SSL4EO-L (@adamjstewart et al., 2023): The first foundation models pretrained on Landsat imagery, including Landsat 4–5 (TM), Landsat 7 (ETM+), and Landsat 8–9 (OLI/TIRS).
- DeCUR (@wangyi111 et al., 2023): Uses a novel multi-modal SSL strategy to promote learning a common representation while also preserving unique sensor-specific information.
- FG-MAE (@wangyi111 et al., 2023): (new) A feature-guided MAE model, pretrained to reconstruct features from histograms of gradients (HOG) and normalized difference indices (NDVI, NDWI, NDBI).
- CROMA (@antofuller et al., 2023): (new) Combines contrastive learning and reconstruction loss to learn rich representations of MSI and SAR data.
- DOFA (@xiong-zhitong et al., 2024): Introduced the idea of dynamically generating the patch embedding layer of a shared multimodal encoder, allowing a single model weight to support SAR, RGB, MSI, and HSI data. Great for working with multimodal data fusion, flexible channel combinations, or new satellites which don't yet have pretrained models.
- SoftCon (@wangyi111 et al., 2024): (new) Combines a novel multi-label soft contrastive learning with land cover semantics and cross-domain continual pretraining, allowing the model to integrate knowledge from existing computer vision foundation models like DINO (ResNet) and DINOv2 (ViTs). Great if you need efficient small models for SAR/MSI.
- Panopticon (@LeWaldm et al., 2025): (new, model architecture pictured above) Extends DINOv2 with cross attention over channels, additional metadata in the patch embeddings, and spectrally-continual pretraining. Great if you want the same features as DOFA but with even better performance, especially on SAR and HSI data, and on “non-standard” sensors.
- Copernicus-FM (@wangyi111 et al., 2025): (new) Combines the spectral hypernetwork introduced in DOFA with a new language hypernetwork and additional metadata. Great if you want to combine image data with non-spectral data, such as DEMs, LU/LC, and AQ data, and supports variable image dimensions thanks to FlexiViT.
TorchGeo now boasts a whopping 126 built-in data loaders. Shoutout to the following folks who have worked tirelessly to make these datasets more accessible for the ML/EO community: @adamjstewart @nilsleh @isaaccorley @calebrob6 @ashnair1 @wangyi111 @GeorgeHuber @yichiac @iejMac etc. See the above figure for a breakdown of how many datasets each of these people have packaged.
In order to build the above foundation models, TorchGeo includes an increasing number of large pretraining datasets:
- BigEarthNet (@gencersumbul et al., 2019): Including BEN v1 and v2 (new), consisting of 590K Sentinel-2 patches with a multi-label classification task.
- Million-AID (@IenLong et al., 2020): 1M RGB aerial images from Google Earth Engine, including both multi-label and mutli-class classification tasks.
- SeCo (@oscmansan et al., 2021): 1M images and 70B pixels from Sentinel-2 imagery, with a novel Gaussian sampling technique around urban centers with greater data diversity.
- SSL4EO-S12 (@wangyi111 et al., 2022): 3M images and 140B pixels from Sentinel-1 GRD, Sentinel-2 TOA, and Sentinel-2 SR. Extends the SeCo sampling strategy to avoid overlapping images. (new) Now with automatic download support and additional metadata.
- SatlasPretrain (@favyen2 et al., 2022): (new) Over 10M images and 17T pixels from Landsat, NAIP, and Sentinel-1/2 imagery. Also includes 302M supervised labels for 127 categories and 7 label types.
- HySpecNet-11k (@m.fuchs et al., 2023): (new) 11k hyperspectral images from the EnMAP satellite.
- SSL4EO-L (@adamjstewart et al., 2023): 5M images and 348B pixels from Landsat 4–5 (TM), Landsat 7 (ETM+), and Landsat 8–9 (OLI/TIRS). Extends the SSL4EO-S12 sampling strategy to avoid nodata pixels, and includes both TOA and SR imagery, composing the largest ever Landsat dataset. (new) Now with additional metadata.
- SkyScript (@wangzhecheng et al., 2023): (new) 5.2M images from NAIP, orthophotos, Planet SkySat, Sentinel-2, and Landsat 8–9, with corresponding text descriptions for VLM training.
- MMEarth (@vishalned et al., 2024): (new) 6M image patches and 120B pixels from over 1.2M locations, including Sentinel-1/2, Aster DEM, and ERA5 data. Includes both image-level and pixel-level classification labels.
- Copernicus-Pretrain (@wangyi111 et al., 2025): (new, pictured below) 19M image patches and 920B pixels from Sentinel-1/2/3/5P and Copernicus GLO-30 DEM data. Extends SSL4EO-S12 for the entire Copernicus family of satellites.
We are also expanding our collection of benchmark suites to evaluate these new foundation models on a variety of downstream tasks:
- SpaceNet (@avanetten et al., 2018): A challenge with 8 (and growing) datasets for instance segmentation tasks in building segmentation and road network mapping, with > 11M building footprints and ~20K km of road labels.
- Copernicus-Bench (@wangyi111 et al., 2025): (new) A collection of 15 downstream tasks for classification, pixel-wise regression, semantic segmentation, and change detection. Includes Level-1 preprocessing (e.g., cloud detection), Level-2 base applications (e.g., land cover classification), and Level-3 specialized applications (e.g., air quality estimation). Covers Sentinel-1/2/3/5P sensors, and includes the first curated benchmark datasets for Sentinel-3/5P.
TorchGeo now includes 10 trainers that make it easy to train models for a wide variety of tasks:
- Classification: including binary (new), multi-class, and multi-label classification
- Regression: including image-level and pixel-level regression
- Semantic segmentation: including binary (new), multi-class, and multi-label (new) semantic segmentation
- Instance segmentation: (new, example predictions pictured above) for RGB, SAR, MSI, and HSI data
- Object detection: now with (new) support for SAR, MSI, and HSI data
- BYOL: Bootstrap Your Own Latent SSL method
- MoCo: Momentum Contrast, including v1, v2, and v3
- SimCLR: Simple framework for Contrastive Learning of visual Representations, including v1 and v2
- I/O Bench: For benchmarking TorchGeo I/O performance
In particular, instance segmentation was @ariannasole23's course project, so you have her to thank for that. Additionally, trainers now properly denormalize images before plotting, resulting in correct "true color" plots in tensorboard.
Backwards-incompatible changesTorchGeo has graduated from alpha to beta development status (#2578). As a result, major backwards-incompatible changes will coincide with a 1 minor release deprecation before complete removal whenever possible from now on.
MultiLabelClassificationTask
is deprecated, useClassificationTask(task='multilabel', num_labels=...)
instead (#2219)torchgeo.transforms.AugmentationSequential
is deprecated, usekornia.augmentation.AugmentationSequential
instead (#1978, #2147, #2396)torchgeo.datamodules.utils.AugPipe
was removed (#1978)- Many objection detection datasets and tasks changed sample keys to match Kornia (#1978, #2513)
- Channel dimension was squeezed out of many masks for compatibility with torchmetrics (#2147)
dofa_huge_patch16_224
was renamed todofa_huge_patch14_224
(#2627)SENTINEL1_ALL_*
weights are deprecated, useSENTINEL1_GRD_*
instead (#2677)ignore
parameter was moved to a class attribute inBaseTask
(#2317)- Removed
IDTReeS.plot_las
, use matplotlib instead (#2428)
- PyVista (#2428)
- Python: drop support for Python 3.10 (#2559)
- Python: add Python 3.13 tests (#2547)
- Fiona: v1.8.22+ is now required (#2559)
- H5py: v3.8+ is now required (#2559)
- Kornia: v0.7.4+ is now required (#2147)
- Lightning: v2.5.0 is not compatible (#2489)
- Matplotlib: v3.6+ is now required (#2559)
- Numpy: v1.23.2+ is now required (#2559)
- OpenCV: v4.5.5+ is now required (#2559)
- Pandas: v1.5+ is now required (#2559)
- Pillow: v9.2+ is now required (#2559)
- Pyproj: v3.4+ is now required (#2559)
- Rasterio: v1.3.3+ is now required, v1.4.0–1.4.2 is not compatible (#2442, #2559)
- Ruff: v0.9+ is now required (#2423, #2512)
- Scikit-image: v0.20+ is now required (#2559)
- Scipy: v1.9.2+ is now required (#2559)
- SMP: v0.3.3+ is now required (#2513)
- Shapely: v1.8.5+ is now required (#2559)
- Timm: v0.9.2+ is now required (#2513)
- Torch: v2+ is now required (#2559)
- Torchmetrics: v1.2+ is now required (#2513)
- Torchvision: v0.15.1+ is now required (#2559)
- CaFFe (#2350)
- FTW (#2368)
- HySpecNet-11k (#2410)
- LandCover.ai 100 (#2262)
- MMFlood (#2450)
- ReforesTree (#2642, #2655)
- SpaceNet 6 (#2367)
- Substation (#2352)
- TreeSatAI (#2402)
- Fix support for large mini-batches in datamodules previously using RandomNCrop (#2682)
- I/O Bench: fix automatic downloads (#2577)
- Annual NLCD (#2387)
- BigEarthNet v2 (#2531, #2545, #2662)
- BRIGHT (#2520, #2568, #2617)
- CaFFe (#2350)
- Copernicus-Bench (#2604, #2605, #2606, #2607)
- Copernicus-Pretrain (#2686)
- DIOR (#2572)
- DL4GAM Alps (#2508)
- DOTA (#2551)
- EnMAP (#2543)
- EverWatch (#2583, #2679)
- FTW (#2296, #2699)
- GlobalBuildingMap (#2473)
- HySpecNet-11k (#2410, #2569)
- LandCover.ai 100 (#2262)
- MDAS (#2429, #2534)
- MMEarth (#2202)
- MMFlood (#2450)
- SatlasPretrain (#2248)
- SODA-A (#2575)
- Substation (#2352)
- TreeSatAI (#2402)
- Many objection detection datasets changed sample keys to match Kornia (#1978, #2513)
- BioMassters: rehost on HF (#2676)
- Digital Typhoon: fix MD5 checksum (#2587)
- ETCI 2021: fix file list when 'vv' in directory name (#2532)
- EuroCrops: fix handling of Nones in labels (#2499)
- IDTReeS: removed support for plotting lidar point cloud (#2428)
- Landsat 7: fix default bands (#2542)
- ReforesTree: skip images with missing mappings (#2668)
- ReforesTree: fix image and mask dtype (#2642)
- SSL4EO-L: add additional metadata (#2535)
- SSL4EO-S12: add additional metadata (#2533)
- SSL4EO-S12: add automatic download support (#2616)
- VHR-10: fix plotting (#2603)
- ZueriCrop: rehost on HF (#2522)
- GeoDataset: all datasets now support non-square pixel resolutions (#2601, #2701)
- RasterDataset: assert valid bands (#2555)
- Copernicus-FM (#2646)
- CROMA (#2370, #2652)
- FG-MAE (#2673)
- Panopticon (#2692)
- SoftCon (#2677)
- SSL4EO-S12 MAE (#2673)
- Timm models now support
features_only=True
(#2659, #2687) - DOFA: save hyperparameters as class attributes (#2346)
- DOFA: fix inconsistent patch size in huge model (#2627)
- Instance segmentation (#2513)
- All trainers now denormalize images before plotting, resulting in correct "true color" plots in tensorboard (#2560)
- Classification: add support for binary, multiclass, and multilabel classification (#2219)
- Classification:
MultiLabelClassificationTask
is now deprecated (#2219) - Object Detection: add support for non-RGB imagery (SAR, MSI, HSI) (#2602)
- Semantic Segmentation: add support for binary, multiclass, and multilabel semantic segmentation (#2219, #2690)
- Fix
load_from_checkpoint
to load a pretrained model (#2317) - Ignore
ignore
when saving hyperparameters (#2317)
- AugmentationSequential is now deprecated (#2396)
- SpaceNet is now properly documented as a benchmark suite
- Fix license for RESISC45 and VHR-10
- SatlasPretrain: fix table hyperlink
- Update list of related libraries (#2691)
- Add GeoAI to related libraries list (#2675)
- Add geobench to related libraries list (#2665)
- Add OTBTF to related libraries list (#2666)
- Fix file-specific test coverage (#2540)
- Customization: fix broken hyperlink (#2549)
- Trainers: document where checkpoints are saved (#2658)
- Trainers: document how to get the best model (#2658)
- Various typo fixes (#2566)
- Faster model testing (#2687)
- Codecov: move configuration file to subdirectory (#2361)
- Do not cancel in-progress jobs on main branch (#2638)
- Ignore prettier reformat in git blame (#2299)
This release is thanks to the following contributors:
@adamjstewart
@ando-shah
@ariannasole23
@ashnair1
@burakekim
@calebrob6
@DarthReca
@dcodrut
@giswqs
@isaaccorley
@japanj
@lccol
@LeWaldm
@lns-lns
@mdchuc
@nilsleh
@remicres
@rijuld
@sfalkena
@wangyi111 -
12:00
Mappery: Another map of Argentina on a cow hide
sur Planet OSGeoWe had a map like this a while ago but Raf wanted to share the one that he has in his home and I thought – why not?
-
9:50
The History Quiz Map!
sur Google Maps ManiaJourney Through Time: Test Your Knowledge with "1000 Years"!Are you a history buff? Do you love maps? If so, get ready for an exciting adventure through time with 1000 Years! This engaging map-based game challenges your knowledge of world history by asking you to guess the years of significant events.What is "1000 Years"?"1000 Years" is a unique educational game that combines geography and
-
11:00
Mappery: Map Origami
sur Planet OSGeoJavier Jimenez Shaw spotted this display in an opticians window in Berlin
-
9:52
The Treasure Hunting Game
sur Google Maps ManiaI’ve been having a great time this morning playing Geotreasure, a new game that challenges you to find a hidden location on a map by solving a series of geographic clues. The game is apparently based on the 'Treasure Island' board game, though I haven’t played the original, so I can’t say how closely it follows the source material.Each game takes place in one of three cities (currently Paris,
-
7:36
De la concentration à la fusion
sur Dans les algorithmesLes acteurs de l’IA générative intègrent de plus en plus les plateformes de contenus, à l’image de xAI de Musk qui vient de racheter X/Twitter, rappelle Ameneh Dehshiri pour Tech Policy Press. « Les entreprises technologiques ne se contentent plus de construire des modèles, elles acquièrent les infrastructures et les écosystèmes qui les alimentent ». Nous sommes désormais confrontés à des écosystèmes de plus en plus intégrés et concentrés…
-
7:34
Ecrire, c’est penser
sur Dans les algorithmes« L’écriture est l’activité la plus essentielle d’un scientifique, car sans écriture, il n’y a pas de réflexion ». Dennis Hazelett