Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
5900 éléments (29 non lus) dans 55 canaux

-
Cybergeo (8 non lus)
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique
-
Mappemonde (10 non lus)
-
Dans les algorithmes (1 non lus)

-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN (6 non lus)
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR

-
Géoblogs (GeoRezo.net)
-
Conseil national de l'information géolocalisée
-
Geotribu
-
Les cafés géographiques
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Icem7
-
Séries temporelles (CESBIO)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies (1 non lus)
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques (2 non lus)
-
Veille cartographie (1 non lus)
-
Makina Corpus
-
Oslandia
-
Camptocamp
-
Carnet (neo)cartographique
-
Le blog de Geomatys
-
GEOMATIQUE
-
Geomatick
-
CartONG (actualités)
Éléments non lus (29)
-
11:30
La passation des marchés publics : une entrée utile pour l’analyse des interactions spatiales dans l’espace français
sur CybergeoL’ouverture récente des données concernant la passation des marchés publics à l’échelle européenne permet d’accéder à des informations sur les acheteurs publics et sur les entreprises prestataires sélectionnées. Le « nettoyage » et géoréférencement de la base de données à l’échelle européenne Tenders Electronic Daily (TED) sur les marchés publics a permis de créer et mettre à disposition de tous une base à l’échelle du territoire français, la base French Open Public Procurement Award Notices (FOPPA). Cette base permet d’explorer de manière inédite les interactions entre des unités spatiales de différentes échelles. Elle offre la possibilité d’identifier les acteurs impliqués dans les marchés, leurs partenaires, ainsi que le type de marché, afin d’analyser et d’expliquer ces relations.
Dans cet article, nous illustrons les possibilités offertes par la base FOPPA, en produisant des analyses essentiellement descriptives des interactions, au prisme de la commande publique, aux échelles r... -
11:30
Searching for Data: Nature and Flow of Information Underlying Urban Wild Boar Management Policies. Bordeaux (France) as a Case Study
sur CybergeoNature in the city harbours a wide range of biodiversity. While some species are welcomed, others have settled in uninvited. This is the case with wild boar. The challenge of managing large urban wildlife is not only ecological but also cultural, political, and ethical. This study, driven by the general uncertainty surrounding the socio-ecological issues of coexistence with urban wild boar and potential solutions, explores and discusses the nature and flow of information underlying the specie’s management policies. Our approach is based on a field survey conducted in Bordeaux Metropolis, aimed at tracking the shared information between local stakeholders. The objectives are twofold: i) to gather and analyse existing data on urban wild boar, the problems generated by their presence in the city, and the management systems; ii) to model information flows between social groups facing the challenges of coexistence with wild boar or involved in their management. The study points to a lack...
-
11:30
Les micropolluants émergents dans les eaux littorales : représentations et enjeux de gestion d’un problème complexe. Le cas du Pays basque français
sur CybergeoLa qualité de l’eau du littoral basque français est un enjeu crucial pour les gestionnaires locaux. Parmi les dégradations qu’elle subit, les micropolluants représentent un défi majeur. Ces substances chimiques, aussi appelées polluants émergents, peuvent nuire à la santé humaine et à l’environnement malgré leur présence en faibles concentrations. Leur gestion est complexe en raison de leur diversité, de leurs origines multiples, d’une absence massive de réglementation et de la nécessité d’une approche globale et multi-niveaux pour réduire leur impact, ce qui en fait un "problème épineux". Cet article a pour objectif d’appréhender les dynamiques et les défis de la gestion de ces polluants en portant la focale sur les acteurs locaux et leurs représentations du problème. La gestion de l’eau implique divers acteurs publics et privés, chacun ayant des intérêts et des responsabilités variés. Pour cette étude, 65 acteurs ont été interrogés sur leurs visions de la situation locale et de la...
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
10:00
Ma Carte - Fonctionnalité "Carte statistique"
sur Toute l’actualité des Geoservices de l'IGNMa Carte, outil en ligne IGN de création et de publication de cartes à la disposition de tous les publics, enrichit encore sa fonctionnalité "Carte statistique".
-
10:00
Et si l’intégration d’un fond de carte IGN devenait… facile, pour tous ?
sur Toute l’actualité des Geoservices de l'IGNL’IGN, riche d’une offre variée et gratuite de fonds cartographiques (Plan IGN, SCAN 25, etc.), accessibles à l’ensemble des acteurs publics via le site [https:] propose de tester avec vous, de nouveaux fonds cartographiques adaptés à vos besoins et facilement intégrables par des développeurs et acteurs du numérique non spécialistes de la géomatique.
-
10:00
De nouvelles cartographies terrain grande échelle avec les données LiDAR HD ?
sur Toute l’actualité des Geoservices de l'IGNDepuis 2 ans, l’IGN (Institut national de l'information géographique et forestière) diffuse des nuages de points LiDAR HD et de nouveaux modèles numériques de Terrain (MNT) et de surface (MNS) sur une bonne partie du territoire national avec une résolution sans précédent de 50cm.
-
10:00
De nombreuses nouveautés arrivent avec la nouvelle version d’Admin Express (v4)
sur Toute l’actualité des Geoservices de l'IGNDepuis mi-2024, l’IGN œuvre en interne à une refonte du contenu autour de ses référentiels administratifs en réponse aux demandes d’évolution remontées par nos utilisateurs avertis sur ce thème. -
10:00
Imagerie aérienne & spatiale : quelle offre pour demain ?
sur Toute l’actualité des Geoservices de l'IGNIl existe aujourd’hui des enjeux croissants d’accès simplifiés à de larges couvertures images, dans un contexte de pressions accrues sur le territoire et de transformation écologique, énergétique et agro-alimentaire des paysages.
-
10:00
Nouvelles évolutions sur Plan IGN
sur Toute l’actualité des Geoservices de l'IGNUn point sur les dernières évolutions de Plan IGN, qui vise à adapter notre offre afin de mieux répondre aux attentes remontées par nos utilisateurs.
-
7:00
Dégouverner ?
sur Dans les algorithmesEn 2021, après les confinements de la pandémie de Covid-19, la question des chaînes d’approvisionnement et de leur pilotage s’est reposée depuis de nouvelles perspectives. Comment assurer la gouvernance du monde ? Et pourquoi nos organisations savent-elles être si vulnérables dans les tensions ?
Si le monde nous semble si incompréhensible, c’est qu’il l’est devenu !, explique l’écrivain Tim Maughan, auteur notamment d’un roman de science-fiction, Infinite Detail (MCD Books, 2019, non traduit), sur One Zero. Des chaînes d’approvisionnement automatisées aux échanges commerciaux à haute fréquence, la complexité rend le monde « inconnaissable » à toute intelligence humaine. Pire souligne-t-il, pour générer toujours plus de croissance, les systèmes automatisés doivent augmenter sans cesse leur complexité. Aucun humain n’est capable de comprendre ce qu’il se passe derrière les écrans : chaque jour, 82,2 ans de vidéo sont téléchargés sur YouTube ; 500 millions de tweets sont échangés, l’équivalent d’un livre de 10 millions de pages ! En 2014 déjà, l’écrivain a passé une semaine sur un porte-conteneur… Et ce qui l’a le plus frappé, c’était de constater combien chaque décision était prise par la technologie. Du grutier au capitaine, chacun recevait des instructions via des algorithmes de gestion, acceptés et respectés sans conteste par des professionnels compétents, quand bien même ces décisions ne se motivaient d’aucune explication. Ainsi, explique-t-il, le capitaine du bateau recevait régulièrement des courriels automatisés lui demandant de ralentir le navire, sans que la compagnie maritime lui en explique la raison. Comme si nous avions déjà lâché prise sur la motivation des décisions et l’explicabilité du monde…
Qu’importe, tant qu’il y a de la nourriture et des vêtements dans les magasins, de l’argent dans les distributeurs, des histoires sur notre Instagram… Tout semble désormais se faire tout seul, sans avoir besoin de s’en inquiéter ! Pourtant, ces systèmes complexes peuvent tomber en panne. 2020 par exemple, a permis de constater combien les chaînes d’approvisionnement pouvaient être sous pression, entraînant leurs lots de pénuries. Les chaînes d’approvisionnement subissent également régulièrement les offensives de logiciels malveillants… Pourtant, à ce jour, aucune défaillance n’a été réellement catastrophique, comme si l’effondrement lié à la complexité était finalement bien plus résilient qu’escompté. C’est à se demander si ces réseaux finalement ne fonctionnent pas trop bien, malgré leur opacité intrinsèque. Nous leur avons donné un grand pouvoir décisionnel pour atteindre leurs objectifs le plus efficacement possible et ils y arrivent relativement bien… pour autant qu’on ne les inspecte pas en détail, souligne Maughan, car ils ne sont pas dotés de capacité à prendre des décisions éthiques ou des jugements moraux sur ce qu’ils font – nous rappelant les propos de Miriam Posner sur les limites de la transformation logicielle de la chaîne logistique. En fait, rappelle Maughan, par sa conception même, le réseau de la chaîne d’approvisionnement mondial fait perdurer et accroît les inégalités : son rôle est de tirer parti des écarts de niveaux de vie pour faire produire dans les pays où cette production est la moins chère et expédier les marchandises à l’autre bout du monde pour les vendre à profit. Ces constats se prolongent jusqu’aux plateformes de streaming qui fournissent des contenus de divertissement illimités, au détriment des revenus de ceux qui les produisent. Tout comme le capitaine du porte-conteneur, nous avons de moins en moins de contrôle politique sur nos démocraties elles-mêmes, explique Maughan. Pour paraphraser le cinéaste Adam Curtis, au lieu d’élire des dirigeants visionnaires, nous ne faisons en fait que voter pour des cadres intermédiaires dans un système mondial complexe que personne ne contrôle entièrement. Le résultat de cette situation ressemble de plus en plus à un vide démocratique. Nous vivons à une époque où les électeurs ont un niveau record de méfiance envers les politiciens, en partie parce qu’ils peuvent sentir cette déconnexion, soutient Maughan : ils voient dans la réalité quotidienne que, malgré leurs revendications, les politiciens ne peuvent pas apporter de changements, comme si nul ne pouvait plus agir sur le système décisionnel automatisé. Pire, souligne Maughan, nombre de politiques pensent qu’on ne doit pas réparer le système, mais accélérer le processus de déréglementation, c’est-à-dire donner plus de pouvoir encore à l’automatisation en réseau.
Pour Maughan, il nous faut trouver des moyens pour accroître notre connaissance de l’inconnaissable et des stratégies pour contrer l’impuissance et l’anxiété que le système produit, conclut-il. Nous pourrions être tout à fait d’accord avec lui, si l’on ne constatait pas, avec le temps, que cette demande d’explication et d’éthique, à force d’être répétée, semble s’éloigner de nous à mesure que les systèmes se déploient et s’enracinent. Plutôt que d’exiger une transparence qui semble partout reculer à mesure qu’on la mobilise, ne faut-il pas mieux regarder ce qui l’empêche ? Pourquoi ces chaînes semblent-elles de plus en plus fortes et de moins en moins gouvernables ? Peut-être faut-il entendre qu’elles n’ont pas pour but d’être gouvernables justement – ou plus exactement que leur structuration (qui elle est bien gouvernée) tend surtout à produire, volontairement, de l’ingouvernabilité, c’est-à-dire à réduire la portée de ceux qui peuvent les gouverner…
Un monde sans gouvernance accessible ?La revue juridique Transnational Legal Theory se saisissait justement dans un numéro récent du concept de « non-gouvernance » (ungovernance). Dans les différentes contributions à ce numéro, plusieurs sens ressortaient, montrant que le concept avait certainement encore besoin d’être affiné. Pour certains auteurs, la non-gouvernance semblait plutôt tenir d’une ingouvernabilité, d’une impossibilité à gouverner du fait de l’absence de structures et d’instruments pour se faire. Pour d’autres, la non-gouvernance semblait plutôt relever d’une dégouvernance, d’un recul de la gouvernementalité, comme le proposent les procédures reposant sur les algorithmes et l’intelligence artificielle par exemple (en suivant le concept de gouvernementalité algorithmique défini par Antoinette Rouvroy et Thomas Berns, qui est un changement de modalités de gouvernement justement visant à faire disparaître le « projet même de gouverner »).
Ainsi, les juristes Deval Desai et Andrew Lang, dans leur article introductif définissent la non-gouvernance comme des projets globaux qui poursuivent de grandes visions sous des revendications d’universalité sans pour autant proposer de prescriptions adéquates, sans possibilité de faire correspondre les structures institutionnelles aux résultats.
Plus précisément, expliquent-ils, la non-gouvernance globale ne signifie pas une absence de gouvernance, mais des tensions entre le fait que le côté mondial trouble la gouvernance et le fait que la gouvernance trouble son projet mondial. Pour eux, la non-gouvernance fonctionne dans un contexte de grandes visions (comme le marché ou l’État de droit) qui ne disposent pas de voies de recours adaptées… et qui donc souffrent d’une impossibilité d’action (c’est-à-dire que les structures institutionnelles ne peuvent pas matcher avec les résultats souhaités), ce qui conduit à la fois à poursuivre leur action et à en constater l’impossibilité, tant et si bien que le succès ne se mesure pas dans sa capacité à construire des institutions adaptées, mais plutôt à réarranger sans cesse les grandes visions initiales.
Pour leurs confrères Dimitri Van Den Meerssche et Geoff Gordon, le risque et la résilience sont la nouvelle architecture normative. En prenant l’exemple du fonctionnement de la banque mondiale, les deux chercheurs soulignent que le risque et la complexité ne sont plus considérés comme des conditions limitant un projet, mais comme des éléments constitutifs, visant à gouverner depuis des outils qui reposent sur l’inconnaissabilité. Un autre article signé Stephen Humpreys s’intéresse à la non-gouvernance de la question climatique. Pour ce dernier, le GIEC par exemple a souvent souligné que la gouvernance de la question climatique – ou plutôt son absence – était justement un obstacle majeur au règlement du problème climatique. Ou pour le dire autrement, que les structures de gouvernance existantes sont en elles-mêmes un obstacle à la gestion du climat. Pour Humphreys, la non-gouvernance signifie ici plutôt un refus provisoire, stratégique ou conscient de mécanismes de contrôles par rapport aux compétences institutionnelles existantes. Le régime de droit construit pour contenir le changement climatique est imparfait et complexe et s’inscrit dans un vaste réseau d’appareils réglementaires interconnectés. Si la question climatique est d’abord un problème de connaissance que le GIEC éclaire et cartographie, celui-ci ne gouverne pas la politique climatique qui est laissée aux décideurs politiques (ainsi qu’aux organisations internationales, aux institutions scientifiques, aux ONG voire même aux entreprises ou aux individus…). Quand on regarde certains secteurs par exemple, comme le pétrole ou l’aviation, toute la question est de savoir ce qui doit être régi, par qui et comment… et selon quelles pratiques réglementaires. La question de la non-gouvernance ne consiste pas à reconnaître la complexité ou l’incohérence des politiques, mais à comprendre comment leurs interactions peuvent être comprises comme quelque chose de nécessaire, de rationnel ou d’utile, plutôt que comme quelque chose de contingent, irrationnel, erroné ou inévitable.
Il distingue plusieurs modes de non-gouvernance : agnostique, expérimentale, inoculative ou catastrophique. Pour lui, explique-t-il, la non-gouvernance est le résultat accidentel ou fortuit d’un ensemble de décisions rationnelles, soutenues par un vaste appareil réglementaire, mais qui se révèle au final très sélectif et qui surtout intègre et présume l’incertitude à toute résolution. Pour Christine Bell, l’ingouvernance n’est pas hors du droit, mais dans ses failles, ses assemblages, ses mises à jour, ses dissonances… Pour Zinaida Miller, la justice transitionnelle par exemple relève d’une forme de non-gouvernance où les objectifs de justice, d’apaisement, de vérité et réconciliation semblent plus importants que les solutions mobilisées (voir son article). Pour Michelle Burgis-Kasthala, les accords d’Oslo qui ont défini les modalités des rapports entre Israéliens et Palestiniens reposent beaucoup plus sur une absence de gouvernance que sur des modalités de gouvernements claires, qui ont permis aux acteurs d’y introduire d’innombrables perturbations (voir son article).
Le numéro de Transnational Legal Theory ne s’intéresse pas au numérique. Mais le concept de non-gouvernance voire de dégouvernance par les systèmes techniques mériteraient certainement d’être explorés et précisés plus avant. À l’heure où les systèmes techniques nous font entrer dans une gestion à vue, agile et réactive en continue, où les outillages de la décision n’ont jamais été aussi nourris pour modéliser le futur, ceux-ci peinent pourtant à dessiner un futur, comme le soulignait très justement le chercheur Olivier Ertzscheid en rendant compte d’une discussion avec Antoinette Rouvroy justement. « De fait, c’est peut-être précisément parce que les gouvernements sont noyés par les (en partie) fausses capacitations à prévoir « le » futur qu’ils se retrouvent aussi incapables de dessiner « un » futur. La quasi-certitude de pouvoir juguler la part d’incertitude du monde, diminue plus qu’elle n’augmente la capacité d’agir en situation d’incertitude. »
La désorganisation : mode de fonctionnement des organisations ?Nous voici confrontés à des errements répétés que la crise sanitaire a d’autant plus amplifiés qu’elle a mis de côté les questions d’équité et d’égalité, au profit d’une efficacité qui serait seule essentielle quand tout le reste ne le serait plus. Reste que l’efficacité de la réponse à la pandémie a elle aussi buté sur les modalités de réponse, sur ses réponses opérationnelles, comme le soulignaient les chercheurs en sociologie des organisations, Henri Bergeron, Olivier Borraz, Patrick Castel et François Dedieu dans leur très stimulant bilan de la pandémie Covid-19 : une crise organisationnelle (Presses de SciencesPo, 2020). Les chercheurs s’y interrogeaient : pourquoi les situations de crises donnent lieu à une telle créativité organisationnelle rendant les plans préparés avec tant d’attention caduque avant d’être mis en oeuvres ? Pourquoi ce foisonnement augmente-t-il les problèmes de coordination qu’ils sont censés résoudre ?
Pour les chercheurs, nous questionnons le poids des défaillances ou des mérites individuels et négligeons les dimensions collectives et organisationnelles des décisions. Nous minimisons les risques et signaux certainement parce que les organisations sont mal équipées pour les faire remonter. « La coopération et la coordination demeurent le maillon faible – le « peu-pensé » – des dispositifs organisationnels », d’où le fait qu’ils sortent des cadres en cas de crise, mais souvent au détriment de ce qui en est exclu (comme les considérations économiques exclues du cadrage très hospitalier de la crise). Dans un monde saturé d’organisations, nous peinons toujours à les organiser ! Certainement parce que cette organisation est intimement liée au pouvoir (ce qui n’est pas sans évoquer pour moi, les questions posées par Frédéric Laloux dans Reinventing organisations). Dans la gestion élitaire et sanitaire de la crise que nous connaissons, les organisations et protocoles créés ont favorisé une décision à courte vue, top-down, conflictuelle… expliquent-ils. Derrière leurs analyses, les auteurs consacrent tout un chapitre sur comment apprendre des crises, comment passer de la recherche de culpabilités à la réforme des causes structurelles, appelant à créer une sorte d’observatoire des crises pour en tirer des enseignements qui ne soient plus singuliers – car les crises ne le sont pas – mais systémiques. En dénonçant, avec rigueur, l’excès de confiance, la saturation désorganisationnelle, la gestion élitaire, l’exubérante créativité procédurale, l’épuisement décisionniste et contradictoire… les chercheurs soulignent néanmoins que ces défauts demeurent le lot commun de toutes nos organisations.
Le « command and control » autoritaire produit rarement ce qu’on en attend. Il produit surtout de la défiance. Finalement, à les lire, on se dit que la non-gouvernance, la désorganisation ou la production de l’ingouvernabilité… sont peut-être les diverses facettes d’une réponse à une même complexité. Sous cet angle, la non-gouvernance tiendrait plus d’une réponse infrastructurelle aux incertitudes. En ce sens, finalement, l’opacité, la coupure démocratique et l’absence d’éthique semblent plutôt tenir de réponses pour entretenir l’inactionnabilité du monde, un moyen pour réduire, même dans l’adversité, le nombre de ceux qui peuvent gouverner ? Ne pas gouverner n’est pas tant un moyen de désinnover, comme le prônait le philosophe Alexandre Monnin dans nos pages, mais plutôt un moyen pour assurer la continuité du monde. Dégouverner, tient du symptôme plus que du remède. Dégouverner, c’est assurément invisibiliser toute gouvernance.
Hubert Guillaud
Cet article a été publié originellement sur InternetActu.net, le 6 janvier 2021.
-
5:31
Cartographie de la crise de l'assurance habitation aux États-Unis
sur Cartographies numériquesSource : Kenny Stancil, Carly Fabian (2025). Mapping the Home Insurance Crisis, Revolving Door Project (RDP). Article et cartes en open source mises à disposition par le projet Revolving Door et Public Citizen .
« Cartographier la crise de l'assurance habitation » propose une série de cartes et de tableaux interactifs pour aider à comprendre la crise de l'assurance habitation, alimentée par le changement climatique.
Partout aux États-Unis, les ménages sont confrontés à un coût nouveau et inattendu lié au changement climatique : une flambée des primes d’assurance habitation, ainsi que des non-renouvellements et des annulations de polices d'assurance. Des conditions météorologiques extrêmes de plus en plus fréquentes et intenses augmentent les pertes liées aux catastrophes. Le secteur de l’assurance, mal préparé malgré sa connaissance du changement climatique depuis des décennies, s’efforce de répercuter ces coûts sur le public. Sans intervention, les conséquences pour les ménages pourraient déclencher une crise financière, avec une hausse des coûts d’assurance et des saisies immobilières qui fragiliseraient les bases fiscales.
La carte interactive a été élaborée à partir des données publiées par le Bureau fédéral des assurances du Trésor. Elle révèle l'ampleur de la crise de l'assurance habitation aux États-Unis, selon sept indicateurs de disponibilité et d'accessibilité financière (utilisez le menu déroulant en haut à droite de la carte pour choisir l'un de ces indicateurs) :
1) les taux de non-renouvellement,
2) les taux d'annulation pour non-paiement,
3) les autres taux d'annulation,
4) les taux de fréquence des sinistres,
5) les montants moyens des sinistres,
6) les ratios de sinistres payés
7) les primes moyennes par code postal à travers le pays de 2018 à 2022.Niveau de crise de l'assurance habitation selon sept indicateurs de disponibilité et d'accessibilité
financière de 2018 à 2022 (source : Revolving Door Project)Pas de données disponibles pour le Texas. Informations partielles pour sept autres États.
Les résultats montrent que l'assurance habitation est de moins en moins disponible et de plus en plus chère à travers le pays. Ces données couvrent la période 2018-2022 et incluent des informations sur les assurances habitation souscrites par des particuliers auprès de 330 compagnies d'assurance. Avec près de 250 millions de polices, elles couvrent environ 80 % du marché dans 33 000 codes postaux. Afin de protéger la vie privée des assurés et des assureurs, la FIO n'a pas inclus dans les données publiées les données des codes postaux comptant moins de 10 assureurs ou moins de 50 polices d'assurance en vigueur.
Environ un mois avant la publication du rapport de la FIO, la commission sénatoriale du budget, dirigée par Sheldon Whitehouse (démocrate), a publié un rapport comprenant des données originales sur les taux de non-renouvellement dans les comtés américains de 2018 à 2023. Ces données incluent des données nationales sur les taux de non-renouvellement à l'échelle des comtés provenant de près d'une vingtaine de compagnies, couvrant 65 % du marché national de l'assurance habitation. Elles révèlent que les taux de non-renouvellement augmentent rapidement dans tout le pays, et que les comtés les plus exposés au risque climatique connaissent les hausses les plus rapides.
Taux de non-renouvellement au niveau des comté de 2018 à 2023 (source : Revolving Door Project)
Les futures collectes de données devraient être élargies afin de couvrir toute l'ampleur de la crise. Il est particulièrement important de documenter l'impact sur les locataires, qui paient des loyers plus élevés, tout comme les données sur la disponibilité des assurances pour les bailleurs sociaux, dont beaucoup peinent actuellement à trouver une couverture. Des données plus détaillées, idéalement à l'échelle des secteurs de recensement, permettront d'analyser l'accessibilité financière et la disponibilité des assurances pour des groupes démographiques particuliers. Les données sur l'adéquation des assurances (c'est-à-dire si la couverture d'un assuré est suffisante) deviendront également particulièrement importantes à mesure que davantage d'assurés subiront des pertes.
Pour compléter
Le New York Times a consacré une série d'articles sur le sujet, avec des cartes très intéressantes :
- « De plus en plus d'Américains, au risque de se ruiner, abandonnent leur assurance habitation ». C'est le cas dans les comtés les plus touchés par les incendies de forêt et les ouragans
- « Les assureurs abandonnent les propriétaires à mesure que les chocs climatiques s'aggravent ». Sans assurance, il est impossible d’obtenir un prêt hypothécaire ; sans prêt hypothécaire, la plupart des Américains ne peuvent pas acheter une maison
- « Les tarifs d'assurance habitation aux États-Unis sont largement faussés. Voici pourquoi ». Le changement climatique entraîne une hausse des taux, mais pas toujours dans les zones les plus à risque.
Articles connexes
Cartographie des incendies en Californie
Carte mondiale d'exposition aux risques climatiques, de conflit et à la vulnérabilité
Risques interconnectés de catastrophe (rapport de l'ONU)
Rapport du Forum économique mondial sur la perception des risques globaux
Quand la crise du Covid-19 bouleverse le marché de l'immobilier aux Etats-Unis
Etudier la structure et l'évolution des logements dans 50 métropoles des Etats-Unis
L’inégale abordabilité du logement dans les villes européennes (Cybergéo)
Les shrinking cities, des villes toutes en déclin économique ?
Le « redlining » : retour sur une pratique cartographique discriminatoire qui a laissé des traces aux Etats-Unis
-
12:24
Risques interconnectés de catastrophe (rapport de l'ONU)
sur Cartographies numériques
Source : Interconnected Disaster Risks : Turning Over a New Leaf (rapport de l'ONU, avril 2025)Le rapport "Risques interconnectés de catastrophe 2025" de l'Université des Nations Unies (UNU-EHS) identifie 5 leviers pour un monde durable : mieux gérer les déchets, se reconnecter à la nature, répartir équitablement les responsabilités, penser à long terme et redéfinir la valeur. Il s’appuie sur des exemples concrets. Le rapport déplace l'accent du diagnostic des problèmes vers la définition de solutions. Il établit que nombre des solutions actuelles sont superficielles et que, pour créer un changement durable, nous devons remettre en question les structures sociétales et les mentalités qui perpétuent ces défis.
Malgré des décennies d'avertissements de la part des scientifiques, de nouveaux extrêmes négatifs font l'actualité presque quotidiennement. Les scientifiques nous indiquent ce qui doit changer : cesser d'utiliser les combustibles fossiles ; protéger et restaurer les écosystèmes ; vivre durablement.Néanmoins, nous progressons peu vers ces objectifs. On peut donc se demander : si nous savons ce que nous devons faire, pourquoi ne le faisons-nous pas ?
Les éditions précédentes du rapport « Risques de catastrophes interconnectés » ont analysé l'interdépendance des catastrophes que nous observons et les points de bascule que nous atteindrons si l'humanité continue d'affaiblir les systèmes dont nous dépendons tous. L'édition de cette année s'inscrit dans la continuité des précédentes éditions en posant la question centrale qui préoccupe beaucoup de personnes : comment changer de cap ? Le rapport 2025 Turning Over a New Leaf analyse à quoi pourrait ressembler le monde si nous procédions à ces changements, et ce qui nous en empêche.
Appliquée à l'exemple des déchets, la théorie du changement profond identifie les valeurs sous-jacentes en jeu, à savoir notre hypothèse selon laquelle la consommation matérielle est source de bonheur, ou que le « neuf » est meilleur que le vieux, ce qui nous pousse à accumuler toujours plus et à jeter les objets usagés. Tant que notre système reposera sur ces hypothèses, toute mesure de gestion des déchets peinera à être véritablement efficace. Le recyclage n'a qu'une certaine efficacité si nous continuons à produire des volumes toujours croissants de déchets. En fait, des recherches montrent que la possibilité de recycler peut même augmenter la quantité de déchets produits.
Si notre définition d'un avenir plus désirable est celle d'un monde sans déchets, nous devons remettre en question les croyances sous-jacentes du système. Si nous acceptions que les ressources soient limitées et précieuses, nos objectifs et nos structures seraient différents de ceux d'aujourd'hui. Nous pourrions, par exemple, valoriser davantage nos biens actuels et chercher à prolonger leur durée de vie. Pour y parvenir, il faudrait également adopter des structures différentes. Nous pourrions par exemple adopter des lois obligeant les entreprises à proposer la réparation des produits cassés, ou à les concevoir de manière à ce que les pièces puissent être remplacées afin de les maintenir en service le plus longtemps possible.
Des études ont montré que le public entend actuellement parler de manière disproportionnée d'une part restreinte de la science climatique : principalement des sciences naturelles, et surtout de projections négatives. Si ces projections doivent être prises au sérieux et peuvent faire la une des journaux, elles suscitent souvent la peur et une paralysie potentielle, le public se sentant condamné quoi qu'il arrive. De plus, face à des projections négatives, notre réaction naturelle est de réfléchir aux moyens de les prévenir. Cela se traduit par des objectifs et des cibles tels que « limiter le changement climatique » ou « prévenir la perte de biodiversité ». Cependant, le rapport soutient que nous ne devons pas nous contenter de stopper les pires impacts. Nous pouvons plutôt œuvrer activement à la création d'un monde où nous aimerions vivre. L'édition précédente Interconnected Disaster Risks avait mis en garde contre des points de basculement irréversibles en matière de risques. En 2025, les auteurs ont repris là où le dernier rapport s'était arrêté en développant une voie à suivre : la théorie du changement profond (ToDC). Cette théorie s'attaque aux causes profondes des problèmes mondiaux, identifiant les structures et les présupposés sociaux qui les entretiennent. Par exemple, lorsqu'une rivière est tellement encombrée de déchets plastiques qu'elle provoque des inondations catastrophiques, les citoyens pourraient critiquer le système de gestion des déchets et réclamer davantage de recyclage. Les scientifiques comparent leur modèle à un arbre, où les résultats visibles sont les fruits, mais les vrais problèmes se situent au niveau des racines : des racines pourries produisent des fruits pourris. La ToDC distingue deux types de leviers qui doivent se combiner pour créer un changement profond et durable : les leviers intérieurs et extérieurs.
Pour télécharger les ressources en pdf :
- Se reconnecter avec la nature
- Reconsidérer les responsabilités
- Redéfinir la valeur
- Réimaginer le futur
- Repenser les déchets
Cartographie de la crise de l'assurance habitation aux États-Unis
Artilces connexes
Carte mondiale d'exposition aux risques climatiques, de conflit et à la vulnérabilité
Carte de répartition des risques naturels en France métropolitaine (IGN)
Rapport du Forum économique mondial sur la perception des risques globaux
Les risques globaux prévus en 2021 selon le site Control Risks
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Analyser et discuter les cartes de risques : exemple à partir de l'Indice mondial des risques climatiques
Aborder la question de l'inégalité des pays face au changement climatiqueLa France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
Data visualisation sur la responsabilité et la vulnérabilité par rapport au changement climatique
Atlas climatique interactif Copernicus
-
11:25
Bonjour tout le monde !
sur Veille cartographieAuparavant, il y avait un autre article sur cette page. Nous avons tenté de retrouver des informations dessus :Titre : test
Auteur : non trouvé
Date de publication : testL’article Bonjour tout le monde ! est apparu en premier sur Veillecarto2-0.fr.
-
9:41
NEOGEO et SOGEFI allient leur catalogue de données et leur SIG pour les besoins de leurs utilisateurs
sur Neogeo TechnologiesUne solution mutualisée donnant une gamme complète d’outils pour répondre aux besoins cartographiques des acteurs publics.
Chez NEOGEO, nous avons décidé de nous associer à SOGEFI pour offrir à nos utilisateurs toute la puissance des données. Grâce à cette collaboration, la plateforme OneGeo Suite de NEOGEO est enrichie par les applications métier Mon Territoire de SOGEFI.
Ensemble, nous proposons une solution mutualisée qui fournit une gamme complète d’outils adaptés aux besoins des administrateurs, des gestionnaires de données, des services techniques, des élus et du grand public.
La combinaison de nos deux solutions offre une réponse précise et adaptée aux divers acteurs d’un territoire. Elle repose sur un socle commun robuste solide, structuré et évolutif centré sur les données, ce qui permet de créer un cycle vertueux de gestion de la donnée pour l’ensemble des acteurs de la structure, au bénéfice de leur territoire. Le développement de nos solutions respectives est axé sur l’expérience utilisateur, chaque outil étant conçu pour répondre aux besoins spécifiques des différents profils d’acteurs impliqués.
OneGeo Suite propose aux administrateurs une gamme de modules pour gérer les référentiels métiers et satisfaire aux exigences de publication et de partage des données Open Data. OGS valorise ces données grâce à des modes de publication et de reporting (Dataviz) adaptés aux besoins des utilisateurs et de leurs publics, qu’il s’agisse de partenaires ou du grand public. Avec son module Explorer pour la recherche et la consultation intuitive des jeux de données, son module Maps pour les fonctionnalités cartographiques avancées, et son module Portal pour un portail collaboratif, OneGeo Suite offre une solution complète et innovante. Cette suite est fondée sur des principes de mutualisation et de co-construction d’outils open source.
Mon Territoire propose une gamme complète d’outils métiers prêts à l’emploi pour les services techniques et les collectivités. Couvrant de nombreuses compétences, la gamme Mon Territoire utilise une sélection de données Open Data pour assister les agents responsables de l’urbanisme, de l’habitat, des réseaux, de la voirie et du développement économique.
Schéma décrivant les usages et les rôles au travers des applications fusionnées OneGeo Suite et Mon Territoire
« La gamme d’outils clé en main proposée par SOGEFI permet de compléter notre solution OneGeo Suite de catalogage et de diffusion de données par des modules métiers opérationnels directement accessibles aux utilisateurs de la plateforme.L’interopérabilité des deux solutions permet de mutualiser l’accès aux référentiels cartographiques et aux bases de données métier et le partage des droits sur les différents jeux de données offre la possibilité de définir une véritable stratégie de gouvernance des données. Enfin l’accès aux API Opendata proposées par SOGEFI et alimentées en temps réel permet d’enrichir l’offre de référentiels proposés dans le catalogue de données mis à disposition ».
« OneGeo Suite est la réponse idéale pour les structures départementales et régionales qui disposent d’un socle important de données. Les administrateurs de ces dernières disposent alors de tous les outils pour gérer ces importants volumes de données du catalogage à sa publication pour ses adhérents. OneGeo Suite, plateforme complètement Open Source, est totalement interopérable avec notre gamme Mon Territoire, elle apporte une vraie valeur ajoutée pour la diffusion et la valorisation de l’ensemble des données ainsi consolidées au fil du temps par les services et permet à l’IDG la mise en place d’un cycle vertueux de l’information pour l’ensemble de ces acteurs. »
L’un des avantages de notre collaboration est de pouvoir déployer rapidement des solutions prêtes à l’emploi grâce à un accompagnement spécifique par métiers et compétences. Une équipe pluridisciplinaire est mobilisée pour le déploiement de notre offre commune et le planning établi peut mobiliser différentes équipes en parallèle pour le bon avancement du projet. Chacun sur son métier, NEOGEO et SOGEFI ont à cœur de vous accompagner et de vous conseiller sur vos problématiques. Chacun mène une veille permanente sur l’Opendata ainsi que sur les technologies du domaine et vous propose de vous en faire bénéficier au travers des solutions et des services que nous mettons en place depuis plusieurs années. Construit autour de communautés d’utilisateurs, nos deux solutions sont reconnues sur le marché depuis de nombreuses années, elles sont au service de nombreux usagers qui nous font part de leurs besoins d’évolution et idées pour les versions à venir notamment au travers d’espace d’échanges dédiés (forum, page web dédié…). Ces remontées d’informations sont précieuses pour nos équipes afin de définir les feuilles de route de nos produits.
« Les outils métiers de SOGEFI sont tout à fait en adéquation avec les besoins et les usages des collectivités de toutes tailles dans leurs tâches du quotidien. Les partenariats existants avec Géofoncier sont un vrai plus pour les secrétaires de mairie. Nous pouvons également répondre aux besoins des services techniques des collectivités, des syndicats des eaux, d’assainissement. Les solution OneGeo Suite va nous permettre de maitriser nos données et de les mettre à disposition de nos utilisateurs et partenaires de manière simple et structurée (flux, datavisualisation, carte Web).? Le tout parfaitement intégré à notre SI et répondant à nos exigences en termes d’administration des comptes utilisateurs et des droits sur les données. »
« Depuis une douzaine d’année, la plateforme territoriale Guyane-SIG favorise l’accessibilité des données spatiales et la démocratisation de leurs usages sur la Guyane. En 2020, la Collectivité Territoriale de Guyane a initié un travail de modernisation de l’ensemble des composants fonctionnels en deux étapes :
-
-
- Nous avions besoins d’un outil performant pour proposer une lecture facilitée de l’information foncière pour l’ensemble de nos partenaires. Les attentes étaient fortes et avec Mon Territoire Carto, nous avons pu bénéficier rapidement d’un outil ergonomique mobilisant de nombreuses données en Opendata que nous avons pu compléter par des productions endogènes.
- Puis les efforts se sont portés sur les outils collaboratifs de partage et de valorisation des données dans le respect des standards. Avec la suite OneGeo, nos partenaires peuvent désormais publier en quelques clics leurs données.
-
L’accompagnement nous permet également de proposer régulièrement à nos partenaires des webinaires de présentation des évolutions fonctionnelles.
NEOGEO et SOGEFI sont ravis de poursuivre et renforcer leur partenariat déjà éprouvé depuis plusieurs années auprès du Portail Géofoncier. Ce portail porté par l’Ordre des Géomètres-Expert est aujourd’hui une référence nationale dans la valorisation de l’information foncière. L’ambition portée par Géofoncier a su s’appuyer sur la complémentarité des expertises de chacun. Les différents projets ont nécessité un travail de coordination et d’enrichissement mutuel des pratiques et technologies mobilisées par les deux sociétés dans un objectif commun. Nos équipes se connaissent, elles ont l’habitude de travailler ensemble et savent mobiliser les ressources en interne pour assurer une couverture élargie des compétences nécessaires aux projets.
« Depuis de nombreuses années, NEOGEO et SOGEFI sont nos partenaires privilégiés chez Géofoncier. Leurs expertises complémentaires et incontestées dans le domaine de la diffusion et de la valorisation de la donnée cartographique, associée à leurs écoutes attentives de nos besoins, font de NEOGEO et SOGEFI un groupement pertinent et essentiel à notre réussite. Leur engagement fort au quotidien à fournir en concertation des solutions complètes et pérennes ont grandement contribué au succès de Géofoncier. Nous sommes reconnaissants de pouvoir compter sur ces équipes d’experts aussi fiables et compétentes pour nous accompagner dans notre croissance continue.
NEOGEO possède une expertise avérée dans la mise en œuvre de solutions innovantes de partage, de valorisation et de visualisation de données géographiques auprès d’un large public. NEOGEO développe et met en place depuis sa création en 2008 des infrastructures de données géographiques et des plateformes open-source. NEOGEO a intégré en 2022 le groupe Geofit (leader français dans l’acquisition de données spatiales), permettant ainsi de renforcer ses compétences (équipe de 40 collaborateurs) et ses références (une cinquantaine de plateformes cartographiques majeures déployées en France et à l’étranger). C’est aussi la fusion des savoirs faires technologiques des deux structures qui a permis de donner le jour à la solution OneGeo Suite.
SOGEFI, expert de la data et du webmapping depuis 33 ans propose des solutions pour la gestion et l’exploitation de données par la cartographie. La gamme Mon Territoire est réservée aux collectivités pour la gestion par métier de leur territoire. SOGEFI place l’utilisateur au cœur de ses réflexions et de sa feuille de route et son expertise de la donnée lui permet de proposer des exploitations poussées de la donnée au sein de ses applications. La société équipe aujourd’hui plus de 1000 collectivités et entreprises avec ses solutions web-SIG cadastre, urbanisme, réseaux et voirie. Elle accompagne également le portail Géofoncier sur son expertise de la donnée par la mise à disposition de ses API. »
-
Éléments récents
-
12:35
Stefano Costa: I libri e le altre cose che ho fatto nel 2024
sur Planet OSGeoQuesta è la solita rubrica che scrivo da molti anni. Ci sono quindi delle puntate precedenti per chi volesse leggerle, non sempre brillanti e non sempre cose che riscriverei oggi.
Quest’anno per la prima volta mi sono reso conto che scrivere solo la lista dei libri sarebbe stato un po’ riduttivo, perché ho fatto altre cose di categoria “consumi culturali” e non mi piacciono troppo le barriere artificiali. Perché dovrei elencare un libro brutto ma non dire niente di un podcast che mi è piaciuto e di una mostra per cui mi sono messo in viaggio? O perché dovrei fare tanti articoli separati per ogni categoria?
I libri che mi sono piaciutiAvevo iniziato l’anno leggendo L’incendio di Cecilia Sala e Tutta intera di Espérance Hakuzwimana. Il primo mi è piaciuto ma non in modo esagerato, in vari punti e soprattutto nei capitoli dedicati all’Ucraina mi sono reso conto di non essere il destinatario di questo libro, di non fare parte del “noi” collettivo in cui l’autrice ci butta tutti dentro per farci capire la distanza siderale tra l’Italia e i tre paesi in cui ha lavorato (Iran, Ucraina, Afghanistan). E non ne faccio parte un po’ perché alcune delle cose che il libro racconta già le conosco da tempo (perché gli iraniani odiano gli USA…) e so già cosa non va in quello che “gli italiani” nel loro insieme sanno, nel modo in cui lo stato italiano si pone rispetto a tutte queste altre nazioni. Almeno sapevo qualcosa su Cecilia Sala quando è stata imprigionata, sul suo rapporto con l’Iran.
Tutta intera ha molte sfaccettature. Il libro inizia in modo lieve e poi come un tamburo di guerra inizia a fare sempre più rumore, a narrare le lacerazioni del “fiume calmo” che la protagonista via via prova su se stessa e sul gruppo di ragazz? che, prima a sua insaputa e poi sempre più alla luce del sole le faranno da guida. Una storia vivida di razzismo sulla propria pelle, di una ricchezza umana (e quindi culturale, nel senso più nobile di cultura) che noi, quelli “tutti interi”, non ci sogniamo nemmeno da svegli. La scansione temporale dei capitoli è studiata in modo accurato e le ultime pagine lasciano senza fiato per la ferocia e la speranza che suscitano.
Raja Shehadeh : Dove sta il limite. Attraversare i confini della Palestina occupataQuesto libro era in casa da qualche anno, già letto da Elisa. Leggerlo nel 2024 è solo leggermente più assurdo, insensato, mentre lo sterminio del popolo palestinese prosegue senza sosta con la connivenza di tanti Stati occidentali. La finestra di tempo è sempre la stessa, l’unica con cui si può guardare quella parte di mondo, e inizia nel 1948.
Silvia Avallone: AcciaioIncredibile, veramente incredibile.
Laura Pugno : Sirene
Riuscire in mezzo a queste pagine a stare male, malissimo per la tragedia smisurata che vivono le persone, tutte a modo loro protagoniste. Riuscire a gioire con le lacrime agli occhi per le loro felicità, il loro amore…
Mi ha fatto male solo cercare in rete il nome dell’autrice e scoprire che ha esattamente l’aspetto che mi immaginavo per una delle due protagoniste. Ha reso in qualche modo ancora più lucido tutto il profondo senso di realtà e di umanità.
Come in Cuore nero ho trovato toccante il racconto finemente tessuto di una adolescenza viva, piena, dolorosa e al tempo stesso carica di felicità incontenibile. Mi tocca anche leggere nero su bianco le strade che si dividono nei percorsi scolastici e di vita. Le vite spezzate per sempre e quelle spezzate da sempre nel logorio della provincia (come Tre).
Mi ricordo quando passavo parecchio tempo vicino a Piombino ed era uscito questo libro. Come sempre senza un motivo, non l’ho letto e non mi sono nemmeno domandato se mi potesse interessare. Ogni cosa ha il suo tempo, anche i libri. Anche le navi.Inquietante e meraviglioso. Mi è piaciuto il tema apocalittico tessuto tra biologia e psicologia. Mi è piaciuto che sia un racconto distopico con elementi fantastici. Ho trovato ripugnante il modo in cui la Yakuza e soprattutto gli uomini sguazzano in un potere cruento e senza limiti, ripugnante il modo in cui le donne sono trattate come merce.
Victoire Tuaillon : Fuori le palle. Privilegi e trappole della mascolinità
E le sirene: incredibili creature, descritte in modo un po’ preciso e un po’ vago, con questo comportamento riproduttivo che mette in posizione dominante le femmine/madri. Mi ha colpito il modo inquietante in cui attirano tutt? l? uman?, in cui mandano in tilt sia le élite dominanti che smaniano per controllarle sia i gruppi marginali che vorrebbero difenderle.
Samuel mi è sembrato mosso da dolore e follia, la sua parabola è in gran parte crudele e assurda ma nel finale compie un sacrificio che mo è sembrato purificatore. È una figura tragica, disperata.Un libro potentissimo, pesante, faticoso, doloroso, indispensabile, scritto in modo scorrevole e fa venire voglia di ascoltare il podcast. Mi è dispiaciuto solo che si affronti poco, a maggior ragione nella bella traduzione “critica” italiana, il ruolo della religione cattolica.
Neige Sinno : Triste tigreDolorosissimo. Via via che il testo prosegue è sempre più immenso. nel libro è descritto molto bene il muro che separa chi sa di avere sempre dalla sua il privilegio di essere al sicuro, e chi sa di essere sempre in pericolo. È un muro intersezionale.
Valerie Perrin : TreErano anni che volevo capire cosa stava dietro la copertina di questo libro, un autentico best seller. E sono contento di averlo finalmente letto. C’è la provincia, la fuga dalla provincia, essere sfigat? ma avere chi ti vuole bene, tenersi dentro segreti più grandi di te per troppo tempo, i corpi delle ragazze e dei ragazzi. Fare musica. Non mangiare animali. Insomma, mi è piaciuto moltissimo! I protagonisti hanno la mia età attuale, c’è musica a pacchi, adolescenza perduta. Ci ho trovato tanti legami con Cuore nero.
Silvia Avallone : Cuore neroQuesto libro è veramente molto intenso, gonfio di purezza, liberatorio per come ad ogni pagina si smonta qualcosa di rotto per farne altro. Ho pianto almeno 30 volte durante la lettura. La costruzione della cronologia alternata tra passato e presente, che ormai è un tratto distintivo di tanta narrativa, è molto raffinata.
Viola Ardone : Grande meraviglia
A tratti ho pensato che sia più sincero sulla montagna questo romanzo di tanto Cognetti.Ho visto Oliva Denaro nella trasposizione teatrale, ma è il primo libro di Viola Ardone che leggo. L’ho trovato molto toccante e commovente, soprattutto per la fragilità del protagonista.
Mario Lodi : Il paese sbagliatoUn libro che ho conosciuto tramite Sandro Ciarlariello e che mi interessava molto visto che ho due figli all’inizio del percorso di scuola. È una vera bomba, accurato, un testo politico di altissimo livello e il racconto di una scuola come poteva essere.
bell hooks : la volontà di cambiareIl libro è di lettura scorrevole ma la forma risente molto del modo in cui sono scritti i saggi in inglese americano (un po’ come ho notato per David Graeber). Quindi la stessa frase torna più volte nel giro di poche pagine. Il contenuto di questo libro è una bomba e non stupisce che sia rimasto fino a poco tempo fa non tradotto. Andrebbe contestualizzata meglio la figura dell’autrice, perché solo dopo un po’ si capisce la profondità della condizione intersezionale di donna nera, il rapporto conflittuale con il femminismo bianco. Questo è un libro scritto per gli USA e quindi alcuni concetti presentati come universali sono forse un po’ zoppicanti altrove, ma è comunque un riferimento importante. Molte idee sono le stesse promosse dall’associazione Maschile plurale, che ho sentito sul podcast di Internazionale qualche settimana fa. Molte sono quelle raccontate dal padre di Giulia Cecchettin. Il libro parla di tanti aspetti di mascolinità tossica che mi riguardano, soprattutto nel rapporto tra genitori e figli. Ora io sono il padre.
Ho finito il 2024 leggendo l’incommensurabile Solenoide di Mircea C?rt?rescu. Piccola parentesi: erano anni che volevo trovare libri di narrativa romena ma per mia incapacità non ci ero riuscito. Quando c’è stata la premiazione del Nobel ho letto il nome di C?rt?rescu tra i possibili vincitori, e mi sono subito messo a leggerlo.
Le mostreA ottobre c’è stata una mostra sull’archeologia di Imperia a Imperia. Ci tengo molto perché l’ho fatta io insieme al mio ex collega Luigi Gambaro con un grande lavoro di tante altre persone. Non è durata molto ma è stata importante per la città.
A dicembre siamo andati a vedere una mostra di Tina Modotti a Bologna, e anche se lei è molto conosciuta non avevo mai capito attentamente l’importanza e la varietà della sua vita, come fotografa e non solo. Ne ho approfittato per andare a visitare anche quella su Dominique Goblet all’ex chiesa di San Mattia, che mi è piaciuta moltissimo, ho anche acquistato il volume pubblicato da Sigaretten.
I podcastPer una parte del 2024 ho avuto degli auricolari bluetooth funzionanti, e ho ascoltato parecchi podcast: Antennapod dice che ho passato 97,6 ore ad ascoltarli.
Sicuramente quello più notevole è stato C’è vita nel Grande Nulla Agricolo, di cui ho ascoltato le prime tre stagioni in attesa della quarta. È un podcast indipendente ma molto curato, mi ha rapito subito per la colonna sonora che mi ha fatto venire in mente Fuga da New York, l’ambientazione nella provincia profonda, l’orrore in agguato nei vecchi misteri del paese tra personaggi assurdi e atterraggi alieni. D’altra parte sono cresciuto nel “paese dei marziani”…
Ho ascoltato Polvere, dedicata all’omicidio di Marta Russo. Non amo il true crime ma qui il tema principale si sdoppia tra una giustizia che non sa funzionare e decide di accanirsi su qualcuno che deve essere colpevole, e dall’altro il funzionamento intimo della nostra memoria, che è molto molto più fragile di quello che ci hanno insegnato a credere. È scritto molto bene.
TOTALE è un podcast “varietà” che affronta in ogni puntata un tema di attualità. Jonathan Zenti è molto bravo e pungente, riesce sempre a portare il discorso oltre i limiti che uno si aspetta all’inizio. Il tema portante è che se non ci salviamo dal capitalismo tutte insieme, il capitalismo continuerà la distruzione già in atto.
Love bombing lo avevo già iniziato negli anni precedenti ma ho proseguito l’ascolto. Non è un podcast semplice, perché le storie sono sempre dolorose e a volte l’unico “lieto fine” è quello di riuscire almeno a raccontarle, ma non sempre. Io ne raccomando l’ascolto perché affronta in modo serio, documentato e rispettoso temi molto gravi che ruotano intorno alla stima di sé, alla gestione delle relazioni tossiche in coppia o in gruppo, alla ricerca del benessere, senza distinzioni di genere, di età, o altro.
Sonar è un podcast de Il Post in cinque puntate sui cetacei e sui capodogli in particolare. Racconta molte cose interessanti sui modi di comunicare tra animali e cetacei in particolare, sul modo in cui per molto tempo questi animali sono stati sterminati fino a metterne in pericolo la sopravvivenza, sulle differenze di linguaggio tra diversi gruppi sociali e clan. L’ultima puntata sull’utilizzo dell’intelligenza artificiale per la comprensione del linguaggio dei capodogli mi ha lasciato un po’ perplesso.
L’invasione è un altro podcast de Il Post, dedicato agli indoeuropei. Il titolo è molto forte, e secondo me è una scelta appropriata. Si sviluppa in cinque puntate tra archeologia, linguistica e genetica, tutte ben documentate. Lascia un po’ perplessi l’ultima puntata dove tutto quello che è stato raccontato sembra venire messo da parte per dire che in fondo gli indoeuropei si sono affermati in modo graduale e indolore (o comunque non più doloroso rispetto alle consuetudini del tempo), ma senza spiegare perché siano riusciti a cancellare quasi tutte le altre lingue della vecchia Europa. Insomma, per essere spiegato bene l’ho trovato un po’ inconcludente.
10 e 25 è un podcast di Slow News, a cui ho anche contribuito con una donazione. Parla della strage di Bologna del 2 agosto 1980, a partire dalle testimonianze di chi era lì, e poi via via si passa ai depistaggi, alle trame eversive dei fascisti, alla P2 di Licio Gelli e infine, ma non viene spiegato molto bene, anche della CIA (fatto che non può sorprendere nessuno), il più ampio dei “cerchi concentrici” che sono stati descritti dalla magistratura. Peccato che non ci sia una ultima puntata riassuntiva. C’è un archivio consultabile di tutti i documenti.
Ci sono poi alcuni podcast “correnti” come Il Mondo di Internazionale, Il giusto clima su Radio Popolare con Gianluca Ruggeri di ènostra, Stories di Cecilia Sala, il Nuovo baretto utopia di Kenobit. Tutti diversi, li ascolto spesso, anche se mai a cadenza fissa.
I filmSiamo andati al cinema a vedere Diamanti di Ozpetek, un regista che non mi piace particolarmente (da profano del cinema, i suoi film mi sembrano un po’ tutti uguali). Questo invece è molto particolare e potente, liberatorio.
Ho visto #likemeback su RaiPlay. Il film è ambientato lungo le coste della Croazia. Una vacanza estiva in barca tra tre ragazze italiane prende una brutta piega dopo la partenza spensierata. O forse la brutta piega era insita nell’incipit di un viaggio lontano dalla città, dalle famiglie e dalle altre amicizie ma costantemente rilanciato in rete tra social, stories, follower e compagnia. O forse la brutta piega è quella che hanno preso le vite delle persone di 20 anni o giù di lì, almeno questo sembra volerci dire il film. Vite schiacciate tra ansia da prestazione globale, paura di rimanere fuori e complessiva solitudine. E vite in cui essere giovani e belle non basta mai. I dialoghi misti in italiano e inglese creano una atmosfera strana e danno un ritmo tutto sommato lento, come le onde del mare.
Le serieNon sono mai stato appassionato di serie.
Nel 2024 ho guardato Silverpoint, una serie per teenager a tema fantascienza e mistero. Episodi brevi, molto semplice e leggera, ma è simpatica.
Il teatroA marzo abbiamo visto “Pa’”, uno spettacolo su Pierpaolo Pasolini, o forse sarebbe meglio dire con Pasolini. Luigi Lo Cascio interpreta Pasolini in versi e ossa. Non siamo arrivati molto preparati ed eravamo anche un po’ stanchi, ma lo spettacolo è intenso e, passatemi il termine, difficile. La recitazione è a ritmo serrato e in metrica: anche le frasi più semplici diventano piccoli scogli da scalare. Il percorso è autobiografico, da un momento antecedente al concepimento fino alla morte, forse oltre la morte stessa. Viene portato in scena un Pasolini molto intimo e profondamente lirico, anche quando questo si manifesta in modo eccessivo. Ma i passaggi politici, che ruotano intorno alla morte del fratello, sono potentissimi e tragicamente attuali.
Ad aprile abbiamo visto insieme Oliva Denaro. Ambra Angiolini è molto brava, e lo sapevo già ma non mi era ancora capitato di vederla dal vivo. È uno spettacolo forte e molto attuale.
In autunno ho visto Roberto Zucco, molto cupo e tragico. È un’opera complessa di cui non sono riuscito a capire tutto, avrei avuto bisogno di una spiegazione.
Infine ho visto La traiettoria calante. Uno spettacolo in forma di monologo che parla del crollo del Ponte Morandi a Genova. L’autore/attore è giovane e molto bravo, ma non mi è piaciuto molto il modo in cui veniva affrontata la tragedia, quasi da standup comedy.
I viaggiAbbiamo visitato diverse città: Ravenna, Milano, Roma, Bologna, in modi e tempi diversi, qualcuna in giornata, altre per più giorni.
Abbiamo fatto una vacanza estiva in Corsica, l’ultima volta ci eravamo stati nel 2007.
Un po’ è un privilegio, si capisce, poter fare così tanti viaggi con tutta la famiglia. Un po’ anche una questione di priorità, per noi soprattutto conta andare in giro e vedere posti diversi e persone diverse, anche senza fare cose complicate.
-
11:00
Mappery: The London Underground in Cross Stitch
sur Planet OSGeo“A Girl on the Net” shared this amazing piece of needle work, the London Underground map in cross-stitch, complete with the key to lines and interchanges.
She commented “Nerds may note that:
a) the Vicky line is unfinished (for various reasons, it was PERFECT timing for her to give this to me now, and she will finish that line later, DO NOT even THINK about being a dick and commenting on this when she’s made such an incredible thing)
b) the Overground has since been renamed and recoloured (ALL London transport stuff evolves and changes, that is the beauty of it and why I love it – she’s annoyed by this but I am not in any way).”If Giuseppe Sollazzo is reading, the challenge has been laid on your table!
-
22:44
Stefano Costa: Two new releases for Total Open Station
sur Planet OSGeoA few weeks ago the Total Open Station repository saw a burst of activity, when one blocking issue was finally solved, and that allowed me and the other contributors to release in a short cycle the long awaited 0.6 version, followed by the 0.7 version.
Version 0.6 is almost entirely the work of psolyca, who added full support for LandXML as both input and output format. The subset of LandXML that is supported is specifically targeted to survey data and we are looking forward to seeing reports from users in the field. There are many applications that are compatible with LandXML. During the 0.6 release cycle, the project adopted a code of conduct, the creation of a Windows portable app (click-and-run, even from a USB stick) was automated, as the continuous testing of the code.
Version 0.7 is a much simpler story. We switched to the new standard pyproject.toml configuration file for the project metadata, ensuring a cleaner development environment, and we added a variant of the existing CSV output format that is compatible with the LandSurveyCodesImport plugin for QGIS.
Speaking of QGIS, our contributor Enzo Cocca has created a beautiful plugin for using Total Open Station inside QGIS, with a dedicated interface for the same underlying functionality. For our next release, we have planned to bring some changes and new features that were added in the plugin repository, and align the version that is used (currently 0.5.3).
The homepage of the project is always at [https:]] with links to the documentation and downloads. We will be happy to hear your reports and accept your contributions to the development of the software.
-
15:02
19th Century Street View of Chicago
sur Google Maps ManiaImagine stepping straight into the heart of history - and finding yourself surrounded by the wonders of 1893. The Chicago 00 Project makes it possible, weaving authentic vintage photographs of the 1893 World's Columbian Exposition in Chicago into a breathtaking, time-traveling Street View adventure!For example, click on the White City Court of Honor map marker, and you are transported into
-
11:00
Mappery: All Roads Lead Home
sur Planet OSGeoPièce jointe: [télécharger]
A beauty from Dean, can you work out the location?
-
7:34
Une évaluation mondiale des zones d'accès préférentiel pour la pêche artisanale
sur Cartographies numériques
Source : Basurto, X., Virdin, J., Franz, N. et al. (2024). A global assessment of preferential access areas for small-scale fisheries. npj Ocean Sustain 3, 56. [https:]] (article sous licence Creative Commons Attribution)Des chercheurs du Marine Geospatial Ecology Lab de l'Université Duke ont co-écrit la première évaluation mondiale des zones d'accès préférentiel, un outil spatial essentiel mais négligé pour sécuriser l'espace océanique pour la pêche artisanale. L'article, publié en novembre 2024, dans npj Ocean Sustainability, fournit une évaluation mondiale de l'état des zones d'accès préférentiel (ZAP), un outil politique relativement peu étudié pour régir la pêche artisanale. Les auteurs constatent que 44 pays, pour la plupart à revenu faible ou intermédiaire, ont établi un total de 63 ZAP couvrant 3 % de la superficie du plateau continental mondial. L'analyse d'un sous-échantillon ad hoc de douze pays sur trois continents pour lesquels des données étaient disponibles (2016-2017) a révélé que les ZAP soutenaient un volume de captures marines de la pêche artisanale, une valeur débarquée, une pêche pour l'autoconsommation et des espèces plus nutritives que les zones marines situées hors des ZAP. Cette évaluation préliminaire suggère que, si elles sont correctement appliquées grâce à une gouvernance partagée avec les pêcheurs et à des pratiques de pêche responsables, des zones océaniques relativement petites pourraient apporter d'importants avantages en termes de sécurité nutritionnelle, d'économie et d'emploi à des millions de personnes vivant dans les zones côtières. Les auteurs proposent un programme de recherche et d'action politique futur basé sur ces conclusions.
Zones d’accès préférentiel par niveau de revenu national de la Banque mondiale avec deux illustrations
au niveau des pays (source : Basurto et al., 2024).Articles connexes
Cartes et données sur l'impact de la pêche sur les écosystèmes marins (Sea Around Us)
Global Fishing Watch, un site pour visualiser l'activité des navires de pêche à l'échelle mondiale
Vers de possibles variations dans la répartition des stocks de poissons (dans et hors ZEE) en raison du changement climatique
Une carte réactive de toutes les ZEE et des zones maritimes disputées dans le monde
MPAtlas, un atlas de la protection marine pour évaluer les aires marines réellement protégées
Cartes et données pour alimenter le débat sur les attaques de requins dans le monde
La pêche, enjeu majeur des négociations autour du Brexit
-
11:00
Mappery: Bannau Brycheiniog Visitor Centre
sur Planet OSGeoJoe Davis shared this pic from the Brecon Beacons National Park visitor centre
-
9:21
Introducing Smart Maps
sur Google Maps ManiaSmartMapIn the past two years, we’ve witnessed remarkable advancements in AI-powered mapping technologies. One of the most transformative innovations is the integration of natural language processing into interactive maps, enabling users to perform spatial searches using everyday language. This shift is revolutionizing how users interact with geographic data - not just by simplifying search, but
-
8:54
Mayotte, une si belle île à rebâtir
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueMéconnue des touristes, l’île de Mayotte se prévaut pourtant d’un patrimoine, d’une flore et de traditions ancestrales riches et singulières. Publié quelques mois avant le passage du cyclone Chido, l’Atlas de la ruralité mahoraise nous plonge dans un archipel aux multiples facettes, à 8.000 kilomètres de Paris.Jamais peut-être un Atlas n’aura eu une portée à si court terme… Réalisé sous la direction de Monique Gherardi, « l’Atlas de la ruralité mahoraise - Un patrimoine culturel et naturel, du chant au champ » est paru en mai dernier aux éditions Orphie. Co - financé par le Conseil Départemental de Mayotte, il voulait offrir un état des connaissances sur la richesse du patrimoine matériel et immatériel de Mayotte. Avec pas moins de soixante - quatre cartographies inédites, il illustrait les mutations auxquelles fait face l’île, depuis entre autres sa départementalisation en 2011. Son dessein risque d’être quelque peu modifié suite au passage de l’intense cyclone Chido qui a frappé de plein fouet l’île de Mayotte le 14 décembre 2024.
Retrouvez la suite de cet article dans le magazine SIGMAG N°44
-
8:46
De nouveaux usages pour l'imagerie satellitaire dans ArcGIS
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
La récente possibilité d’intégrer des images satellites dans ArcGIS Reality for ArcGIS Pro afin de créer le socle de votre jumeau numérique offre de nouvelles perspectives et notamment concernant la production et l’utilisation de modèles numérique haute résolution. Dans cet article, nous vous partageons quelques bonnes pratiques sur la façon de choisir l'imagerie satellite appropriée pour générer des produits de haute qualité et haute-fidélité avec le module Reality Mapping de ArcGIS Reality for ArcGIS Pro.
Pourquoi utiliser les images satellitaires ?
Les satellites, en orbite permanente autour de la Terre, prennent régulièrement des images, offrant ainsi une surveillance étendue de n'importe quelle zone de la planète. Ces images servent aujourd'hui dans de nombreux domaines, tels que l'évaluation des catastrophes, la cartographie de l'utilisation des sols, ainsi que dans les secteurs de la défense et des infrastructures civiles. Avec des résolutions de plus en plus importantes, il est possible aujourd’hui d’atteindre une résolution proche de 1cm pour des satellites basses orbites et proche de 30 cm pour des satellites haute orbites. Une question légitime que l’on pourrait se poser est : à quel moment vais-je réellement avoir besoin d’une telle résolution ?
Prenons l'exemple des catastrophes naturelles : les séismes, les inondations et les glissements de terrain sont des événements extrêmes et de plus en plus fréquents à l'échelle mondiale. Après de tels incidents, l'envoi d'équipes sur le terrain pour évaluer les dégâts est souvent impossible en raison de l'accès limité, de l'isolement des zones touchées, ou des risques encourus. Heureusement, nos capacités à observer, surveiller, et même anticiper et réagir rapidement à ces phénomènes continuent de progresser. L'imagerie satellitaire et les cartes basées sur cette technologie sont devenues des outils essentiels pour la gestion des urgences et des catastrophes. Ces données permettent non seulement d'identifier les zones à risque, mais aussi de prévoir les événements et de prendre des mesures pendant les moments de crises. Si l'imagerie 2D a été largement utilisée jusqu'à présent, l'ajout d'une dimension supplémentaire est désormais possible grâce à ArcGIS Reality for ArcGIS Pro.
Adressons maintenant un autre thème : le jumeau numérique du territoire. Nous cherchons aujourd’hui à représenter dans l’outil numérique le monde physique qui nous entoure afin de visualiser, gérer et planifier les opérations du quotidien. Un tel projet permet de centraliser les informations afin de construire l’avenir autour d’un socle commun. Grâce aux images satellites, ArcGIS Reality for ArcGIS Pro propose des solutions pour générer rapidement et efficacement des modèles numériques de surface (MNS) et des photomaillages 3D. Depuis la version 3.3 d'ArcGIS Pro, il est également possible de créer des "Orthophotos Vraies" à partir de ces images. Ces types d'orthophotos sont particulièrement utiles pour la cartographie et la surveillance, car elles offrent une vue aérienne parfaitement orthogonale, corrigé de toute distorsions et garantissant ainsi une précision pixel par pixel en 2D.
Ces dernières années, l'accès aux données satellitaires s'est considérablement démocratisé. Pendant des décennies, l'imagerie satellitaire était analysée de manière contextuelle, en extrayant des informations basées sur les valeurs des pixels. Aujourd'hui, grâce aux avancées des algorithmes et à la puissance accrue des ordinateurs, il est possible de réaliser des calculs géométriques (photogrammétrie) à partir de multiples vues satellitaires d'une même zone.
Localement, il est ensuite possible de compléter la production des données 2D et 3D produites à partir d’images satellites par des données aériennes traditionnelles ou des vols de drones.
Comment générer des résultats de qualité à partir d'images satellite ?
Les satellites de nombreux fabricants de capteurs renommés, tels qu'Airbus, Maxar, BlackSky, et autres, effectuent une surveillance périodique de la surface terrestre. Ces fournisseurs permettent de commander des données à la demande en programmant les satellites pour capturer des images d'une zone spécifique. Cela permet aux utilisateurs de personnaliser la collecte de données selon leurs besoins, tout en réduisant les écarts entre les images afin d'optimiser les résultats. Certains capteurs offrent même la possibilité de recueillir simultanément des paires ou triplets d'images stéréoscopiques.
Outre la possibilité de commander l’acquisition d’image, une autre option consiste à accéder aux catalogues d’archives des fournisseurs et à sélectionner les images disponibles les plus appropriées pour générer des résultats de haute qualité.
Afin de garantir un résultat optimal avec Reality for Pro, il est important de respecter certains critères :
- Utiliser des images primaires/standard, non traitées, jusqu'à 4 canaux, accompagnées des RPC (Coefficients Polynomiaux Rationnels) respectifs en entrée.
- S'assurer que la totalité de la zone d'intérêt est couverte par l’imagerie et qu'elle présente une redondance suffisante.
- Choisir la meilleure résolution disponible, en fonction de vos besoins.
- Sélectionner des images avec des différences radiométriques et temporelles minimales (jusqu'à 1-3 ans recommandés).
- S'assurer que les images ne comportent pas de zones couvertes par des nuages.
- Utiliser des masques pour les surfaces planes comme les zones d'eau.
- Optez pour des valeurs d'élévation du soleil avec un angle supérieures à 60 degrés afin de minimiser les zones d’ombres dans vos résultats.
- Sélectionnez à la fois des images de type nadir (1-5 degrés) et des images plus obliques (jusqu'à 20-25 degrés) pour garantir une qualité nette et éviter les occlusions et les lacunes dans les données.
Analysons chacune de ces exigences et les recommandations que nous proposons pour obtenir des résultats optimaux :
Type d'image
Reality Mapping prend en charge les données d'imagerie non traitées ainsi que les informations RPC qui les accompagnent. Bien que les fournisseurs d’imagerie soient capables de fournir des images déjà orthorectifiées ou projetées en tant que produit, ce type d'images traitées n'est pas approprié pour ArcGIS Reality for ArcGIS Pro. Il est important de plutôt opter pour de l’imagerie primaire / standard. Le format GeoTiff (8 ou 16 bits) est recommandé, bien que d'autres formats soient également supportés (JPEG2000). Reality Mapping peut fonctionner avec des images multispectrales (avec 3 ou même 4 bandes) et panchromatiques. Si les deux types d'images sont disponibles, il est possible de générer un produit Pansharpen afin de bénéficier de la résolution de l’image panchromatique et de la plage colorimétrique de l’image multispectrale.
Outre les images unitaires, les fournisseurs d’imagerie offrent souvent la possibilité d'acheter des images stéréo ou tri-stéréo. Si ces images sont disponibles pour votre zone d'intérêt, elles peuvent être utilisées et sont d’ailleurs recommandé afin de limiter les erreurs de reconstruction.
Chevauchement et redondance
Une exigence fondamentale pour une reconstruction réussie est de garantir une couverture correcte de la zone d'intérêt et un chevauchement adéquat entre les images. La reconstruction photogrammétrique repose sur le principe géométrique selon lequel un point dans l'espace 3D doit être visible sur plusieurs images à partir de perspectives différentes pour être reconstruit. Le minimum absolu est de deux images (stéréo), mais il est toujours recommandé d'en avoir plus. En d'autres termes, il faut des images redondantes de la même zone et capturer la scène à partir de différents points de vue. En adaptant ce principe aux données satellitaires et en tenant compte de la disponibilité typique des données archivées, il est conseillé d'avoir au moins 5 à 10 images se chevauchant fortement. Il est certain qu'un plus grand nombre d'images réduit la probabilité de lacunes dans l'information. Le chevauchement recommandé entre les images doit être aussi élevé que possible. Idéalement, la zone d'intérêt devrait être entièrement couverte par chaque image.
Empreintes des images et chevauchement au-dessus de notre zone d'intérêt. Capture de données avec le capteur
Pleiades Neo d'Airbus. Traitées avec ArcGIS Reality for ArcGIS Pro.
Résolution
La qualité des résultats est directement liée à la résolution des données d'entrée. La résolution d'entrée doit donc être choisie en fonction des exigences de chaque application. En règle générale, les capteurs commerciaux modernes de plusieurs fournisseurs ont une résolution de 30 à 50 cm.
Temps d'acquisition
Avec les constellations de satellites disponibles, des endroits à la surface de la Terre sont visités régulièrement et les images correspondantes peuvent être trouvées dans les archives du fournisseur. Cependant, il faut souvent des mois pour revisiter la même zone et il y a de fortes chances que la zone ait subi des changements entre deux captures consécutives (par exemple, en raison de chantiers de construction en cours, de modifications du paysage, de catastrophes naturelles, d'effets saisonniers). Pour obtenir des résultats optimaux, la période d'acquisition des données doit être aussi courte que possible, idéalement entre 1 et 3 ans. Il s'agit de minimiser les changements significatifs de la scène, à moins que le projet nécessite spécifiquement des données à des fins de détection des changements, par exemple à la suite d'une catastrophe naturelle. Pour réduire l'impact des effets saisonniers, il est conseillé de sélectionner des images de la même saison de l'année afin d'atténuer les changements radicaux tels que les variations de l'apparence de la canopée. Ceci est à prendre en compte en particulier dans les régions où ces changements sont plus prononcés et plus fréquents.
Couverture nuageuse
La couverture nuageuse est un autre facteur à prendre en compte lors de la sélection des images d'entrée. Idéalement, la couverture nuageuse devra être minimale (proche de 0%) afin d'éviter les manques d'information ou le bruit dans nos résultats.Exemple d’artefacts lié à la présence de nuages dans les images. Ici le bruit généré dans le photomaillage 3D rend la zone
inexploitable. Capture de données avec le capteur Pleiades Neo d'Airbus. Traitées avec ArcGIS Reality for ArcGIS Pro.
Gestion des masses d'eau
Les zones aquatiques (telles que les mers, les lacs, les rivières, etc.), en particulier les plus grandes, jouent un rôle crucial dans la qualité des résultats et les temps de traitement. Leur mouvement continu, combiné aux conditions de réflexion changeantes, peut introduire du bruit dans les résultats. Cependant, nous proposons une solution : en utilisant des polygones 3D qui attribuent une valeur d'élévation à ces zones d'eau (« Waterbody Features » dans Reality for Pro), nous pouvons améliorer les performances et éliminer le bruit potentiel.
Angle d'élévation du soleil
Il est recommandé d'utiliser des images avec un angle d'élévation du soleil de 60° ou plus afin de réduire les zones d'ombre dans les résultats.
Angle de visualisation
Pour maximiser la précision et l'exhaustivité des données et obtenir des résultats visuels attrayants, il est essentiel de sélectionner une combinaison appropriée d'angles d'incidence et de décadrage entre les images. Par définition, l'angle d'incidence/off-nadir est formé entre la normale au sol et la direction d'observation, souvent appelée « direction de visée ». Par conséquent, plus l'angle est faible, plus l'image est « nadir ». Les images « nadir » nous fournissent des informations sur la géométrie des objets vu d'en haut - par exemple, l'image d'un hangar d'aviation ressemblera à un rectangle – alors que des images avec une direction de visée plus oblique nous fournissent des informations importantes pour la reconstruction des éléments verticaux comme les façades de bâtiments ou encore les falaises ou pans de montagne abrupte. La sélection de la combinaison optimale d'angles d'incidence peut s'avérer complexe. D'une manière générale, nous recommandons une combinaison de plusieurs images de type nadir (angle d'incidence inférieur à 5 degrés) et de quelques images obliques (jusqu'à 20-25 degrés). Cela dit, les vues obliques extrêmes ne sont pas bénéfiques, car elles ne sont pas combinées de manière optimale avec les vues de type nadir dans le flux de travail photogrammétrique. Il est donc important de sélectionner soigneusement les images pour couvrir toutes les directions du regard lorsque cela est possible (par exemple, les quatre façades des bâtiments) afin d'éviter les zones sombres et les lacunes en matière d'information.
Deux images de la même zone capturées sous différents angles d'incidence.
Capture de données avec le capteur Pleiades Neo d'Airbus.
Marseille
Voici la ville de Marseille en France, nous avons utilisé ici 9 scènes issue de trois images tri-stéréo avec leurs RPC respectifs. Les données ont été capturées par les capteurs Pléiades Neo d’Airbus entre mai et juin 2024.
Vue de l’Ortho Vraie au niveau de l’Orange Vélodrome de Marseille. Capture de données avec le capteur Pleiades Neo
d'Airbus. Traitées avec ArcGIS Reality pour ArcGIS Pro.Vue en photomaillage 3D de l’Orange vélodrome, Marseille. Capture de données avec le capteur Pleiades Neo d'Airbus.
Traitées avec ArcGIS Reality for ArcGIS Pro.
Tokyo
Regardons à présent la ville de Chuo à Tokyo. Pour ce processus de Reality Mapping, nous avons utilisé 11 scènes avec leurs RPC respectifs. Les données ont été capturées par les capteurs Pleiades Neo d'Airbus entre 2021 et 2023 et téléchargées à partir des archives OneAtlas d'Airbus.
Vue de l’Ortho Vraie au niveau de la gare centrale de Tokyo. Capture de données avec le capteur Pleiades Neo d'Airbus.
Traitées avec ArcGIS Reality for ArcGIS Pro.
Traitées avec ArcGIS Reality for ArcGIS Pro.
Sydney
Voici la ligne d'horizon de Wynyard à Sydney ! Pour ces résultats, 15 scènes Airbus Pleiades Neo ont été utilisées au printemps 2022 et traitées avec ArcGIS Reality pour ArcGIS Pro.
Vue rapprochée de Sydney de l’Ortho Vraie. Capture de données avec le capteur Pleiades Neo d'Airbus.
Traitées avec ArcGIS Reality for ArcGIS Pro.
Vue du photomaillage 3D de Sydney. Capture de données avec le capteur Pleiades Neo d'Airbus.
Traitées avec ArcGIS Reality for ArcGIS Pro
-
16:30
Du 10 au 12 juin 2025 à Aix-en-Provence : formation "savoir utiliser les Fichiers Fonciers"
sur Datafoncier, données pour les territoires (Cerema)Publié le 07 octobre 2024Une session de formation "savoir utiliser les Fichiers Fonciers" se tiendra du 10 au 12 juin 2025 dans les locaux du Cerema à Aix-en-Provence.Cette session est à destination des bénéficiaires des Données Foncières (Fichiers fonciers et DV3F) et des bureaux d'études.Vous trouverez le contenu et le coût de la formation dans la rubrique AccompagnementInscription jusqu'au 12 mai (…)
Lire la suite
-
16:16
Café géo de Paris, lundi 19 mai 2025 : « Saint-Marin et les micro-Etats », avec Leopoldo Guardigli et Bruno Fuligni
sur Les cafés géographiquesLundi 19 mai 2025, de 19h à 21h, Café de Flore, salle du premier étage, 172 boulevard Saint-Germain, 75006 Paris
Les Cafés Géo de Paris invitent Leopoldo Guardigli, ambassadeur de Saint-Marin en France, avec l’historien Bruno Fuligni, spécialiste des micronations et auteur de nombreux livres sur le sujet.
Quel destin pour les micro-Etats dans la mondialisation ? Sont-ils condamnés à être des paradis fiscaux et touristiques ? Saint-Marin, fondé il y a 17 siècles, est la plus ancienne république du monde. C’est un exemple de longévité qui donne des idées pour comprendre comment les micronations peuvent se penser dans le monde aujourd’hui.
-
16:15
Café géo de Saint-Malo, samedi 24 mai 2025 : « Détroits et canaux, un système maritime mondial sous tension », avec Laurent Carroué
sur Les cafés géographiquesSamedi 24 mai 2025, de 16h30 à 18h30, salons de l’Hôtel de l’Univers, 12 place Chateaubriand, 35400 Saint-Malo
detroit3
-
15:52
Qui sont les 4,6 millions de ménages locataires du parc social en France en 2022 ?
sur Cartographies numériques
Source : En 2022, la moitié des ménages locataires du parc social ont plus de 53 ans, Marine Seilles (Insee Première, n° 2047, avril 2025)Qui sont les 4,6 millions de ménages locataires du parc social (soit 10,5 millions de personnes) en France en 2022 ? Les principaux enseignement de cette étude de l' Insee montrent que :
- Le taux de pauvreté des ménages locataires du parc social augmente : +5 points en 6 ans, alors qu’il reste stable pour les locataires du privé et les propriétaires. En 2022, 34% des ménages locataires du social sont pauvres, contre 21% pour les locataires du privé et 8% pour les propriétaires.
- Les locataires du parc social déménagent moins souvent : 20% des ménages locataires du parc social ont emménagé dans leur logement il y a moins de 2 ans, contre 44 % dans le secteur libre. Cette part diminue entre 2016 et 2022 (-5 points), reflet des difficultés d’accès au parc social.
- Une fois installés, les ménages ont tendance à y rester plus longtemps que ceux qui sont locataires du secteur libre, qui sont souvent plus jeunes et deviennent plus souvent propriétaires dans les années qui suivent. Dans le parc social, les ménages sont plus hashtag#âgés : la moitié des ménages ont plus de 53 ans, contre 42 ans pour les locataires du parc privé.
- La part de ménages locataires du parc social est beaucoup plus élevée dans certaines intercommunalités, notamment en Ile-de-France et dans les Hauts de France. Elle dépasse 40 % dans la communauté urbaine de Creil (47%), de Lens-Liévin (41%) ou encore à Plaine Commune (45 %), contre 16% en moyenne nationale.
Le fichier démographique sur les logements et les individus (Fidéli) est constitué par l’Insee à partir de données fiscales (impôt sur le revenu, taxe d’habitation et taxe foncière). Il permet de décrire les logements ainsi que leurs occupants, en distinguant locataires et propriétaires. Dans Fidéli, les logements sociaux sont identifiés par appariement avec le répertoire des logements locatifs des bailleurs sociaux (RPLS), géré par le Service de la donnée et des études statistiques (SDES). Le nombre de ménages locataires du parc social estimé avec Fidéli (4,6 millions en 2022) et le nombre de logements sociaux occupés issu du RPLS (4,8 millions) diffèrent essentiellement du fait des logements dans lesquels Fidéli n’a pas réussi à localiser un ménage. Il diffère également des effectifs issus du recensement de la population, du fait de différences de concepts, ou de l’enquête Logement. L’étude porte sur les ménages vivant dans un logement ordinaire en France. Les ménages logés gratuitement sont exclus du champ de l’étude. Pour les analyses sur les revenus et le niveau de vie, le champ est restreint aux ménages résidant en France métropolitaine, à La Réunion et en Martinique.Part de ménages vivant dans le parc social en 2022 (Insee Première, n° 2047, avril 2025)
Articles connexes
Les données sur le logement social en France disponibles en open data
Portrait des nouveaux quartiers prioritaires de la politique de la ville en France
Cartes et données sur les Quartiers prioritaires de la politique de la ville (QPV)
Etudier les établissements scolaires en lien avec la politique de la ville : intérêt et limites
Gentrification et paupérisation au coeur de l'Île-de-France (évolutions 2001-2015)
Quelle évolution de la ségrégation résidentielle en France ? (France Stratégie)
L’inégale abordabilité du logement dans les villes européennes (Cybergéo)
Etudier la structure et l'évolution des logements dans 50 métropoles des Etats-Unis
- Le taux de pauvreté des ménages locataires du parc social augmente : +5 points en 6 ans, alors qu’il reste stable pour les locataires du privé et les propriétaires. En 2022, 34% des ménages locataires du social sont pauvres, contre 21% pour les locataires du privé et 8% pour les propriétaires.
-
13:53
QGIS Blog: QGIS Grant Programme 2025 Results
sur Planet OSGeoWe are extremely pleased to announce the six funded proposals for our 2025 QGIS.ORG grant programme. Funding for the programme was sourced by you, our project donors and sponsors! Note: For more context surrounding our grant programme, please see: QGIS Grants #10: Call for Grant Proposals 2025
These are the proposals:
- Trusted Projects and Folders
- Port SQL Query History to Browser
- Add screenshots to PyQGIS reference documentation
- Coverity Scan cleanup
- SIP Incremental builds
- Adopt wasm32-emscripten as a build target for QGIS
As usual, we provide a summary of the proposal discussions.
Since the total requested budget is equal to the available budget, there is no need for a voting this year.
On behalf of the QGIS.ORG project, I would like to thank everyone who submitted proposals for this call!
-
11:00
Mappery: El Chalten
sur Planet OSGeoRobert Simmon shared this pic of a road sign approaching El Chalten in Argentina. It reminds me of the second post on the site when Ken and I had the idea to start Mappery.
-
8:55
Find Your Birthday Tree
sur Google Maps ManiaEvery year, the city of San Francisco plants a tree to celebrate my birth. Well, not just one - each year, it plants several. So far, the city has planted 455 trees on my birthday. And now, thanks to the thoughtful residents of San Francisco, there’s an interactive map that shows the exact locations of all my birthday trees.If you’re curious, you can view the locations of all my birthday trees
-
7:00
Du rôle du logiciel dans la chaîne d’approvisionnement
sur Dans les algorithmesEn 2019, dans une tribune pour le New Yorker, Miriam Posner explique le rôle du logiciel dans les chaînes d’approvisionnement, pour mieux nous en pointer les limites. Si les chaînes logistiques ne sont pas éthiques, c’est parce que l’éthique n’est pas une donnée que traite leurs logiciels. Explication.
Professeure à l’université de Californie et spécialiste des questions technologiques, Miriam Posner signe dans le New Yorker une très intéressante tribune sur la transformation logicielle de la chaîne logistique.
En consultant un rapport (« cauchemardesque ») du China Labor Watch (l’Observatoire du travail en Chine, une association qui informe et dénonce les conditions de travail sur les chaînes de fabrication des usines chinoises) sur les conditions de fabrication de jouets en Chine, Miriam Posner s’interrogeait : comment se fait-il que nous ne sachions pas mieux tracer l’origine des produits que nous consommons ?
De l’abstraction des chaînes d’approvisionnementsQuand elle a demandé à ses étudiants de travailler sur la question de la chaîne d’approvisionnement de matériel électronique, elle s’est rendu compte que, quand bien même certaines entreprises se vantent de connaître et maîtriser leur chaîne logistique de bout en bout, aucune ne sait exactement d’où proviennent les composants qu’elles utilisent. « Cette ignorance est inhérente au mode de fonctionnement des chaînes d’approvisionnement ». La coque de plastique d’une télévision par exemple peut-être construite dans une petite usine n’employant que quelques personnes qui n’interagit qu’avec des fournisseurs et acheteurs adjacents (un fournisseur de plastique et une entreprise de montage par exemple). Cette intrication favorise la modularité : si une entreprise cesse son activité, ses partenaires immédiats peuvent la remplacer rapidement, sans nécessairement avoir à consulter qui que ce soit, ce qui rend la chaîne très souple et adaptable… Mais rend également très difficile l’identification des multiples maillons de la chaîne logistique.
Nous avons une vision souvent abstraite des chaînes d’approvisionnements que nous n’imaginons que comme des chaînes physiques. Or leur gestion est devenue complètement virtuelle, logicielle. Les personnes qui conçoivent et coordonnent ces chaînes logicielles elles non plus ne voient ni les usines, ni les entrepôts, ni les travailleurs. Elles regardent des écrans et des tableurs : leur vision de la chaîne d’approvisionnement est tout aussi abstraite que la nôtre, explique la chercheuse.
Le leader logiciel de la chaîne d’approvisionnement est l’allemand SAP. SAP est une suite logicielle que vous ne pouvez pas télécharger sur l’App Store. C’est un logiciel industriel spécialisé qui se déploie à l’échelle d’entreprises pour piloter la chaîne d’approvisionnement (et qui comprend de nombreux modules additionnels de comptabilité ou de ressources humaines). Pour comprendre son fonctionnement, Miriam Posner a suivi une formation en ligne dédiée.
Le logiciel est complexe. Il se présente comme un ensemble de dossiers de fichiers qu’on peut agencer pour former la chaîne d’approvisionnement (commande, fabrication, emballage, expéditions…). La conception d’une chaîne est un processus qui implique plusieurs opérateurs et entreprises, sous forme de « composants ». Un spécialiste de la demande par exemple entre des informations sur les ventes passées (variations saisonnières, promotions planifiées, etc.) et le logiciel calcule combien de produits doivent être fabriqués. Un autre spécialiste utilise des informations sur les délais d’expéditions, les coûts de stockage, les capacités d’usine pour créer un « plan de réseau logistique » qui détermine le moment où chaque engrenage du processus de fabrication doit tourner. Ce plan est ensuite transmis à un autre spécialiste pour planifier la production et calculer le calendrier détaillé qui vont déterminer la manière dont le processus se déroulera sur le terrain le plus précisément possible. Tout cela prend la forme de séries de feuilles de calcul, de cases à cocher, de fenêtres contextuelles… qui n’est pas sans rappeler l’analyse que faisait Paul Dourish sur la matérialité de l’information qui s’incarne aujourd’hui dans le tableur. C’est « pourtant là que les prévisions de marchés sont traduites en ordre de marche des travailleurs », explique Posner. La planification de la production et le calendrier détaillé reposent sur des « heuristiques », des algorithmes intégrés qui répartissent la production et donc la main d’oeuvre pour que les installations fonctionnent à leur capacité maximale. D’ailleurs, souligne Miriam Posner, l’exécution d’une heuristique implique de cliquer sur un bouton de l’interface qui ressemble à une petite baguette magique, comme s’il suffisait d’une action simple pour activer la chaîne.
L’utilisation de SAP est difficile reconnaît la chercheuse. Chaque tâche est compliquée à configurer, avec d’innombrables paramètres à valider. Le plus souvent, ce travail est divisé et nécessite de multiples interventions différentes. En fait, « aucun individu ne possède une image détaillée de l’ensemble de la chaîne d’approvisionnement. Au lieu de cela, chaque spécialiste sait seulement ce dont ses voisins ont besoin. »
« Dans un tel système, un sentiment d’inévitabilité s’installe. Les données dictent un ensemble de conditions qui doivent être remplies, mais rien n’explique comment ces données ont été obtenues. Pendant ce temps, le logiciel joue un rôle actif, en peaufinant le plan pour répondre aux conditions le plus efficacement possible. Les optimiseurs intégrés de SAP déterminent comment répondre aux besoins de la production avec le moins de « latence » et au moindre coût possible (le logiciel suggère même comment optimiser un conteneur pour économiser sur les frais d’expédition). Cela implique que des composants particuliers deviennent disponibles à des moments particuliers. Les conséquences de cette optimisation incessante sont bien documentées. Les sociétés qui commandent des produits transmettent leurs demandes déterminées par calcul à leurs sous-traitants, qui exercent ensuite une pression extraordinaire sur leurs employés. Ainsi, China Labour Watch a constaté que les travailleurs de la ville de Heyuan en Chine chargés de fabriquer une poupée Disney que Miriam a achetée à ses enfants (vendue au prix 26,40 $) travaillent vingt-six jours par mois, assemblent entre 1800 et 2500 poupées par jour et gagnent un centime pour chaque poupée qu’ils complètent. »
De la distance spatiale, temporelle et informationnellePour la chercheuse, le défi majeur dans la gestion de la chaîne d’approvisionnement est la grande distance – « spatiale, temporelle et informationnelle » – qui sépare le processus du monde réel de la fabrication et de la consommation. Ces distances introduisent de nombreux problèmes, comme l’effet « coup de fouet », qui consiste à ce que chaque niveau produise plus que prévu pour mieux répondre à la demande ou ajuster ses bénéfices avec ses coûts. Le battement d’ailes d’un consommateur peut-être amplifié de manière démesurée par la chaîne. En fait, la demande temps réel du pilotage que produit le logiciel ne correspond pas vraiment à la réalité effective des multiples chaînes de production, où chaque acteur fait ses ajustements (qui prennent en compte d’autres commandes, des délais, la disponibilité de fournitures ou la surproduction pour réduire les coûts…). Pourtant, le logiciel procède d’une vision qui maximise le temps réel et donne l’illusion d’être au coeur de la tour de contrôle de la production.
L’autre effet coup de fouet, bien sûr, s’applique directement aux travailleurs des différentes usines prestataires de la chaîne. Quand les exigences des commandes parviennent jusqu’aux travailleurs, elles se révèlent plus exigeantes et plus punitives.
Dans le numéro 4 de l’excellent magazine Logic, Miriam Posner avait déjà livré une réflexion sur le sujet. Elle y rappelait déjà que si les questions de l’architecture physique de la chaîne d’approvisionnement mondialisée était souvent étudiée (notamment dans The Box de Marc Levinson qui s’intéressait au rôle du conteneur ou encore dans The Deadly life of logistics de Deborah Cowen), ce n’était pas beaucoup le cas de son aspect logiciel comme des échanges de données et d’informations qui la sous-tendent. L’industrie logicielle de la gestion de la chaîne d’approvisionnement est pourtant l’un des domaines d’activité qui connaît la plus forte croissance, mais qui opère de manière assez discrète, car les informations qu’elle traite sont très concurrentielles. Amazon, par exemple, n’est pas tant un commerçant qu’une chaîne d’approvisionnement incarnée et peu de personnes connaissent le logiciel qui l’optimise. Pour Leonardo Bonanni, PDG de Sourcemap, une entreprise qui aide les entreprises à construire leurs chaînes d’approvisionnement, l’incapacité des entreprises à visualiser cette chaîne est une fonction même de l’architecture logicielle. Pour Miriam Posner, le terme de chaîne d’approvisionnement est finalement trompeur : cette chaîne « ressemble beaucoup plus à un réseau de voies navigables, avec des milliers de minuscules affluents composés de sous-traitants qui s’écoulent dans de plus grandes rivières d’assemblage, de production et de distribution. »
Pour Bonanni, nous ne voyons qu’une parcelle des abus sur les lieux de travail qui sont portés à notre connaissance : c’est surtout le cas de quelques chaînes prestigieuses, comme dans l’électronique grand public. Mais les conditions de travail sont souvent plus opaques et les abus plus répandus dans d’autres industries, comme l’habillement ou l’agriculture, des lieux où la chaîne se recompose à chaque approvisionnement, à chaque saison, avec un nombre de noeuds et de sous-traitants, qui sont loin d’être tous intégrés à la chaîne logicielle. Les usines géantes de Foxcon masquent d’innombrables petits ateliers et usines beaucoup moins présentables qui permettent à la chaîne d’être extrêmement résiliente et robuste. En fait, « il n’y a pas de tour de contrôle supervisant les réseaux d’approvisionnement », les noeuds ne parlent qu’à leurs voisins immédiats.
Du rôle de l’échelle pour gérer l’information et de la modularité pour gérer la complexité« Ces infrastructures physiques distribuées ressemblent finalement beaucoup au réseau invisible qui les rend possibles : internet ». À chaque étape de la transformation, le produit est transformé en marchandise. Et l’information qui l’accompagnait transformée à son tour. Du plastique devient une coque qui devient une télévision… En fait, la transformation et l’échelle d’action impliquent une perte d’information. Pour récupérer une tonne d’or, vous devez en acheter à plein d’endroits différents que la fonte va transformer en une marchandise unique : la tonne d’or que vous vendez.
Un fonctionnement assez proche de la programmation modulaire, remarque Miriam Posner. La programmation modulaire est une méthode familière à tout programmeur et architecte de systèmes. Elle consiste à gérer la complexité par des unités fonctionnelles distinctes. Chaque programmeur travaille ainsi sur un module qui s’interface aux autres en spécifiant les entrées et sorties où les modalités qu’il prend en charge. Les systèmes modulaires permettent notamment de gérer la complexité et d’améliorer un module sans avoir à toucher les autres : chacun étant une sorte de « boite noire » vis-à-vis des autres.
Comme l’explique Andrew Russell, historien de l’informatique, la modularité, née dans l’architecture, a été un moyen de structurer les organisations comme l’économie. « C’est une sorte de caractéristique de la modernité ». Et les chaînes d’approvisionnement sont hautement modulaires, à l’image du conteneur, standardisé et interchangeable, qui peut contenir n’importe quoi pour se rendre n’importe où, ce qui permet aux marchandises transportées de passer à l’échelle globale.
« Les informations sur la provenance, les conditions de travail et l’impact sur l’environnement sont difficiles à gérer lorsque l’objectif de votre système est simplement de fournir et d’assembler des produits rapidement. « Vous pouvez imaginer une manière différente de faire les choses, de sorte que vous sachiez tout cela », explique Russell, « afin que votre regard soit plus immersif et continu. Mais ce que cela fait, c’est inhiber l’échelle ». Et l’échelle, bien sûr, est la clé d’une économie mondialisée. »
Pour Miriam Posner, le passage à l’échelle – la fameuse scalabilité – explique pourquoi les branches d’un réseau d’approvisionnement disparaissent. Cela aide également à expliquer pourquoi la syndicalisation transnationale a été si difficile : pour répondre aux demandes du marché, les ateliers ont appris à se rendre interchangeables. Un peu comme si « nous avions assimilé les leçons de la modularité d’une manière psychologique ».
La traçabilité de bout en bout ! Mais pour quelle transparence ?Reste à savoir si la technologie peut remédier au problème qu’elle a créé. Miriam Posner constate que l’internet des objets et la blockchain sont deux technologies qui ont reçu beaucoup d’engouements chez les praticiens des systèmes de gestion de la chaîne d’approvisionnement.
La première permet de localiser et tracer les composants alors que la seconde permet d’y attacher un numéro d’identification et un journal qui enregistre chaque fois qu’une fourniture change de main. Leurs partisans affirment que ces technologies pourraient apporter une transparence radicale aux chaînes d’approvisionnement mondiales. Le problème est que l’une comme l’autre peuvent vite être vidées de leurs sens si elles ne sont qu’une chaîne d’enregistrement de prestataires, sans informations sur leurs pratiques. Et ni l’une ni l’autre ne résolvent les problèmes liés à la transformation de produits. Pour Bonanni, elles ne résolvent pas non plus le manque de visibilité : quand tout le monde est incité à agir toujours plus rapidement et efficacement, il est difficile d’imaginer qui sera chargé de fournir plus d’informations que nécessaire. Si ces technologies pourraient certes fournir des informations détaillées sur les conditions de travail et le respect des normes de sécurité, il reste difficile de croire que l’internet des objets et la blockchain, qui sont surtout des objets techniques visant à accroître l’efficacité, le contrôle, la rapidité et la sécurité des informations puissent devenir demain des moyens pour s’assurer de chaînes d’approvisionnement socialement responsables.
Dans le domaine de la gestion des chaînes d’approvisionnement, l’autre technologie source d’innovation, c’est bien sûr l’apprentissage automatique, via des algorithmes capables de faire de meilleures prévisions et de prendre des décisions. Appliqué à la chaîne logistique, le machine learning pourrait aider à déterminer les fournisseurs et les itinéraires qui livreront les marchandises de la manière la plus rapide et la plus fiable. Les algorithmes pourraient prédire les performances des fournisseurs et des transporteurs, en leur attribuant des scores de risques selon l’historique de leurs résultats. Et demain, les réseaux d’approvisionnement pourraient se reconfigurer automatiquement, de manière dynamique, selon cette évaluation de risques… Pas sûr que cette piste améliore la cécité collective des outils, pointe Posner. Pas sûr non plus qu’elle soit si accessible quand déjà les données utilisées ne savent pas grand-chose de la qualité des fournisseurs.
En fait, ces technologies nous montrent que les spécialistes de la gestion de la chaîne logistique ne parlent pas de la même transparence ou de la même visibilité que le consommateur final. La transparence de la chaîne logistique ne vise pas à aider à comprendre d’où vient un produit, mais vise à améliorer son efficacité : diminuer le coût tout en maximisant la rapidité.
Quel levier pour transformer l’approvisionnement ?Les défis politiques pour transformer ces constats sont immenses, conclut Miriam Posner. En l’absence de véritables efforts pour créer un contrôle démocratique des chaînes d’approvisionnement, nous en sommes venus à les considérer comme fonctionnant de manière autonome – davantage comme des forces naturelles que des forces que nous avons créées nous-mêmes.
En 2014, le Guardian a signalé que des migrants birmans travaillaient dans des conditions qui tenaient de l’esclavagisme à bord de crevettiers au large des côtes thaïlandaises. Pour un importateur de crevettes, l’esclavagisme semblait un symptôme plus qu’une cause des modalités d’approvisionnement elles-mêmes. Et effectivement, il est possible d’avoir une chaîne d’approvisionnement parfaitement efficace, mais également parfaitement ignorante des conditions de travail qu’elle implique.
Reste que nous avons construit les réseaux décentralisés tels qu’ils opèrent, rappelle la chercheuse. L’anthropologue Anna Tsing dans ses travaux sur la chaîne d’approvisionnement souligne que Walmart par exemple exige un contrôle parfait sur certains aspects de sa chaîne d’approvisionnement : notamment sur les prix et les délais de livraison, et ce au détriment d’autres aspects comme les pratiques de travail. L’absence d’information sur certains aspects de la chaîne d’approvisionnement est profondément liée à un système conçu pour s’adapter à la variété de produits que nous produisons et à la rapidité avec lesquelles nous les produisons. Et cette absence d’information est intégrée dans les logiciels mêmes qui produisent la mondialisation. Exiger une chaîne logistique plus transparente et plus juste nécessite d’intégrer des informations que peu d’entreprises souhaitent utiliser, notamment parce que par nature, elles remettent en question les paradigmes de l’efficacité et de la scalabilité qui les font fonctionner.
Hubert Guillaud
Cet article a été publié originellement sur InternetActu.net, le 17 mars 2019.
-
6:51
La carte des plages propices ou non à la baignade en France
sur Cartographies numériques
En France, 80 % des plages sont propices à la baignade, mais les informations sont parfois inexistantes, trop souvent peu visibles et jamais transparentes pour l'utilisateur. En 2024, l'association Eau & Rivières de Bretagne a créé le classement La Belle Plage qui permet de consulter la qualité de l’eau des plages en France métropolitaine et en Corse. En 2025, la carte a été mise à jour avec les dernières données disponibles, permettant de conduire des comparaisons. Ces données diffèrent de celles diffusées par le réseau des ARS qui s'en tient à un classement européen jugé peu efficace pour l'information des baigneurs.
La carte des plages polluées à éviter
Un code couleur de bleu à rouge (et noir pour les non classées, en raison de données manquantes) indique sur la carte l’intensité de la pollution. Les plages classées comme « à éviter » sont des zones soit à forte concentration humaine, soit à forte concentration d’animaux.
Classement des plages en France en 2025 (source : La Belle Plage - Eau et Rivières de Bretagne)Voici l’ensemble des résultats pour 2025 :
- Recommandé : 593 plages, soit 31,98 % d’entre elles
- Peu risqué : 814 plages, soit 43,91 % d’entre elles
- Déconseillé : 364 plages, soit 19,63 % d’entre elles
- À éviter : 83 plages, soit 4,48 % d’entre elles
On observe une dégradation globale sensible de la qualité des plages littorales entre 2024 et 2025. En 2025, 1407 eaux de baignade sont classées « recommandé » ou « peu risqué », soit 75,89 % des plages. En 2024, elles étaient 1445 au total, soit 77,94 %. Cela peut s’expliquer par un été 2024 pluvieux. En effet, les épisodes pluvieux intenses sont souvent à l’origine de dysfonctionnements des systèmes d’assainissement, et du lessivage des bassins versants dans les zones d’élevage, qui entrainent les pollutions vers les eaux de baignade.
Méthodologie et données à télécharger
Les données sont issues au départ des Agences régionales de santé (ARS). Chaque année, entre le 15 juin et le 15 septembre, les ARS effectuent des prélèvements sur les plages pour mesurer la qualité des eaux de baignade. Les plages sont classées suivant une grille européenne : « Excellent », « Bon », « Suffisant », « Insuffisant ». Ce classement, destiné à la comparaison à l’échelle européenne, décrit la qualité moyenne des eaux de baignade (voir la carte proposée sur le site baignades.sante.gouv.fr). Mais, selon l'association Eau & Rivières, ce classement ne reflète pas la réalité des risques sanitaires, information pourtant essentielle pour les baigneurs (voir la méthodologie utilisée par Eau et Rivières).
La directive européenne sur les eaux de baignade exige que les États membres identifient les lieux de baignade dans les eaux douces et côtières et les surveillent pour détecter les indicateurs de pollution microbiologique (et d'autres substances) tout au long de la saison balnéaire qui s'étend de mai à septembre (données 1990-2023 disponibles en téléchargement ou consultables à travers une carte interactive).
Pour la France, les données de rapportage de la saison balnéaire sont disponibles par année sur le site Data.gouv.fr. Les fichiers, mis en ligne depuis 2020, fournissent :
- la liste des sites de baignade (informations générales, origine de l'eau, coordonnées géographiques, etc.);
- les caractéristiques du site de baignade (classement, lien vers le document de synthèse du profil de baignade, etc.) ;
- les informations sur la saison balnéaire et les événements survenus en cours de saison (interdiction de baignade, pollution à court terme, situation anormale, etc.) ;
- les informations sur les résultats d'analyses.
Pour compléter
« Plages polluées : la carte des zones à éviter » (Reporterre)
« Carte des plages : la guerre des eaux est relancée entre Eau et Rivières et l’ARS » (France 3)
« Qualité des eaux de baignade : l'Agence régionale de santé a-t-elle manipulé les chiffres pour améliorer le classement des plages bretonnes ? » (France-Info)
« Évaluation de la fréquentation des plages en Cantabrie. Une approche basée sur l'IA » (Service de cartographie et SIG de Cantabrie)
« Les plages du monde changent à cause du changement climatique : une réflexion verte est nécessaire pour les sauver » (The Conversation)
Articles connexes
Des tentatives pour cartographier les lieux affectés par le sur-tourisme
Le tourisme international et son impact sur les émissions de CO?
Analyser et discuter les cartes des "pays à éviter" pour les voyageurs
Carte mondiale d'exposition aux risques climatiques, de conflit et à la vulnérabilité
-
6:40
[Équipe Oslandia] Aurélie Bousquet, ingénieur SIG
sur OslandiaPassionnée de sciences en général, Aurélie se dirige vers une école d’Ingénieur en maths appliquées et informatique à l’INSA de Rouen. Elle réalise plusieurs stages dont un stage dans la recherche qui la motive à faire une thèse en recherche opérationnelle à Lyon à l’Institut National de Recherche sur les Transports et leur Sécurité.
« J’ai travaillé pendant ma thèse sur la construction d’algorithmes de chemins dans les réseaux de transports pour alimenter notamment les guidages GPS. Un sujet sur lequel je travaille toujours aujourd’hui. »
Après sa thèse, Aurélie passe un concours de la fonction publique « Ingénieur des travaux publics de l’État » puis travaille dans différents organismes toujours sur les thématiques transports et aménagement du territoire : DREAL à Lille, Cerema à Lyon puis dans une DDT à Mâcon.
« Pendant cette période de 13 ans, j’ai été amenée à réaliser des études, évaluer l’opportunité des aménagements, animer la communauté technique, développer des outils SIG notamment des plugins QGIS. »
Elle participe d’ailleurs à une formation dispensée par Oslandia
Aurélie fait le choix de la disponibilité pour rejoindre Oslandia en juin 2023 à un poste d’ingénieur SIG.
Son quotidien : le développement de plugins QGIS et la construction d’applications SIG en SQL et Python.
Projets emblématiques- Itineriz avec le calculateur sur la logistique urbaine : un projet développé en amont des Jeux Olympiques et Paralympiques pour orienter les livraisons des véhicules utilitaires dans Paris.
- Contribution à la bibliothèque PgRouting pour développer un algorithme de calcul d’itinéraires plus performant que ceux déjà en place. [https:]]
SQL et Python
PhilosophieFaire simple et léger quand c’est possible !
Oslandia en 1 motOpen source !
-
4:11
Adam Steer: Counting trees in sparse woodland with OpenDroneMap, PDAL and QGIS
sur Planet OSGeoThis demonstrates a method for counting trees using a backpackable mini drone, and a completely open source workflow. If you like it / find value in it, feel free to press the donate buttons at the bottom of this page – or get in touch for larger, longer term projects. What is the rationale for… Read More »Counting trees in sparse woodland with OpenDroneMap, PDAL and QGIS
-
18:07
Conseils & Astuces ArcGIS Online - N°199
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierN°199 - Améliorer vos StoryMaps avec 3 structures narratives de base pour vos récits
La réussite d’un bon récit ne tient jamais du hasard. Derrière chaque histoire marquante se cachent des choix éditoriaux réfléchis, aussi bien sur le fond que sur la forme. ArcGIS StoryMaps facilite l’assemblage de cartes, textes, photos, vidéos et autres éléments multimédias pour créer des récits ancrés dans un contexte géographique. Mais sans une structure narrative claire et engageante, même les plus beaux contenus peuvent peiner à captiver votre audience.
Cette problématique ne concerne pas uniquement les récits géographiques. Un film avec un casting prestigieux peut vite décevoir s’il repose sur un scénario confus. À l’inverse, en s’inspirant des techniques éprouvées du journalisme, de la scénarisation ou encore de la stratégie éditoriale, on peut bâtir des récits plus solides, plus fluides et surtout plus percutants.
Dans cet article, je vous propose de découvrir trois grandes structures narratives que vous pouvez facilement réutiliser dans vos récits ArcGIS StoryMaps : la pyramide, la pyramide inversée, et la structure "brochette". Issues de traditions séculaires du storytelling, elles restent des repères pour organiser votre contenu de façon à maintenir l’attention du lecteur.
Chaque structure a ses forces, ses limites et ses cas d’usages privilégiés. L’idée n’est pas de les suivre à la lettre, mais de s’en servir comme d’un guide pour mieux concevoir vos récits, en évitant les digressions inutiles ou les ruptures de rythme. En fin d’article, nous vous proposons également deux structures hybrides pour aller plus loin.
Structure narrative en pyramide inversée : pour aller droit au but !
La pyramide inversée est une structure narrative qui place les informations les plus importantes au tout début du récit. Cette structure privilégie l'immédiateté, permettant aux lecteurs de saisir immédiatement les messages ou idées clés. Les détails et le contexte suivent, tandis que les informations les moins critiques (mais néanmoins pertinentes) sont placées à la fin du récit.Structure de base
- Début : commence par les informations les plus essentielles : « qui, quoi, quand, pourquoi et où ». Selon l'objet de l'histoire, cette première idée peut être une tendance ou une idée géographique majeure, ou un événement ou un enregistrement spécifique, souvent illustré par une carte thématique.
- Milieu : fournit des détails supplémentaires, tels que des données géographiques supplémentaires, un contexte historique ou une analyse ou un commentaire d'expert.
- Fin : conclut avec des ressources complémentaires ou un résumé. Réitère souvent les points clés pour les mettre en valeur, mais introduit rarement de nouveaux concepts ou idées.
Cas d'utilisation- Communiquer des informations de dernière minute ou des informations urgentes, par exemple en cartographiant les effets immédiats d’une catastrophe naturelle ou d’une crise de santé publique.
- Captiver un public disposant de peu de temps ou d’attention , qui risque de perdre patience face à des récits plus longs.
Limites- Cette structure peut sembler abrupte lorsqu’elle est appliquée à des sujets nuancés ou à des histoires qui bénéficient d’une introduction narrative plus progressive.
- Il peut également manquer d’engagement émotionnel, car l’introduction privilégie souvent les faits et les points à retenir plutôt que des procédés narratifs plus évocateurs comme les anecdotes ou le suspense.
Exemples
Les StoryMaps ci-dessous sont en anglais mais elles illustrent cette structure narrative :
Structure narrative en pyramide
La pyramide (à ne pas confondre avec la pyramide de Freytag, un autre modèle narratif) est une structure narrative culminante qui débute par le contexte et les informations contextuelles (y compris de simples cartes de référence pour orienter le lecteur) avant d'avancer progressivement vers une idée centrale ou une conclusion (souvent communiquée par des cartes thématiques). Cette structure privilégie un certain suspense et la fluidité plutôt que d'énoncer les immédiatement idées importantes, ce qui la rend idéale pour les récits complexes ou exploratoires nécessitant un contexte ou une explication préalable conséquente.
Structure de base- Début : S'ouvre par une anecdote convaincante, un contexte général ou une question stimulante. Utilise des cartes de référence pour établir la portée géographique du récit. Il plante le décor, mais ne révèle pas sa conclusion.
- Milieu : Introduit des couches supplémentaires de contexte et d'informations, en utilisant souvent des cartes thématiques, des diagrammes ou d'autres types de visualisation de données pour développer l'histoire.
- Fin : Fournit l'idée la plus importante ou l'appel à l'action (parfois sous la forme d'une carte exploratoire), laissant aux lecteurs une compréhension claire des messages clés de l'histoire.
Cas d'utilisation
Expliquer des perspectives géographiques complexes qui nécessitent un contexte préalable important.Présentation de visualisations de données exploratoires , telles que des tableaux de bord.Persuader les lecteurs de s’engager sur un problème ou d’agir.
Limites
Si l’ouverture n’est pas engageante ou est trop longue, les lecteurs risquent de quitter l’histoire avant d’atteindre son message clé.
Exemples
Les StoryMaps ci-dessous sont en anglais mais elles illustrent cette structure narrative :
Structure narrative en brochette
Même si votre récit ne parle pas de barbecue ?, la structure en brochette est une structure narrative basée sur des listes, dont le récit de base repose sur un thème ou un message central, étayé par de multiples exemples ou études de cas. Ces exemples sont généralement visualisés à l'aide de cartes thématiques et souvent orchestrés par une "chorégraphie cartographique". Chaque exemple est d'importance égale et renvoie au message principal. Cette structure est particulièrement adaptée aux récits basés sur des données ou comparatifs qui cherchent à mettre en lumière des perspectives multiples.
Structure de base- Début : L'introduction commence par un contexte général. L'idée clé peut apparaître ou non d'emblée, mais elle doit établir le thème général de l'histoire. Si l'histoire porte sur plusieurs ensembles de données au sein d'une même zone géographique, une carte de référence peut aider à orienter le lecteur.
- Milieu : La "brochette" d'exemples ou d'études de cas. Ces exemples explorent souvent un même ensemble de données dans différentes zones géographiques (par exemple, en comparant l'accessibilité au logement entre villes) ou mettent en évidence plusieurs ensembles de données au sein d'une même zone géographique (par exemple, en comparant divers indicateurs économiques au sein d'un même territoire).
- Fin : Synthétise les exemples en un message ou une idée cohérent qui renforce le thème central de votre histoire.
Cas d'utilisation- Raconter des histoires riches en données qui s’appuient sur des exemples répétés pour renforcer des modèles ou des tendances.
- Créer des listes ou des histoires géographiques où plusieurs exemples ont le même poids.
Limites- Cela peut sembler répétitif , surtout si les exemples ne sont pas suffisamment variés ou engageants.
- Cela peut sembler réducteur , car la structure peut simplifier à outrance des histoires nuancées en se concentrant fortement sur des exemples.
- Cela peut sembler décousu si les exemples ne sont pas clairement liés les uns aux autres.
Exemples
Les StoryMaps ci-dessous sont en anglais mais elles illustrent cette structure narrative :
Aller au-delà des bases
Les trois structures narratives ci-dessus conviennent à un large éventail de cas d'utilisation de narration territoriale. Mais ces éléments fondamentaux peuvent également être combinés de manière intéressante pour soutenir des récits plus nuancés ou créer des expériences plus immersives pour un public captivé. Vous trouverez ci-dessous deux autres structures narratives "composées".
A l'usage, vous constaterez qu'elles sont particulièrement adaptées aux récits complexes nécessitant un peu plus de contexte ou d'exposition que les structures plus simples.
Structure narrative en diamant
La structure en diamant (ou losange) combine les structures pyramidale et pyramidale inversée, plaçant efficacement le message clé entre l'introduction et la conclusion. Elle est particulièrement adaptée aux récits complexes, basés sur des données, dont les perspectives sont mieux communiquées par des anecdotes ou des perspectives locales.Structure de base
- Début : Facilite l’entrée des lecteurs dans l’histoire avec une anecdote humanisante ou un exemple précis.
- Milieu : Présente le message ou l'information clé de l'histoire, souvent une tendance géographique spécifique ou une idée exploitable.
- Fin : Revient à l’exemple initial et le relie au thème ou au message général de l’histoire.
Cas d'utilisation- Humaniser vos récits basées sur les données en commençant par des anecdotes ou des exemples présentés à échelle humaine.
- Relier les perspectives locales et mondiales en alternant entre des exemples individuels et des perspectives géographiques globales
- Mettre en évidence les solutions et les réussites en commençant par un exemple, puis en zoomant pour explorer comment ces solutions pourraient être appliquées ailleurs, avant de finalement revenir à la réussite originale comme une conclusion pleine d’espoir.
Limites- Peut facilement devenir trop long, de sorte que les lecteurs n'atteignent jamais la conclusion de l'histoire.
Exemples
Les StoryMaps ci-dessous sont en anglais mais elles illustrent cette structure narrative :
Structure narrative en sablier
La structure en sablier allie l'immédiateté narrative de la pyramide inversée à la profondeur croissante de cette structure. Contrairement à la structure en losange, le sablier intercale des exemples ou du contexte entre les principales idées ou conclusions de l'histoire.
Structure de base- Début : Commence par les informations les plus vitales : qui, quoi, quand, pourquoi et où ?
- Milieu : Fournit des détails supplémentaires, tels que des données géographiques supplémentaires, un contexte historique ou une analyse ou un commentaire d'expert.
- Fin : renforce le message clé ou l'idée de l'histoire et se termine souvent par un appel à l'action.
Cas d'utilisation- Communiquer des informations géographiques urgentes avec une profondeur narrative . Cette structure permet des explications plus nuancées et des récits illustratifs que la pyramide inversée seule.
Limites- Les transitions brusques entre les sections, en particulier entre l’introduction et la section centrale, peuvent nuire à la cohésion narrative.
Exemples
Les StoryMaps ci-dessous sont en anglais mais elles illustrent cette structure narrative :
Conclusion
Que vous utilisiez la structure pyramidale pour créer un certain suspense, la structure pyramidale inversée pour attirer l'attention sur un problème urgent ou la brochette pour tisser ensemble différentes perspectives, ces cadres fournissent une base solide pour créer des récits attrayants basés sur le lieu.
La narration est aussi un art, qui s'affine par la curiosité et l'expérimentation. Alors, la prochaine fois que vous créerez un récit cartographique avec ArcGIS StoryMaps, réfléchissez à la façon dont la structure peut façonner votre message, guider votre public et donner vie à votre contenu. Ce processus peut nécessiter quelques essais et erreurs, et il est tout à fait normal de modifier ou d'abandonner un cadre particulier une fois que votre récit a commencé à prendre forme.
En espérant que cet article vous permettra de choisir le bon cadre pour transformer une collection de cartes, de médias et de textes en une expérience cohérente et convaincante. N'hésitez pas à échanger sur la communauté Esri dédiée à ArcGIS StoryMaps.
Bonne route sur ArcGIS Online ! Pour retrouver l'ensemble des Conseils & Astuces ArcGIS Online, cliquez sur ce lien.
-
11:00
Mappery: NoCal
sur Planet OSGeoCartonaut spotted this map of San Francisco peninsula for exclusivefresh.com on the back of their fish delivery van. A great pic at 60mph!
-
8:55
Snakes on a Plane(t)
sur Google Maps ManiaLast year, I created Map Snake - a playful adaptation of the classic computer game. The concept was simple: maneuver an ever-growing snake around a map of cities while avoiding collisions with your own tail. Well, now Engaging Data has released their own take, called Snake on a Globe. And let me be clear: I’m not annoyed that they stole my idea - I’m annoyed that they made it better. And a lot
-
18:45
Centraliser pour mieux gérer
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLes Communautés de Communes du Vallespir et du Haut Vallespir (Pyrénées-Orientales) ont adopté ArcGIS Experience Builder pour centraliser leurs besoins SIG en une solution unique. Jusque-là, les solutions métiers disposaient de contrôle d’accès via le niveau d’utilisateur et les groupes. Chacun avait accès à ses applications métiers et celles partagées avec son organisation. Pour le service de l’eau et de l’assainissement, par exemple, l’accessibilité demandait de nombreux clics. Il y avait des liens différents pour la consultation de patrimoine, la consultation 3D, le suivi de documentation, la modification des réseaux, etc. À présent, un seul lien rassemble ces supports. L’utilisateur n’est pas dépaysé puisque les anciennes applications sont visualisables par onglets. L’avantage est aussi la facilité de connexion aux fonds de carte hébergés par l’IGN. La cartographie combine 2D et 3D, présentant un intérêt pour les mesures autour des canalisations, les profils d’élévation, etc. Cette migration va être réalisée pour tous les services gestionnaires de données.
+ d'infos :
vallespir.com
-
17:39
TP : Entraîner efficacement mon premier réseau de neurones
sur Neogeo TechnologiesAprès avoir appris à créer votre premier réseau de neurones dans l’article Mon premier réseau de neurones et avoir étudié la théorie de l’optimisation d’un modèle dans l’article Optimisation simple d’un réseau de neurones, il est maintenant temps de s’exercer à entraîner efficacement un réseau de neurones !
Pour cela, nous allons reprendre ensemble la création du modèle de l’article Mon premier réseau de neurones. Nous allons effectuer plusieurs entraînements afin de déterminer l’importance du taux d’apprentissage (learning rate) dans l’entraînement d’un modèle. Si vous avez un doute sur la notion de learning rate, l’article Optimisation simple d’un réseau de neurones est là pour vous accompagner.
Préparation du NotebookBien ! Commençons d’abord par toutes les installations et imports dont nous aurons besoin lors de ce TP. Nous utiliserons encore une fois Jupyter pour développer.
On crée un environnement virtuel Python (inutile si vous l’avez déjà créé pour l’article Mon premier réseau de neurones) :
python3 -m venv test_ia
On active l’environnement virtuel Python :
cd test_ia . bin/activate
On installe Jupyter et on le lance :
pip install jupyter jupyter notebook
La dernière commande ouvre automatiquement Jupyter dans votre navigateur. Il vous suffit ensuite de créer un Notebook en allant dans « File » ? « New » ? « Notebook ». Copiez ensuite le code suivant dans le Notebook.
Installations & Imports *1*1 : Cette étape a également été faite dans le premier TP décrit dans l’article Mon premier réseau de neurones.
Il nous faut tout d’abord installer les bibliothèques suivantes :
- Pytorch, une des principales bibliothèques Python pour faire des réseaux de neurones. Ici on n’installe que la version CPU, la version de base fonctionne avec CUDA, la bibliothèque de calcul scientifique de Nvidia, mais celle-ci prend beaucoup de place sur le disque dur, restons frugaux.
- Pandas, la bibliothèque Python star de la data-science, basée elle-même sur Numpy (pour la gestion de listes).
- Matplotlib, pour faire de jolis graphiques.
!pip3 install torch --index-url [https:] !pip install pandas !pip install matplotlib
Une fois les installations effectuées, on peut passer à l’importation de ces bibliothèques ou bien des éléments spécifiques de ces dernières.
import torch import torch.nn.functional as F import pandas as pd import matplotlib.pyplot as plt from random import randint, seed # Nous n'avons pas eu besoin d'installer random car c'est une bibliothèque standard de Python
Tout est maintenant en place pour bien débuter le TP !
Création d’un jeu de donnéesLa première étape pour entraîner notre modèle est de créer un jeu de données adapté à notre problématique sur lequel nous pourrons entraîner notre modèle.
On prend cette fois en exemple un skieur en bas d’une montagne qui remonte la pente jusqu’au sommet de cette dernière.
Par conséquent, il nous faut un jeu de données qui représente la pente de cette montagne pour entraîner notre modèle.
Pour cet exemple, on prendra une pente très simple et linéaire d’équation f(x) = 2x. C’est donc cette fonction, une version simplifiée de l’article précédent, que l’on va utiliser pour créer notre jeu de données.
data = pd.DataFrame(columns=["x", "y"], data=[(x, x*2) for x in range(10)], ) data["x"] = data["x"].astype(float) data["y"] = data["y"].astype(float) # On peut visualiser le jeu de données d'entraînement ci-dessous plt.figure(figsize=(25, 5)) plt.margins(0) plt.scatter(data["x"], data["y"], alpha=0.5) plt.title("Jeu de données d'entraînement") plt.xlabel("Position x") plt.ylabel("Altitude y") plt.grid(True) plt.show()
Création de notre modèle
Maintenant que notre jeu de données est prêt, on peut maintenant passer à la création de notre modèle.
On va créer un modèle très simple car notre problématique n’est pas très complexe. En effet, la pente de notre montagne est linéaire, par conséquence, notre modèle n’a besoin que d’une couche de neurones. Pour le créer, on va utiliser PyTotch avec une seed (graine) fixe pour avoir des résultats reproductibles.
Entraînement de notre modèletorch.manual_seed(1337) seed(1337) M = torch.randn((1,1)) M.requires_grad = True print(M)
Notre modèle ainsi que notre jeu de données étant prêts, on peut maintenant passer à l’entraînement de ce dernier.
Pour entraîner notre modèle, il nous manque encore deux variables à définir : epochs et lr.
- epochs (époques) représente le nombre de fois où l’on entraîne le modèle sur un échantillon de données
- lr est l’abréviation de learning rate et représente le taux de mise à jour des poids du modèle lors de la descente de gradient (backward pass ou backward propagation)
Affichage et interprétation des résultatsepochs = 700 lr = 0.1 losses = list() for epoch in range(epochs): # On sélectionne un point de données aléatoire parmi les 10 du dataset # Cela permet de varier les données vues à chaque epoch ix = randint(0, len(data) - 1) x = data.iloc[ix]["x"] y = data.iloc[ix]["y"] # Forward pass y_prevision = M @ torch.tensor([x]).float() # Calcul de la loss (perte) loss = F.l1_loss(y_prevision, torch.Tensor([y])) # Backward pass M.grad = None loss.backward() # Mise à jour du learning rate et de M lr = 0.1 # On conserve le même learning rate M.data += -lr * M.grad # stats : on stocke la loss pour suivre la progression de l'entraînement losses.append(loss.item())
Lors de l’entraînement, nous avons stocké la loss de chaque epoch, on peut maintenant visualiser comment cette loss a évolué au fil de l’entraînement du modèle.
plt.figure(figsize=(25, 5)) plt.margins(0) plt.plot(range(epochs), losses, linestyle='-', color='b', label="Loss") plt.xlabel("Epochs") plt.ylabel("Loss") plt.title("Évolution de la loss au fil des epochs") plt.legend() plt.grid(True) plt.show()
On observe que notre modèle converge très vite, mais à tout de même du mal à se stabiliser (l’ampleur des oscillations reste identique tout au long de l’entraînement).
On peut aussi voir l’impact sur les prédictions des données. En d’autres termes, est-ce que les prédictions sont proches de la pente réelle ? Pour cela, il suffit d’appliquer notre modèle entraîné sur le jeu de données initial.
predictions = [] for x in data["x"]: # Pour chaque x du jeu de données original y_pred = (M * x).item() # On applique notre modèle entraîné : y = M * x predictions.append((x, y_pred)) plt.figure(figsize=(25, 5)) plt.margins(0) plt.scatter(data["x"], data["y"], alpha=0.5, label="Données réelles") plt.plot([x[0] for x in predictions], [y[1] for y in predictions], label="Prédictions", color='r') plt.title("Données réelles vs Prédictions") plt.xlabel("Position x") plt.ylabel("Altitude y") plt.grid(True) plt.legend() plt.show()
On peut voir que notre modèle fait des prédictions assez proches des données réelles, mais qu’elles ne sont pas tout à fait exactes. Voyons si nous pouvons améliorer notre entraînement.
Entraînement alternatif du modèleAfin d’améliorer les prédictions de notre modèle, on peut essayer de jouer sur le learning rate.
Pour notre premier test, on a utilisé un learning rate élevé (0,1), ce qui signifie qu’à chaque itération, les paramètres (poids et biais) du modèle sont grandement ajustés (ce qui explique les oscillations sur la loss).
On va donc maintenant tenter le même entraînement, mais avec un learning rate faible (0,001).
torch.manual_seed(1337) seed(1337) M = torch.randn((1,1)) M.requires_grad = True print(M) epochs = 700 # On conserve le même nombre d'epochs que pour le modèle précédent lr = 0.001 # On choisit un learning rate plus faible pour voir son impact sur la convergence du modèle losses = list() for epoch in range(epochs): # Échantillon aléatoire ix = randint(0, len(data) - 1) x = data.iloc[ix]["x"] y = data.iloc[ix]["y"] # Forward pass y_prevision = M @ torch.tensor([x]).float() # Calcul de la loss loss = F.l1_loss(y_prevision, torch.Tensor([y])) # Backward pass M.grad = None loss.backward() # Mise à jour lr = 0.001 # On conserve le learning rate faible M.data += -lr * M.grad # stats losses.append(loss.item()) # Prédictions finales pour les comparer avec les données réelles plus tard predictions = [] for x in data["x"]: y_pred = (M * x).item() predictions.append((x, y_pred)) # Visualisation de la loss en fonction des epochs plt.figure(figsize=(25, 5)) plt.margins(0) plt.plot(range(epochs), losses, linestyle='-', color='b', label="Loss") plt.xlabel("Epochs") plt.ylabel("Loss") plt.title("Évolution de la loss au fil des epochs") plt.legend() plt.grid(True) plt.show()
On peut observer qu’avec un learning rate faible, le modèle ne converge pas en 700 epochs (on a toujours une pente descendante et pas de plateau).
Un learning rate faible signifie qu’à chaque itération, les paramètres (poids et biais) du modèle sont très peu modifiés. On essaye de faire des petits ajustements sur ces derniers pour converger avec le moins d’oscillations possibles à la fin de l’entrainement.
Donc, pour converger avec un learning faible, il nous faut un nombre supérieur d’epochs, simplement pour laisser le temps au modèle de converger. Par conséquent, on va retenter l’entraînement précédent, mais cette fois, avec 1000 epochs.
torch.manual_seed(1337) seed(1337) M = torch.randn((1,1)) M.requires_grad = True print(M) epochs = 1000 # On augmente le nombre d'epochs pour voir si le modèle fini par converger avec un learning rate faible lr = 0.001 # On conserve le learning rate faible losses = list() for epoch in range(epochs): # Échantillon aléatoire ix = randint(0, len(data) - 1) x = data.iloc[ix]["x"] y = data.iloc[ix]["y"] # Forward pass y_prevision = M @ torch.tensor([x]).float() # Calcul de la loss loss = F.l1_loss(y_prevision, torch.Tensor([y])) # Backward pass M.grad = None loss.backward() # Mise à jour lr = 0.001 M.data += -lr * M.grad # stats losses.append(loss.item()) # Prédictions finales pour les comparer avec les données réelles plus tard predictions = [] for x in data["x"]: y_pred = (M * x).item() predictions.append((x, y_pred)) # Visualisation de la loss en fonction des epochs plt.figure(figsize=(25, 5)) plt.margins(0) plt.plot(range(epochs), losses, linestyle='-', color='b', label="Loss") plt.xlabel("Epochs") plt.ylabel("Loss") plt.title("Évolution de la loss au fil des epochs") plt.legend() plt.grid(True) plt.show()
Là, on peut voir qu’avec un learning rate faible (0,001) mais un grand nombre d’epochs (1000), le modèle fini bien par converger.
Mais, est-ce que les prédictions du modèle sont plus justes ? C’est ce que l’on va voir juste après.
plt.figure(figsize=(25, 5)) plt.margins(0) plt.scatter(data["x"], data["y"], alpha=0.5, label="Données réelles") plt.plot([x[0] for x in predictions], [y[1] for y in predictions], label="Prédictions", color='r') plt.title("Données réelles vs Prédictions") plt.xlabel("Position x") plt.ylabel("Altitude y") plt.grid(True) plt.legend() plt.show()
Comme on peut le voir sur le graphique ci-dessus, les prédictions du modèle sont bien meilleures avec un faible learning rate !
Entraînement optimale du modèleComme vu précédemment, les entraînements avec un learning rate élevé et un learning rate faible ont tous deux leurs avantages et inconvénients.
D’un côté, un learning rate élevé permet au modèle de converger très vite, mais avec de grandes oscillations, ce qui peut, parfois, dire que la loss ne se stabilise jamais et donc le modèle peut faire de mauvaises prédictions. De l’autre côté un learning rate bas permet d’avoir à coup sûr une loss stable à la fin de l’entraînement, mais avec un grand nombre d’epochs, donc un entraînement plus long et un plus grand coût de calculs.
Pour avoir le meilleur des deux mondes, on va tester d’entraîner notre modèle avec un learning rate adaptatif : élevé initialement pour converger rapidement, puis faible pour stabiliser la loss.
torch.manual_seed(1337) seed(1337) M = torch.randn((1,1)) M.requires_grad = True print(M) epochs = 150 # On repasse à un nombre d'epochs faible lr_initial = 0.1 # On commence à un learning rate élevé pour converger rapidement lr_final = 0.001 # On fini à un learning rate faible pour stabiliser la loss losses = list() for epoch in range(epochs): # Échantillon aléatoire ix = randint(0, len(data) - 1) x = data.iloc[ix]["x"] y = data.iloc[ix]["y"] # Forward pass y_prevision = M @ torch.tensor([x]).float() # Calcul de la loss loss = F.l1_loss(y_prevision, torch.Tensor([y])) # Backward pass M.grad = None loss.backward() # Mise à jour if epoch < 50: lr = lr_initial # Pour les 50 premières epochs, on conserve le learning rate initial (élevé : 0,1) else: lr = lr_final # Passé la barre des 50 premières epochs, on passe à au learning rate final (faible : 0,001) M.data += -lr * M.grad # stats losses.append(loss.item()) # Visualisation de la loss en fonction des epochs plt.figure(figsize=(25, 5)) plt.margins(0) plt.plot(range(epochs), losses, linestyle='-', color='b', label="Loss") plt.xlabel("Epochs") plt.ylabel("Loss") plt.title("Évolution de la loss au fil des epochs") plt.legend() plt.grid(True) plt.show()
On observe qu’avec un learning rate adaptatif, le modèle converge très bien et la loss se stabilise en un nombre d’epochs très faible !
Donc le learning rate adaptatif est une meilleure solution (en efficacité et performance) pour entraîner un modèle. Le coût d’entraînement est plus faible et le modèle fait de meilleures prédictions.
Cette fonction d’adaptation est en fait appelée un scheduler et elle sert à ajuster dynamiquement un hyperparamètre de l’entraînement. Dans notre cas l’hyperparamètre est le learning rate donc on parle plus précisément de lr scheduler.
Pour notre lr scheduler, nous avons fait une fonction très simple. En effet, on part avec un learning rate élevé, puis, passé 50 epochs, on passe à un learning rate faible.
Cependant, on pourrait également améliorer cette fonction en adaptant notre learning rate en fonction de la dernière loss calculée (et non l’epoch qui est une variable un peu naïve) : tant que la loss diminue on conserve le learning rate actuel, sinon, on le divise par deux. N’hésitez pas à tester cette version de votre côté si cela vous dit !
ConclusionPour conclure, dans ce TP, nous avons exploré les notions de learning rate et de scheduler, aspects fondamentaux de l’entraînement d’un réseau de neurones.
Grâce à différents entraînements, nous avons observé que :
La backward pass permet d’ajuster les paramètres d’un modèle en minimisant une fonction de loss.
Le choix du learning rate est crucial : trop élevé, la loss est instable ; trop faible, elle devient trop lente.
Un learning rate adaptatif permet d’accélérer la convergence au début et de stabiliser l’apprentissage ensuite.
Il existe plusieurs façons d’adapter le learning rate et les fonctions d’adaptation de ce dernier sont appelées des schedulers.
N’hésitez pas à prendre en main ce TP de votre côté pour bien maîtriser la création et l’entraînement d’un réseau de neurones. Vous pouvez par exemple tester différents learning rate ou lr schedulers pour l’entraînement de votre modèle !
Auteur : Mathilde POMMIER, Neogeo
-
11:00
Mappery: Frico Wines
sur Planet OSGeoDoug Greenfield said “Bottle of red cuz dry January is over thank goodness”. Who are we to disagree?
-
10:17
gvSIG Team: Integración del Gestor de Expedientes de SEDIPUALBA con gvSIG Online
sur Planet OSGeoHace un tiempo atrás, hablamos del nuevo plugin ETL (Extract, Transform and Load) integrado en la plataforma de gvSIG Online,que permite realizar cualquier integración, transformación, edición… geoespacial de datos.
Hoy queremos compartir una integración que se ha estado desarrollando recienteemente y que mejora significativamente la gestión administrativa y geográfica en las entidades locales: la conexión entre el gestor de expedientes SEGEX de SEDIPUALBA y la plataforma gvSIG Online.
El resultado es una potente funcionalidad que permite, por ejemplo, identificar todos los expedientes asociados a una parcela o localizar en el mapa los elementos vinculados a un expediente concreto. Todo ello sin necesidad de duplicar información ni modificar los sistemas de origen.
En el siguiente vídeo mostramos cómo se realiza la conexión entre ambas plataformas y los beneficios que aporta.
Esta iniciativa refuerza el compromiso de la Asociación gvSIG con el desarrollo de soluciones abiertas, interoperables y orientadas a mejorar la eficiencia en la administración pública.
-
8:58
Conseils & Astuces ArcGIS Online - N°198
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierN°198 - Intégrer des diagrammes dans vos StoryMaps
En tant que cartographe, comme vous, j’adore les cartes. Mais nous savons bien que toutes les données ne doivent pas forcément être visualisées spatialement et que cela peut même dans certains cas être contre-productif. Les diagrammes sont souvent plus efficaces pour révéler des tendances ou des anomalies, car notre cerveau traite mieux une information visuelle qu'un texte ou un tableau de chiffres. Les diagrammes offrent souvent une nouvelle perspective en complétant les cartes et en permettent d'affirmer le ton d’un récit grâce au choix de couleurs et de styles de représentation adaptés à vos données.
Pourquoi ajouter des diagrammes à vos récits cartographiques??
- Les diagrammes sont universels : notre cerveau est formaté pour lire plus vite une courbe qu’un paragraphe. Dans bien des cas, un graphique offre une meilleure lecture qu’une carte, surtout pour un public peu familier avec les données géographiques.
- Multipliez les points de vue : une même donnée peut être cartographiée pour montrer une répartition spatiale, puis représentée sous forme de diagramme pour dévoiler sa dimension temporelle. On enrichit ainsi la lecture, on croise les perspectives.
- L’impact visuel au service du récit : vos graphiques contribuent à l’esthétique de votre story. Couleurs dynamiques pour un sujet technologique, tons naturels pour une thématique environnementale… À chacun son ambiance.
Cet article présente quelques bonnes pratiques générales pour l'utilisation de diagrammes statiques et interactifs dans ArcGIS StoryMaps, ainsi que des conseils et techniques pour optimiser vos visualisations non géographiques. Tout comme un tapis peut unifier une pièce, un bon diagramme peut propulser votre histoire vers de nouveaux sommets. Bien sûr, il faudra garder à l'esprit que cela est réciproque : un diagramme mal conçu peut ruiner un récit pourtant excellent.
Diagramme statique : une valeur sûre
Souvent plébiscités, les contenus interactifs ne sont pas toujours la meilleure solution et il pourra être plus efficace d'utiliser des visuels statiques. En effet, dans un certain nombre de cas, les lecteurs veulent du contenu fluide, sans clic superflu.
Trois raisons de préférer les diagrammes statiques :- Simplicité d’affichage : pas de dépendance au navigateur, au système ou à la taille d’écran. Le rendu est constant.
- Lisibilité immédiate : pas de données cachées sous une infobulle. Tout est visible, lisible, annotable.
- Facilité de création : que ce soit via Excel, ArcGIS Pro, Illustrator ou même Paint, le graphique statique est accessible.
Exemple de diagramme statique réalisé avec Photoshop
Dans ArcGIS StoyMaps, il serra très simple d'intégrer des diagrammes statiques en les insérant en tant qu'image. Vous aurez le choix entre différents formats comme JPG, PNG, GIF, BMP, WEBP, HEIC, HEIF, TIF et TIFF. Si vous souhaitez une résolution optimum quelles que soit la taille du diagramme vous pourrez opter pour le format vectoriel SVG.
Si vous êtes utilisateur d'ArcGIS Pro, vous pouvez exporter vos diagrammes en PNG ou SVG. Si vous êtes utilisateur de Microsoft Excel, vous pouvez exporter un diagramme en BMP, PNG, JPG ou GIF.
Conseil : Il est recommandé de privilégier les fonds transparents (PNG notamment), surtout si le thème de votre StoryMaps est sombre. Le JPG avec un fond blanc, c’est souvent l’erreur fatale.
Et pourquoi ne pas animer vos diagrammes statiques ?
ArcGIS StoryMaps propose les blocs de type "Compartiment latéral" ou "Diaporama" pour dérouler une séquence narrative. Ainsi, vous pouvez utiliser plusieurs versions d’un même diagramme (avec focus progressifs, annotations, etc.) pour guider le lecteur étape par étape. On parle ici de chorégraphie de diagramme...
Dans l'exemple ci-dessous, plusieurs images se succèdent en affichant les proportions de différents types de cultures.
Quand basculer vers des diagrammes interactif?s ?
Tout n’est pas noir ou blanc : il existe des cas où le diagramme interactif s’impose :
- Données évolutives : avec une source dynamique (CSV mis à jour, couche ArcGIS Online), e diagramme interactif devient vital.
- Détails facultatifs : vous souhaitez proposer une exploration des données sans l’imposer ? Le diagramme interactif est votre allié.
- Gain de temps : les blocs de diagrammes intégrés à ArcGIS StoryMaps permettent de créer des diagrammes interactifs en quelques clics, sans outil externe.
Créer un diagramme interactif dans StoryMaps
L’option la plus simple reste les blocs de type "Diagramme" intégré en standard dans ArcGIS StoryMaps.
Exemple de diagrammes fournis en standard par ArcGIS StoryMaps
Vos diagrammes peuvent être de type "Barres", "Colonnes", "Lignes" ou "Anneaux". L’essentiel est donc là et il ne vous reste plus qu'à ajouter votre tableau de données. Intéressant, votre diagramme hérite automatiquement du thème de votre StoryMap.
Ajout d'un diagramme interactif dans ArcGIS StoryMaps
Une autre piste a privilégier, c'est d'utiliser un diagramme préparé dans ArcGIS Dashboards. En effet, en termes de diagrammes, l’application offre des visualisations avancées connectées à vos services de données, donc entièrement dynamiques. Ce sera idéal si vous utilisez une couche ArcGIS Online ou ArcGIS Enterprise dans votre récit. Vous bénéficierez également de la possibilité de personnaliser de l’affichage pour des écrans mobiles.
Exemple de diagramme intégré depuis un tableau de bord ArcGIS Dashboards
Pour intégrer un diagramme ArcGIS Dashboards, il vous suffit d'enregistrer votre tableau de bord et de le partager avec le même périmètre que votre StoryMap (Privé, Groupe(s) ou Public). Ensuite, il suffira d'ajouter un bloc de type "Intégrer" et de saisir l'url de votre tableau de bord.
Attention tout de même à ne pas trop charger votre Dashboard car trop d’interactivité peu complexifier la lecture.
Et si je veux aller encore plus loin ?
Des outils comme Highcharts Cloud ou Infogram permettent de générer des graphiques sans coder. Pour ceux à l’aise avec le JavaScript, D3.js, Google Charts ou Highcharts.js offrent un contrôle total. Vous hébergez ensuite votre visuel et l’intégrez via le bloc de type "Intégrer".
Quelques derniers conseils
- Avant de publier votre récit, testez-le sur plusieurs appareils et navigateurs.
- Si vous pensez que votre diagramme ne s'adaptera pas automatiquement à des petits écrans, ajoutez une image alternative pour l’affichage mobile. Ainsi les contenus interactifs sont remplacés par défaut sur petits écrans.
- Activez l’option "Autoriser les lecteurs à interagir directement avec l'intégration" dans les propriétés du bloc pour éviter que l’utilisateur ait à cliquer pour activer le graphique.
Bonne route sur ArcGIS Online ! Pour retrouver l'ensemble des Conseils & Astuces ArcGIS Online, cliquez sur ce lien.
-
8:58
Some Musical Maps in Motion
sur Google Maps ManiaElevation Music Everybody hates elevator music but everyone will love Elevation Music.Elevation Music is an interactive map in which the elevation data is styled based on the intensity of an accompanying music track. It is a dancing map!If you want to know how Elevation Music works the author's blog post explains: 'This demo uses Mapbox GL JS raster-color-value and other raster-* paint
-
8:42
gvSIG Team: Curso-Concurso gvSIG Batoví: Lanzamiento de un proyecto que trasciende fronteras
sur Planet OSGeoEn el Ministerio de Transporte y Obras Públicas (MTOP) de Uruguay se realizó el lanzamiento oficial de la 8ª edición del curso-concurso gvSIG Batoví, una iniciativa que desde sus comienzos ha convocado a cientos de estudiantes y docentes de todo el país, además de participantes de Colombia, México, Cuba y Madrid.
El proyecto invita a presentar propuestas geográficas que aborden problemáticas locales desde una perspectiva territorial, en sintonía con los Objetivos de Desarrollo Sostenible (ODS) promovidos por la Organización de las Naciones Unidas (ONU). “Es un proyecto que se ha transformado en una política de Estado que ha atravesado los distintos períodos de gobierno y es nuestra aspiración que siga creciendo y fortaleciéndose durante este período”, expresó el director nacional de Topografía, Arq. Felipe de los Santos.
Desde 2011, la dirección nacional de Topografía promueve este tipo de experiencias formativas mediante un convenio con Ceibal y la Asociación gvSIG. A partir de 2017, el curso-concurso ha ofrecido oportunidades de crecimiento tanto a estudiantes como a docentes, generando impactos positivos en las comunidades participantes.
Durante el acto de lanzamiento, la subsecretaria de Transporte, Claudia Peris, destacó el potencial transformador de este proyecto y valoró su alcance. Por su parte, Felipe De los Santos, expresó que este evento representa un gran desafío y un enorme orgullo para su cartera, por dos razones fundamentales. Primero, porque “forma parte de las primeras acciones” orientadas a “fomentar el trabajo colaborativo dentro y fuera del Ministerio. Queremos consolidar espacios de sinergia entre quienes diseñamos y ejecutamos políticas públicas en todo el territorio nacional”. Segundo, porque este proyecto ha sabido sostenerse en el tiempo, “ha atravesado los distintos períodos de gobierno”, consolidándose como una verdadera “política de Estado”.
De los Santos también subrayó que la iniciativa “ha trascendido fronteras”, con participación de estudiantes y docentes de Colombia, México y Cuba, así como de referentes de universidades latinoamericanas y europeas como la Universidad Politécnica de Madrid, la Universitat Oberta de Catalunya y la Universidad Central Marta Abreu de las Villas.
Los proyectos desarrollados en el marco del concurso han abordado temáticas clave como la conservación ambiental, el mejoramiento del espacio urbano y barrial, la participación ciudadana y los derechos colectivos, contribuyendo desde una mirada integradora a la construcción de ciudad y territorio.
Las inscripciones y bases del curso-concurso estarán disponibles a partir de mayo en el sitio web institucional del MTOP. Esta convocatoria está dirigida a estudiantes y docentes de nivel medio de Educación Secundaria y de UTU.
En la actividad también estuvo presente la directora general de Secretaría, Yenny Merlo; el director nacional de Vialidad, Federico Magnone; el jefe del departamento de Geomática, Sergio Acosta y Lara; el sub gerente de Desarrollo Profesional Docente, Nicolás Ambrosi; la inspectora nacional de Geografía y Geología, Prof. Magister Mónica Canaveris.
-
7:00
De la matérialisation des données
sur Dans les algorithmesEn 2017, Paul Dourish publiait « The Stuff of Bits », un livre qui s’intéressait à notre rapport aux tableurs et aux impacts matériels de l’information numérique sur la réalité. Une manière de saisir et comprendre comment le monde réel est piloté par les outils numériques dans les organisations. Relecture.
La couverture du livre Stuff of bits.
Paul Dourish (Wikipedia) a signé au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une manière un peu cavalière par « La substance de l’information »), un livre qui s’intéresse aux impacts matériels de l’information numérique. Comment la simulation numérique, nos outils de modélisation et nos outils de travail façonnent-ils à rebours notre expérience ? Pour le professeur d’informatique et anthropologue, les arrangements matériels de l’information, c’est-à-dire la manière dont elle est représentée, dont elle est façonnée, dont on peut l’utiliser, ont une importance significative dans notre rapport à l’information. Comme le soulignait le philosophe Donald Schön, le design reflète notre conversation avec les matériaux. Dourish regarde comment le numérique impacte désormais nos modalités d’usage. Pour lui, « les matérialités de l’information reposent sur des propriétés et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces représentations peuvent être créées, transmises, stockées, manipulées et mises à profit ». A la suite par exemple de Lev Manovich, il souligne combien la base de données est devenue la forme culturelle majeure du XXIe siècle (après le roman au XIXe et le film au XXe siècle).
Dourish prend de nombreux exemples pour explorer son idée. Il développe longuement les différentes façons de représenter une même image au format numérique, en observant les multiples manières de la coder : une image peut-être effectivement une image, mais également peut-être produite par un programme ou une itération. Reste que, même dans le programme, des choses échappent à la représentation, comme ce peut-être le cas par exemple de la vitesse d’exécution d’un programme pour représenter cette image ou de la taille de la mémoire de l’ordinateur utilisé. Un programme est une série d’instructions, mais l’expérience qui résulte de son exécution, elle, n’est pas spécifiée par le programme. Or, bien sûr, la manipulation de cette image sera très différente selon la manière dont elle est codée. C’est bien à cette relation entre les formes et les possibilités que permettent les matériaux numériques que s’intéresse Dourish. Comment leurs affordances, c’est-à-dire leurs propriétés relationnelles, façonnent-elles nos pratiques ?
Du rôle du tableur dans les organisationsDans son livre Dourish évoque longuement un exemple significatif qui permet de mieux saisir là où il souhaite nous emmener, ce qu’il estime qu’il nous faut désormais regarder avec attention. Il revient longuement sur ce qu’il appelle les « spreadsheet events » des réunions organisées autour de la projection de tableurs, comme elles se pratiquent dans de plus en plus d’entreprises – avec les « powerpoint events », plus anciens et plus documentés, qui sont des rencontres organisées autour de la présentation de documents projetés qui forment l’essentiel des réunions ou des conférences professionnelles – voir notamment « Les transformations de l’écosystème de l’information dans le monde du travail » ou « PowerPoint, voilà l’ennemi ! »).
Image : Exemple d’un « spreadsheet event » tiré d’un blog local américain – qui montre qu’il n’est pas si simple de trouver des images de ce type de pratiques pourtant courantes.
Les réunions spreadsheet ne sont pas vraiment des réunions Tupperware : ce sont des réunions de travail autour d’un écran qui projette un tableur dont l’accès est parfois partagé. Souvent utilisé pour travailler de manière collaborative autour d’un budget (avec toutes les limites que cela peut avoir, comme le faisait remarquer récemment Bjarte Bogsnes), le tableur est utilisé pour une multitude de raisons. C’est à la fois un artefact de coordination et d’archivage des décisions prises lors de l’événement. Dourish rappelle d’ailleurs l’importance de l’enchevêtrement des organisations et de leurs systèmes d’information : combien les « workflows » encodent les procédures, les processus et les règles d’organisation. Cet exemple permet à Dourish de poser des questions sur comment nos outils façonnent nos usages. « Comment la matérialité d’un spreadsheet – à la fois outils interactifs et systèmes de représentation – modèle, contraint et habilite la façon dont on travaille ? Comment projetons-nous notre travail dans la forme des tableurs ou comment avons-nous (ou pas) la main sur un ensemble de règles, de limites, de possibilité ou d’opportunités ? » Bref, comment les gens bricolent et s’approprient ces contraintes logicielles en pratique ?
Dourish souligne d’ailleurs la complexité d’action que permettent ces tableurs qui sont à la fois des grilles de cellules qui permettent des formes de regroupement et qui permettent d’activer certains contenus : c’est-à-dire que certains contenus ne sont pas fixés, mais calculés selon des formules via des données pouvant provenir d’autres cellules ou d’autres tableurs ou bases de données. C’est en cela que, malgré leur sécheresse apparente (des listes de chiffres le plus souvent), ces outils se révèlent commodes pour rendre visibles de la complexité comme du détail. Si la plupart de ces tableurs ne sont pas hautement dynamiques (assez souvent, la plupart des données ne sont pas calculées), ils permettent, alors qu’ils ne sont pas conçus pour cela, de générer de la planification d’activité ou de la priorisation d’activité, tout en facilitant le partage et d’information et de données.
Dourish insiste également sur les limites de ces outils (par exemple, la difficulté à manipuler des blocs non contigus) ou leur potentiel (la possibilité d’ajouter des données et de faire grandir le tableur). Bien souvent, souligne-t-il, le tableur sert de guide à la réunion : il révèle l’organisation elle-même, les participants discutant des données cellule après cellule, colonne après colonne… Le tableau spécifie ce qui est à l’ordre du jour et écarte tout ce qui n’apparaît pas sur le tableur. La distinction entre les données joue souvent comme une séparation des responsabilités – ce qui pose d’ailleurs des questions sur les responsabilités qui relèvent de ce qui n’est pas sur le tableur ou de ce qui est à l’intersection des données ou de leur calcul.
Dourish souligne aussi qu’il faut distinguer différents types d’objets dans les tableurs : on ne sait pas facilement par exemple si une donnée est une donnée directe – inscrite – ou dérivée, c’est-à-dire calculée – c’est-à-dire si un chiffre est un nombre ou le résultat d’une formule. Si le rôle du tableur semble de faire ressembler les données à un document papier où toutes les valeurs auraient le même statut, il faut saisir que ce n’est pas le cas, puisque ces données sont éditables et calculables, recomposables… Il souligne par là comment les usages que nous inventons depuis ces objets manquent de conception : un tableur n’a pas été conçu pour être le pilote de réunions. Si le côté dynamique de ces objets explique en grande partie leur utilisation, ce dynamisme par exemple créé des lacunes de fonctionnalités, comme le fait de ne pas pouvoir faire de recherche sur une donnée résultant d’un calcul dans un très grand tableau.
Enfin, il montre également que cet enregistrement d’activité est également un enregistrement d’accord : l’important devient ce qui est noté dans le tableau et non pas la discussion ou le calcul qui conduit à inscrire cette information. Pire, souligne-t-il, l’utilisation de tableurs comme outils de pilotage ou de budgétisation s’impose par reproduction. « Les documents deviennent des enregistrements ; les enregistrements deviennent des modèles : les modèles deviennent des routines ; les routines deviennent des processus. » Ces outils encodent et fixent des relations à la fois dans le tableur lui-même (cette cellule doit toujours être la moyenne des chiffres de cette colonne) comme entre les entités que ces chiffres recouvrent (ce budget et ce que ça implique doit toujours être le résultat de tel autre…).
Le développement de l’usage de ces outils, malgré leurs lacunes de conception, provient certainement du fait que ce sont des outils performatifs, qui permettent via le calcul, les formules et les liens entre les données d’être toujours à jour et de réaliser ce qu’ils énoncent. « L’usage de formules est une façon de montrer que le tableur continuera à faire son travail, même si son contenu change : c’est un moyen de produire de la stabilité dans une forme qui ne l’est pas. » Ces réunions qui consistent à éditer et mettre à jour ces tableurs soulignent que ce qui se joue ne tient pas seulement de la communication comme peuvent l’être les réunions powerpoint, mais bien de la délibération et que le document qui fixe la réunion n’est pas seulement produit, mais transformé par la réunion elle-même. Si les tableurs détrônent l’édition collaborative de documents textuels, selon Dourish, c’est parce qu’ils permettent de mieux rendre compte de la complexité des données et des interactions entre elles. S’ils détrônent le tableau blanc, c’est parce que les tableurs ont une vie avant et après la réunion, d’une certaine manière qu’ils doivent être vivants, dynamiques… Enfin, note encore Dourish, contrairement à ce qu’on pourrait penser, la plupart de ces séances utilisent un tableur non connecté à l’internet. Alors qu’un document partagé en ligne permet de maintenir des versions synchrones, les documents offline permettent d’avoir un point de contrôle qu’une seule personne ajuste selon les discussions.
Des conséquences de la matérialité du numérique sur nos usagesCet exemple illustre assez bien l’ambition de Dourish. « Explorer comment le calcul devient un objet avec lequel les gens doivent lutter »… Comment le calcul façonne la forme des objets numériques, contraint nos interactions humaines elles-mêmes et créent de nouvelles structures d’interaction qui ne sont pas seulement numérique ou qui rétroagissent au-delà de leur caractère numérique ? L’exemple des tableurs et des bases de données pour la coordination de groupe montre comment les organisations passent d’une forme linéaire, narrative, à des formes profondément relationnelles. « La base de données est à la fois une forme de représentation et une forme effective ».
Force est pourtant de constater que hormis cet exemple – passionnant – Dourish ne parvient pas vraiment à cerner les enjeux de la matérialité de l’information. Les autres objets sur lesquels il pose son regard d’anthropologue ne sont pas aussi parlant et parfois trop techniques pour être facilement compréhensibles.
Reste que l’analyse qu’il livre sur comment les bases de données façonnent désormais le monde matériel – et inversement – pointe bien sûr leurs limites : « Si les organisations ne peuvent agir que sur les données dont elles disposent, alors les limites de leurs bases de données deviennent leurs contraintes d’action sur le monde. » Or, dans ce qui est projeté lors de ce type de réunion, les bases de données et les données demeurent bien souvent l’objet caché… La matérialité du numérique a donc des conséquences sur la façon même dont on communique, on partage et se connecte.
Comme il le souligne en conclusion, « les bits ne sont pas que bits. Certains comptent plus que d’autres. Certains arrangements de bits sont plus facilement manipulables que d’autres…(…) tout comme les systèmes numériques indo-arabes et romains, différentes représentations impliquent différentes conséquences pour les sortes de choses que l’on peut faire avec. » La rhétorique du « virtuel » suggère que le numérique serait indépendant des configurations et contraintes matérielles qui pèsent sur lui. Or, si le numérique dépend de grandes infrastructures matérielles, le numérique impose en retour des contraintes matérielles à ceux qui les utilisent. Les objets numériques ont des particularités propres et les systèmes de représentation qu’ils déterminent ont des manifestations directement matérielles. Et Dourish d’en appeler à mieux comprendre à la fois les pratiques culturelles et leurs manifestations techniques. Certes, il n’est pas le premier à le dire, à signaler les limites des intentions dans la production des systèmes numériques et leurs détournements ou leurs bricolages. Pour lui, il est nécessaire de prendre au sérieux la matérialité du numérique. Cette matérialité explique-t-il encore relève le plus souvent d’une « traduction », du passage d’une représentation à une autre. Bien souvent, on néglige l’aspect matériel de ces transformations, alors qu’elles sont éminemment importantes, comme le soulignait déjà Frédéric Kaplan en s’intéressant au fonctionnement du traducteur de Google, qui passe toujours par une traduction par l’anglais pour traduire d’une langue à une autre. Il invite d’ailleurs à parler plutôt de transduction pour parler de ce type de conversions, comme c’est le cas de notre voix transformée en signal électrique par l’usage du téléphone et réassemblé en sons à la fin, produisant une nouvelle production qui n’est pas qu’une simple copie. Le calcul n’est pas indépendant de ses manifestations matérielles insiste Dourish (« l’informatique ne concerne pas plus l’ordinateur désormais que l’astronomie ne concerne les télescopes« , disait le mathématicien Edsger Dijkstra), qui invite à refonder la science informatique en s’inspirant du Manifeste pour la pensée computationnelle (.pdf) de Jeanette Wing qui invitait déjà à changer de mode de pensée. Une conclusion hélas un peu convenue.
On aurait aimé que Dourish, plutôt que de se perdre parfois dans la dissection de la matérialité du réseau, évoque les succédanés de ces tableurs par exemple, comment les tableaux de bord de pilotage, comme les tableaux de bord urbains, les systèmes de visualisation de données, prolongent les effets qu’il pointe avec les « spreadsheets events ». On aurait aimé qu’il souligne d’autres exemples de simulations numériques, de virtualisation de la réalité (à l’image des bombes nucléaires américaines qui continuent d’évoluer alors qu’aucune n’est testée en situation réelle, mais uniquement par simulation numérique ce qui implique que leurs limites reposent désormais plus sur les capacités de calcul que sur leur niveau de radioactivité) en s’intéressant par exemple plus avant aux contraintes qu’imposent les formes de modélisation à la réalité. La conception d’armes nucléaires est devenue une science informatique, rappelle-t-il. Et c’est le cas de nombre de domaines des sciences de l’ingénieur. La réalité est façonnée par la modélisation que nous faisons du monde. D’où la nécessité de s’y intéresser toujours plus avant. De regarder toujours avec acuité l’enchevêtrement toujours plus complexe du numérique au reste du monde et sa matérialisation.
Hubert Guillaud
Cet article a été publié originellement sur InternetActu.net le 5 septembre 2017.
-
19:48
gvSIG Batoví: Curso-Concurso gvSIG Batoví: Lanzamiento de un proyecto que trasciende fronteras
sur Planet OSGeo
-
11:30
Les micropolluants émergents dans les eaux littorales : représentations et enjeux de gestion d’un problème complexe. Le cas du Pays basque français
sur CybergeoLa qualité de l’eau du littoral basque français est un enjeu crucial pour les gestionnaires locaux. Parmi les dégradations qu’elle subit, les micropolluants représentent un défi majeur. Ces substances chimiques, aussi appelées polluants émergents, peuvent nuire à la santé humaine et à l’environnement malgré leur présence en faibles concentrations. Leur gestion est complexe en raison de leur diversité, de leurs origines multiples, d’une absence massive de réglementation et de la nécessité d’une approche globale et multi-niveaux pour réduire leur impact, ce qui en fait un "problème épineux". Cet article a pour objectif d’appréhender les dynamiques et les défis de la gestion de ces polluants en portant la focale sur les acteurs locaux et leurs représentations du problème. La gestion de l’eau implique divers acteurs publics et privés, chacun ayant des intérêts et des responsabilités variés. Pour cette étude, 65 acteurs ont été interrogés sur leurs visions de la situation locale et de la...
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
11:00
Mappery: California Metalwork
sur Planet OSGeoA beautiful simple map spotted by Wanmei L in downtown LA
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
0:07
The Walk Management System
sur Google Maps Mania? The Walk Management System: I’ve decided to walk the length of the Jubilee Line on the London Underground. But before setting off, I figured I needed a WMS (Walk Management System) to help plan and document each stage of this epic hike.With a little help from ChatGPT and MapLibre GL, I’ve built a lightweight web app that lets me create, edit, and view walking routes - complete with
-
22:52
Sean Gillies: Bear training week 9 recap
sur Planet OSGeoI have enjoyed a rest week. I exercised every day, but nothing intense or long, with double easy workouts on Thursday. I did a short bit of tempo pace running on Thursday, 8-8.5 effort out of ten. It felt great.
16.3 miles running
7 hours, 16 minutes all training
981 ft D+ running
Next week I'll be diving into tempo runs for real as I get into my second eight-week training block.
A pale brown concrete bike path rises in curves toward snow-covered Rocky Mountain foothills under broken low clouds.
-
19:31
Coup de jeune au SITG
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLe système d’information du territoire à Genève (SITG) connaît une évolution en 2025. Le projet de loi sur la géoinformation aide à gagner en efficacité, en ouverture et veut mettre en avant les données d’intérêt cantonal. Avec la transformation de sa réglementation et de son organisation technique et graphique, un site internet plus performant a pu être déployé. Il devient aussi plus souple à administrer pour les propriétaires de données, plus accessible et ouvert tout en respectant les contraintes de sécurité de l’État. Côté expérience utilisateur, la recherche est améliorée et les cartes interactives par thèmes sont davantage valorisées. L’identité du service est renforcée par la modernisation de la charte graphique. L’objectif de cette transformation est d’élargir les usages, accroître l’exploitation de la géoinformation et développer l’innovation. Ainsi que fortifier la qualité des données.
+ d'infos :
sitg.ge.ch
-
18:01
Rappels à propos du retrait des Story Maps Esri Classiques
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierDepuis 2019, Esri a engagé une transition des outils de création de récits cartographiques (StoryMaps) vers ArcGIS StoryMaps. J'avais eu l'occasion de l'évoquer il y a presque 4 ans avec notamment cet article arcOrama expliquant que les modèles d'application Story Maps Esri Classiques (Map Journal, Map Tour, Series, Cascade et Swipe) devaient être migrés vers le générateur unique ArcGIS StoryMaps. Afin de vous alerter sur l'approche des échéances annoncées à l'époque, cet article contient des rappels importants sur le retrait des Story Maps Esri Classiques.
Ce qu'il faut retenir à propos du retraits des StoryMaps Classiques :- Date de retrait : les récits réalisés avec les modèles de Story Maps Classiques seront retirées d'ArcGIS Online au premier trimestre 2026 et ont été retirées avec ArcGIS Enterprise 11.0.
- Ce qui change : après leur retrait, les modèles classiques de Story Maps Esri ne seront plus disponibles et les Story Maps existantes ne seront plus visibles avec leurs URL précédentes.
- Action requise : vous devez envisager une transition vers ArcGIS StoryMaps pour continuer à utiliser les fonctionnalités de narration cartographique modernes d’Esri et garantir la compatibilité avec les dernières technologies Web.
Retrait des Story Maps Esri Classiques
Le processus de retrait des récits Story Maps Classiques a été annoncé en 2019, peu de temps après le lancement d'ArcGIS StoryMaps par Esri. La suppression des Story Maps Classiques dans ArcGIS Online a été mise à jour et repoussée jusqu'au premier trimestre 2026.
Après cette date :
Les modèles classiques de cartes narratives Esri ne seront plus disponibles.
Bien que les contenus (texte, médias, cartes, liens d'application, etc.) restent dans les éléments ArcGIS Online, les Story Maps Classiques ne seront plus accessibles via leurs URL précédentes.
Esri recommande à tous les utilisateurs de passer à ArcGIS StoryMaps ou à d'autres applications ArcGIS de génération actuelle pour continuer à profiter de la dernière technologie de cartographie Web et des améliorations des capacités de narration.
Cette retraite s’applique-t-elle à ArcGIS Online, ArcGIS Enterprise ou les deux ?
Les informations et les dates contenues dans cet article s’appliquent principalement aux Story Maps Classiques dans ArcGIS Online.
Les Story Maps Classiques ont été retirées d'ArcGIS Enterprise 11.0 et ne sont accessibles que pour ArcGIS Enterprise 10.9.1 et versions antérieures. Vous trouverez plus d'informations sur le retrait des Story Maps Classiques d'ArcGIS Enterprise ici.
Pourquoi les Story Maps Esri Classiques sont-elles retirées ?
Evidemment, comme pour retrait de technologie dans le système ArcGIS, il y a un mixte de technologie, et des considérations de maintenabilité et de sécurité. Esri a lancé son premier modèle de narration en 2012. D'autres modèles ont ensuite suivi, notamment Cascade, Journal, Series, Shortlist, Swipe et Tour, collectivement connus sous le nom de Story Maps Classiques.
Ces modèles ont été créés à l'aide d'un SDK JavaScript désormais ancien, qui n'est plus prise en charge par Esri. Avec l'évolution des technologies web et des navigateurs, ces modèles risquent de devenir incompatibles avec les nouvelles technologies.
Le retrait de ces modèles permet à Esri de se concentrer sur ArcGIS StoryMaps, qui s'appuie sur une technologie moderne. Passez à ArcGIS StoryMaps dès aujourd'hui permet de bénéficier d'un support continu, de la sécurité et de l'accès à de nombreuses nouvelles fonctionnalités qui augmenteront largement la créativité dans vos narrations.
En passant à ArcGIS StoryMaps, vous pouvez bénéficier des dernières améliorations des outils de conception de récits d'Esri et maintenir l'accessibilité et le fonctionnement optimum de vos récits au fil des avancées technologiques. ArcGIS Story Maps est mis à jour une à deux fois par mois.
Qu'est-ce qu'ArcGIS StoryMaps ?
Lancée en 2019, la plupart d'entre vous l'utilise déjà très largement. ArcGIS StoryMaps est une plateforme moderne et unifiée pour la création de récits interactifs et dynamiques. Elle consolide les fonctionnalités des Story Maps classiques d'Esri tout en introduisant des fonctionnalités améliorées, telles que :- Créer des structures narratives enchainant des mécanismes telles que des galleries d'images, de cartes, des visites cartographiques (Map Tour), des panneaux latéraux déroulants, ...
- Concevoir des présentations basées sur des diapositives (appelées des Briefings ArcGIS StoryMaps),
- Intégrer et bénéficier des outils de cartographie sur le web les plus récents avec le support des dernière innovation sur les cartes web (2D) et scènes web (3D),
- Une plus grande flexibilité dans la conception et la personnalisation de vos récits avec la possibilité de les rassembler en collections de StoryMaps.
Que devez-vous faire maintenant ?
Si vous disposez encore de Story Maps Classiques, Esri recommande de considérer une migration vers ArcGIS StoryMaps dès maintenant pour garantir un accès continu aux fonctionnalités de narration modernes .
Pour obtenir des conseils sur la transition des cartes Esri Story Maps classiques vers ArcGIS StoryMaps, consultez cet article (en anglais) "Gérer le retrait des Story Maps Esri Classiques dans votre organisation". Cet article de blog fournit des instructions utiles, des outils, des bonnes pratiques et des recommandations d'experts pour garantir une migration fluide et réussie. C'est le point de départ idéal pour vous aider à gérer le retrait des Story Maps Classiques et à profiter pleinement des fonctionnalités et avantages d'ArcGIS StoryMaps.
Bien entendu, vous pouvez également vous rapprocher des équipes techniques d'Esri France pour être accompagnez sur certains points critiques de cette migration.
-
11:00
Mappery: Museo de Arte Precolombino
sur Planet OSGeoRobert Simmon shared these from the Museo de Arte Precolombino in Santiago, Chile. I love the way the map wraps around the corner of the gallery.
Timeline of pre-Colombian cultures mounted on the wall of the Museo de Arte Precolombino. The oldest cultures are dated to 14,000 BC.
-
19:13
GIScussions: Defying Gravity
sur Planet OSGeoAnother year, another set of opaque accounts from What3Words. Why do I say opaque? Because despite quite a few years of reading company accounts I feel that I must be missing something when I read through these accounts.
The headline info is clear:
- Turnover doubled to £2.15m
- Losses reduced from £16.5m last year to £10.6m
- Net assets of £15.6m (slightly down on last year)
- Investment received in the year £7.9m
- Employees reduced by 36 to 92
The cumulative position is eye watering, since its formation w3w has accumulated £146m of losses and taken on £160m of investment,
The directors consider w3w to be a “going concern” and it looks as if it can sustain another year or so of losses with a bit of shareholder support but unless major revenues start to materialise then at some stage a major cost reduction program will be needed or ..?
I don’t understand how this works, the company continues to lose sums that are many times it’s revenue and yet investors continue to support the business presumably because they have insight into the future upside that will come from a massive upturn in revenues or a golden clad purchaser who will confer unicorn status on the company.
maybe.maybe.maybeMaybe I am an old fashioned entrepreneur who fussed too much about costs and revenues.
Maybe this all works out brilliantly and the company is on the verge of becoming an outstanding success, as the directors say in acknowledging risk “The group has created a new addressing format, with the aim of becoming a universal standard for location referencing. A key aspect of this is acquiring and retaining a high volume of newly engaged consumers, creating wide-scale network effects and consumer behaviour change to ultimately deliver commercial contracts.”
On the other hand, maybe we will look back on this saga in a couple of years and wonder how we could possibly have believed that it would ever make money. Well I won’t be doing that!
-
11:00
Mappery: Where do I go from here?
sur Planet OSGeoDoug spotted this map design on the exit of an office building in Cambridge, Massachusetts
-
10:51
Détournement de Google Maps pour rendre visible les invisibles (Utopia 56)
sur Cartographies numériquesSource : « Quand l'association Utopia 56 pirate Google Maps pour rendre visible les "invisibles" » (Radio France)
L'association "Utopia 56" révèle son opération de communication autour du piratage de Google Maps. Pendant l'été 2024, en marge de l’organisation des Jeux olympiques, des milliers de personnes ont été déplacées vers d’autres villes pour faire place nette. Ces images de sans-papiers, de réfugiés, de travailleurs immigrés sommés de rentrer dans des cars des forces de l’ordre ont été assez violentes à regarder et de nombreuses associations comme Médecins du monde ou Emmaüs ont dénoncé un "nettoyage social". Mais la fête était trop belle, et l’opinion a focalisé son attention sur l’appel du podium, loin du revers de la médaille.
La firme américaine a fini par repérer ce gentil piratage de ses fonctionnalités et a supprimé tous les pin's. Ce grand nettoyage de printemps n’a pas découragé Utopia 56, qui poursuit aujourd’hui cette stratégie de sensibilisation en jouant sur le délai de réactivité, très variable, de la plateforme. Récemment, ce sont de nombreux pin's qui se sont ajoutés du côté de la Gaîté Lyrique pour décrire la violence des expulsions de mineurs isolés.
Ce qui est assez déroutant dans cette action de visibilisation de la précarité, c'est notre regard : accorderait-on plus plus d’importance à un pixel sur une carte numérique qu’à un humain sur le bitume ? Utopia 56 a réussi sa démarche de sensibilisation en utilisant la virtualité désincarnée du numérique pour mieux pointer la déshumanisation de nos sociétés connectées.
Pour en savoir plus
« Trêve hivernale : Utopia 56 détourne Google Maps pour recenser les sans-abris expulsés » (Libération). Sur Google Maps, les «pin's» servent habituellement à identifier des restaurants, des hôtels ou des lieux d'exposition. L’association qui combat le sans-abrisme a utilisé l’application de géolocalisation pour indiquer les lieux où des personnes en situation de grande précarité ont été déplacées de force. Après une première salve de censure par Google, le collectif poursuit son détournement de l’outil.
« Utopia56 - Cartographie des campements parisiens » (Dataforgood.fr).CartoCampement est un outil de cartographie collaborative des campements de personnes exilées à Paris, développé par Utopia 56 en partenariat avec Action Contre la Faim et la Croix-Rouge, pour optimiser l'aide humanitaire et améliorer la coordination entre associations.Articles connexes
Contre-cartographie : ce que Google Maps ne vous montre pas
Google Street View et sa couverture géographique très sélective
Des images Lidar pour rendre visible l'invisible. L'exemple de l'archéologie
JO de Paris 2024. Quand la flamme olympique évite la "diagonale du vide"
Les aires d'accueil des gens du voyage en France : des territoires marginalisés
« Personne n'habite ici » ou comment cartographier le vide ?
Le Blanc des cartes. Quand le vide s'éclaire (Atlas Autrement)
Atlas de l'absence. Le patrimoine culturel du Cameroun en Allemagne
A l'ère numérique, les cartes à punaises ont-elles vraiment disparu ?
-
10:47
Russia's Disinformation Network Mapped
sur Google Maps ManiaThe Pravda DashboardThe Pravda Network is a coordinated Russian disinformation campaign designed to disseminate pro-Kremlin content across the globe. At its core, the network launders news from sanctioned Russian media outlets and questionable Telegram channels, distributing it through a constellation of country-specific websites. In each country the news is recycled to fit local narratives
-
11:00
Mappery: Europe is a Big Place
sur Planet OSGeoJoe Davis spotted this massive map display in Lyon
-
9:07
The Hotness Map No One Needed
sur Google Maps ManiaLooksMapping is a digital map that rates restaurants not by food or service, but by the attractiveness of their clientele. It scrapes millions of Google Maps reviews, runs each reviewer’s profile photo through an AI model trained to score “hotness” out of ten, and then color-codes restaurants accordingly - red for hot, blue for not.LooksMapping feels like a relic from a digital past - with the
-
8:18
Territoires virtuels
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLes jumeaux numériques dans les territoires en France et en Europe, l’enjeu de collaboration nationale autour du numérique pour les infrastructures et les territoires ou encore les maquettes numériques, modélisations 3D et jumeaux numériques en outils de collaboration, d’aide à la décision et de mutualisation territoriale font partie des sujets qui seront abordés fin mai lors de VirtualTer. Cette conférence de 4 demi-journées à l’Université de Caen Normandie, à laquelle notre rédaction est associée avec le CBUG, l’IGN, le BRGM, le Cerema et MINDd2025, s’adresse aux élus, aux décideurs et aux services métiers de structures publiques et parapubliques. Elle va permettre de présenter des projets à diverses échelles (du bâtiment au territoire, du quartier à la ville), mais aussi différentes thématiques : îlots de chaleur, problématiques de sous-sol, impact assurantiel, sécurité civile, etc. Il s’agit de montrer que la collaboration entre communautés métiers différentes amène à une démarche gagnante pour tous.
+ d'infos :
urlr.me
-
11:00
Mappery: Santa Catalina Island Map Tat
sur Planet OSGeoWho can resist a bit of map tat? Certainly not Wanmei L.
-
10:54
Matinée avec l’éditeur de la solution Digiforma
sur Makina CorpusEn tant qu’organisme de formation, nous suivons de près l’actualité de l’éditeur de la solution de gestion des formations que nous utilisons depuis plusieurs années : Digiforma.
-
9:57
VirtualTer 2025, une fabrique collective des jumeaux numériques pour les territoires de demain
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueDu 26 au 28 mai, les acteurs clés des jumeaux numériques territoriaux se réunissent à Caen. Un événement majeur pour anticiper les transformations liées à la transition écologique et numérique.Du 26 au 28 mai, Caen sera la vitrine territoriale pour les jumeaux numériques en accueillant VirtualTer 2025, le colloque national de référence sur les jumeaux numériques appliqués aux territoires. Co-organisé par le BRGM, le Cerema, le CNIG, l’IGN, l’Université de Caen et le programme MINnD2050, l’événement entend fédérer expertises, approches et innovations pour « collaborer les jours d’avant afin d’anticiper les jours d’après ».
Ville engagée dans la transition écologique et numérique, Caen et son agglomération expérimentent des scénarios d’adaptation (recul du trait de côte, submersion marine, îlots de chaleur…), appuyés par la modélisation numérique. L’Université de Caen est quant à elle une référence nationale en matière de gestion patrimoniale BIM/CIM, et son Campus 1, en plein cœur de ville, servira de cadre au colloque. Il semble un brin logique que cette Université et cette ville servent d’écrin à cette première édition de VirtualTER.
Quel rôle pour les jumeaux numériques dans l’adaptation des territoires au changement climatique ? Comment renforcer la collaboration entre acteurs publics, experts techniques et décideurs politiques pour penser ensemble les territoires connectés, résilients et durables ? Ce sont quelques-unes des grandes questions qui animeront VirtualTer 2025, dont l’ambition est de devenir l’espace national et européen de référence sur les usages des jumeaux numériques, de l’échelle du bâtiment à celle du territoire dans toutes ses dimensions.
?Un programme riche, au croisement des enjeux VirtualTer 2025 proposera quatre demi-journées thématiques articulées autour de la collaboration, l’adaptation territoriale, la gouvernance des données et les retours d’expériences internationaux.
Parmi les temps forts, une ouverture sur les territoires connectés et durables et des cas d’usage emblématiques venus de France, Suisse, Québec ou Montréal. Une séquence sera consacrée à la modélisation des infrastructures, avec le retour d’expérience de l’Université de Caen sur la gestion patrimoniale en BIM/CIM (mardi 27 mai).
Les deux premiers jours, des focus seront aussi réalisés sur les enjeux éthiques, sanitaires et sécuritaires liés aux données géolocalisées et aux jumeaux numériques, avec notamment un point d’étape sur le projet national IGN/Cerema/INRIA. Une table ronde, mardi après-midi, rassemblera les directions générales du BRGM, Cerema, CNIG, IGN France et IGN Québec autour de la résilience urbaine.
Enfin, mercredi 28 mai sera une matinée totalement internationale (en anglais, avec traduction simultanée) avec des contributions du Japon, des Pays-Bas, de l’Allemagne et du Danemark, illustrant la montée en puissance des jumeaux numériques dans les politiques publiques à l’échelle mondiale.
Belle opportunité pour découvrir, échanger et co-construire les jumeaux numériques de demain, VirtualTer 2025 est un événement gratuit, mais sur inscription obligatoire. Retrouvez les rédactions de SIGMAG SIGTV.FR et Twin+, partenaires presse de l’événement, sur le village de VirtualTer, les 26 et 27 mai.
+ d'infos :
minnd2050.fr/index.php/virtualter-2025/
-
9:17
QGIS Blog: ? Changes Ahead: QGIS Is Moving to Qt6 and Launching QGIS 4.0!
sur Planet OSGeoWe’re happy to share some major updates coming to the QGIS platform over the next few months. These changes are part of a long-planned technical migration that will bring new possibilities and ensure QGIS stays modern, fast, and future-ready.
QGIS Is Migrating to Qt6
Qt6 is the latest version of the cross-platform application framework that QGIS is built upon. Moving to Qt6 allows us to:
- Future-proof the QGIS codebase.
- Take advantage of modern libraries with significant performance and security improvements.
- Simplify long-term maintenance and development.
While most of the migration is complete, a few final tasks remain, especially around Continuous Integration (the automated processes that run on each change to the QGIS code base to help reduce bugs), layout rendering, and PDF output. The core team is actively working on these and making significant progress.
Enter QGIS 4.0
To mark this significant backend shift, we’ve decided to align the Qt6 migration with a new major release: QGIS 4.0, which will arrive after QGIS 3.44, in October 2025.
Here’s what you need to know:
- QGIS 4.0 will be Qt6-only
- It will not be an LTR (see release strategy below for details)
- To ease the transition, it will retain deprecated APIs, so plugin developers will only need minimal work to ensure compatibility with Qt6 and prepare for future QGIS versions.
This strategy allows us to modernise QGIS without forcing a major rewrite of existing plugins. Some adjustments will be needed to ensure QGIS 4.0 compatibility.
Note on Features: While QGIS 4.0 marks a major version jump, it’s essential to understand that this release will include only a few new user-facing features. The primary focus is on the transition to Qt6, which involves significant changes under the hood.
In the QGIS project, a major version number doesn’t necessarily mean a flood of new features—it signals a break in the API. This ensures that developers are aware of potential compatibility updates needed for their plugins or integrations, even if the visible functionality remains largely unchanged.Why This Matters
This isn’t just about upgrading for the sake of it — it’s about keeping QGIS secure, modern, and maintainable.
- Qt 5.15 enters Extended Support (EOS) in May 2025, with continued security updates available only under commercial terms
- Staying on Qt5 would limit our ability to access upstream fixes and improvements
- Qt6 is already a proven platform — projects like QField and Mergin Maps have been using it successfully in production for quite some time
- Migrating to Qt6 ensures QGIS stays aligned with a supported, modern framework
Release Strategy
To ensure a smooth transition for users and developers, we’re taking a phased approach:
- QGIS 3.40 LTR will be extended by 4 months, until May 2026, giving plugin developers and organisations extra time to adapt
- QGIS 4.0, scheduled for October 2025, will be a regular release
- QGIS 4.2, scheduled for February 2026, will follow as the next official LTR
This gradual rollout ensures users who depend on stable environments can continue with 3.40 LTR, while early adopters and plugin developers move forward with Qt6 in 4.0.
What About Plugins?
We’re making it easier than ever for plugin developers to prepare:
- The QGIS Plugin Repository will begin accepting 4.x-compatible plugins
- The plugin site will inform users if a plugin is Qt6-compatible
- A comprehensive migration guide is in the works to support developers during the transition
If you maintain a plugin, now’s the perfect time to start testing and preparing for Qt6 compatibility!
See:
Try Qt6 Today
The migration to Qt6 isn’t just theoretical — it’s already happening and ready for testing:
- Windows: Qt6 builds of all release branches and master are available now via the OSGeo4W installer
- Linux (Debian): Qt6 support is almost there — packaging work is underway to support both Qt5 and Qt6 side by side
- macOS: Qt6 packages will start building as soon as QGIS 3.44.0 is released and the QGIS 4.0 development cycle begins
Start exploring Qt6 builds today and help us shape the future of QGIS.
Get Involved
We’ll share more updates in the coming weeks. In the meantime:
- Try the Qt6 builds
- Test your plugins for compatibility
- Stay tuned on qgis.org and community channels
A massive thank you to all contributors, developers, testers, and organisations supporting this transition.
QGIS 4.0 is shaping to be a big leap forward, and we can’t wait to share it with you!
Edited on 24.04.25
- Removed leftover texts
- Added a note on new features in QGIS 4.0
-
8:52
Scrambled Maps in the Wild
sur Google Maps ManiaMaps in the Wild is a crowdsourced and curated map archive of real-world maps found in everyday life - such as park maps, museum guides, transit maps, or historical maps displayed in public spaces. The website consists entirely of images of real-world maps submitted by readers.People from around the world submit photos to Maps in the Wild of maps they spot in real-life. These can include maps on
-
8:24
Les SDKs ArcGIS Maps for Native Apps passent en version 200.7
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Les SDKs ArcGIS Maps for Native Apps permettent aux développeurs de concevoir des applications géospatiales natives (qui s'installent sur votre poste bureautique, tablette ou smartphone). Elles proposent ainsi les nombreuses capacités SIG du système ArcGIS, en 2D et 3D, en étant connecté ou déconnecté.
La version 200.7 des ArcGIS Maps SDKs for Native Apps apporte des avancées significatives, notamment pour les workflows mobiles et terrain :- Utility Networks : amélioration de l’éditeur de géométrie avec snapping basé sur les règles de connectivité. Cela permet de guider en temps réel la création/modification d'entités tout en respectant les règles du réseau.
- Entités dynamiques : possibilité d’exécuter des requêtes attributaires et spatiales à la volée (snapshot queries), sur des flux en temps réel, pour extraire des entités répondant à des critères spécifiques.
- Superposition d'images 2D : extension aux vues 2D de la capacité de superposition d’images géoréférencées déjà disponible en 3D.
- SDK Flutter : avancement vers la parité fonctionnelle avec ajout du support des rasters, geotriggers, navigation, gestion des identifiants et image overlays. Le toolkit Flutter est repoussé à la prochaine version.
- Optimisations communes aux différents SDKs :
- Support des sous-tables de sous-types dans les webmaps/mobile maps.
- Navigation dans les associations réseau (containers, structures, etc.) via les formulaires et popups.
- Performances 3D largement revues à la hausse.
- Optimistation spécifiques à certains SDKs :
- Kotlin : composants AR temps réel, légende, fonds de carte.
- .NET : nouveau Calcite .NET toolkit pour UI personnalisables.
- Qt : mise à jour vers Qt 6.8 LTS.
- Swift : nouveau composant OfflineMapAreasView pour la gestion offline avancée.
- Dépréciation du Local Server : Ses capacités son désormais pris en charge par le coeur des SDKs, son retrait est donc prévu après la version 200.8 (Q3 2025), qui sera une version LTS (Long Term Support) jusqu’en 2030.
Pour découvrir ces évolutions et d'autres non listées ici, je vous recommande la lecture de cet article de ma collègue Pauline Louis sur le blog CodeTheMap.
-
7:00
Internet : une si longue dépossession
sur Dans les algorithmesEn 2022, Ben Tarnoff fait paraître Internet for the people, the fight for the future, un livre essentiel pour comprendre les conséquences de la privatisation d’internet. Retour de lecture.
Ben Tarnoff est un chercheur et un penseur important des réseaux. Éditeur de l’excellent Logic Mag, il est également l’un des membres de la Collective action in tech, un réseau pour documenter et faire avancer les mobilisations des travailleurs de la tech.
Il a publié notamment un manifeste, The Making of tech worker movement – dont avait rendu compte Irénée Régnauld dans Mais où va le web ? -, ainsi que Voices from the Valley, un recueil de témoignages des travailleurs de la tech. Critique engagé, ces dernières années, Tarnoff a notamment proposé, dans une remarquable tribune pour Jacobin, d’abolir les outils numériques pour le contrôle social (« Certains services numériques ne doivent pas être rendus moins commodes ou plus démocratiques, mais tout simplement abolis »), ou encore, pour The Guardian, de dé-informatiser pour décarboner le monde (en invitant à réfléchir aux activités numériques que nous devrions suspendre, arrêter, supprimer). Il publie ce jour son premier essai, Internet for the people, the fight of your digital future (Verso, 2022, non traduit).
Internet for the People n’est pas une contre-histoire de l’internet, ni une histoire populaire du réseau (qui donnerait la voix à ceux qui ne font pas l’histoire, comme l’avait fait l’historien Howard Zinn), c’est avant tout l’histoire de notre déprise, de comment nous avons été dépossédé d’internet, et comment nous pourrions peut-être reconquérir le réseau des réseaux. C’est un livre souvent amer, mais assurément politique, qui tente de trouver les voies à des alternatives pour nous extraire de l’industrialisation du net. Sa force, assurément, est de très bien décrire comment l’industrialisation s’est structurée à toutes les couches du réseau. Car si nous avons été dépossédés, c’est bien parce qu’internet a été privatisé par devers nous, si ce n’est contre nous.
« Les réseaux ont toujours été essentiels à l’expansion capitaliste et à la globalisation. Ils participent à la création des marchés, à l’extraction des ressources, à la division et à la distribution du travail. » Pensez au rôle du télégraphe dans l’expansion coloniale par exemple, comme aux câbles sous-marins qui empruntent les routes maritimes des colons comme des esclaves – tout comme les données et processus de reporting standardisés ont été utilisés pour asseoir le commerce triangulaire et pour distancier dans et par les chiffres la réalité des violences commises par l’esclavage, comme l’explique l’historienne Caitlin Rosenthal dans son livre Accounting for Slavery : Masters & Management.
« La connectivité n’est jamais neutre. La croissance des réseaux a toujours été guidée par le désir de puissance et de profit. Ils n’ont pas été conduits pour seulement convoyer de l’information, mais comme des mécanismes pour forger des relations de contrôle. » La défiance envers le monde numérique et ses effets n’a cessé de monter ces dernières années, dénonçant la censure, la désinformation, la surveillance, les discriminations comme les inégalités qu’il génère. Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animosité à l’égard du numérique à des luttes dont l’objet est d’abattre la technologie… c’est-à-dire de dresser le constat qu’internet est brisé et que nous devons le réparer. Pour Tarnoff, la racine du problème est pourtant simple : « l’internet est brisé parce que l’internet est un business ». Même « un internet appartenant à des entreprises plus petites, plus entrepreneuriales, plus régulées, restera un internet qui marche sur le profit », c’est-à-dire « un internet où les gens ne peuvent participer aux décisions qui les affectent ». L’internet pour les gens sans les gens est depuis trop longtemps le mode de fonctionnement de l’industrie du numérique, sans que rien d’autre qu’une contestation encore trop timorée ne vienne le remettre en cause.
Ben Tarnoff et la couverture de son livre, Internet for the People. Privatisation partout, justice nulle part
L’internet n’a pas toujours eu la forme qu’on lui connaît, rappelle Tarnoff. Né d’une manière expérimentale dans les années 70, c’est à partir des années 90 que le processus de privatisation s’enclenche. Cette privatisation « n’est pas seulement un transfert de propriété du public au privé, mais un mouvement plus complexe où les entreprises ont programmé le moteur du profit à chaque niveau du réseau », que ce soit au niveau matériel, logiciel, législatif ou entrepreneurial… « Certaines choses sont trop petites pour être observées sans un microscope, d’autres trop grosses pour être observées sans métaphores ». Pour Tarnoff, nous devons regarder l’internet comme un empilement (stack, qui est aussi le titre du livre de Benjamin Bratton qui décompose et cartographie les différents régimes de souveraineté d’internet, qui se superposent et s’imbriquent les uns dans les autres), un agencement de tuyaux et de couches technologiques qui le compose, qui va des câbles sous-marins aux sites et applications d’où nous faisons l’expérience d’internet. Avec le déploiement d’internet, la privatisation est remontée des profondeurs de la pile jusqu’à sa surface. « La motivation au profit n’a pas seulement organisé la plomberie profonde du réseau, mais également chaque aspect de nos vies en ligne ».
En cela, Internet for the people se veut un manifeste, dans le sens où il rend cette histoire de la privatisation manifeste. Ainsi, le techlash ne signifie rien si on ne le relie pas à l’héritage de cette dépossession. Les inégalités d’accès comme la propagande d’extrême droite qui fleurit sur les médias sociaux sont également les conséquences de ces privatisations. « Pour construire un meilleur internet (ou le réparer), nous devons changer la façon dont il est détenu et organisé. Pas par un regard consistant à améliorer les marchés, mais en cherchant à les rendre moins dominants. Non pas pour créer des marchés ou des versions de la privatisation plus compétitifs ou réglementés, mais pour les renverser ».
« La “déprivatisation” vise à créer un internet où les gens comptent plus que les profits ». Nous devons prendre le contrôle collectif des espaces en ligne, où nos vies prennent désormais place. Pour y parvenir, nous devons développer et encourager de nouveaux modèles de propriété qui favorisent la gouvernance collective et la participation, nous devons créer des structures qui favorisent ce type d’expérimentations. Or, « les contours précis d’un internet démocratique ne peuvent être découverts que par des processus démocratiques, via des gens qui s’assemblent pour construire le monde qu’ils souhaitent ». C’est à en créer les conditions que nous devons œuvrer, conclut Tarnoff dans son introduction.
Coincés dans les tuyauxDans la première partie de son livre, Tarnoff s’intéresse d’abord aux tuyaux en nous ramenant aux débuts du réseau. L’internet n’est alors qu’un langage, qu’un ensemble de règles permettant aux ordinateurs de communiquer. À la fin des années 70, il est alors isolé des forces du marché par les autorités qui financent un travail scientifique de long terme. Il implique des centaines d’individus qui collaborent entre eux à bâtir ces méthodes de communication. C’est l’époque d’Arpanet où le réseau bénéficie de l’argent de la Darpa (l’agence de la Défense américaine chargée du développement des nouvelles technologies) et également d’une éthique open source qui va encourager la collaboration et l’expérimentation, tout comme la créativité scientifique. « C’est l’absence de motivation par le profit et la présence d’une gestion publique qui rend l’invention d’internet possible ».
C’est seulement dans les années 90 que les choses changent. Le gouvernement américain va alors céder les tuyaux à des entreprises, sans rien exiger en retour. Le temps de l’internet des chercheurs est fini. Or, explique Tarnoff, la privatisation n’est pas venue de nulle part, elle a été planifiée. En cause, le succès de l’internet de la recherche. NSFNet, le réseau de la Fondation nationale pour la science qui a succédé à Arpanet en 1985, en excluant les activités commerciales, a fait naître en parallèle les premiers réseaux privés. Avec l’invention du web, qui rend l’internet plus convivial (le premier site web date de 1990, le navigateur Mosaic de 1993), les entreprises parviennent à proposer les premiers accès commerciaux à NSFNet en 1991. En fait, le réseau national des fondations scientifiques n’a pas tant ouvert l’internet à la compétition : il a surtout transféré l’accès à des opérateurs privés, sans leur imposer de conditions et ce, très rapidement.
En 1995, la privatisation des tuyaux est achevée. Pour tout le monde, à l’époque, c’était la bonne chose à faire, si ce n’est la seule. Il faut dire que les années 90 étaient les années d’un marché libre triomphant. La mainmise sur l’internet n’est finalement qu’une mise en application de ces idées, dans un moment où la contestation n’était pas très vive, notamment parce que les utilisateurs n’étaient encore pas très nombreux pour défendre un autre internet. D’autres solutions auraient pu être possibles, estime Tarnoff. Mais plutôt que de les explorer, nous avons laissé l’industrie dicter unilatéralement ses conditions. Pour elle, la privatisation était la condition à la popularisation d’internet. C’était un faux choix, mais le seul qui nous a été présenté, estime Tarnoff. L’industrie a récupéré une technologie patiemment développée par la recherche publique. La dérégulation des télécoms concomitante n’a fait qu’accélérer les choses. Pour Tarnoff, nous avons raté les alternatives. Les profits les ont en tout cas fermé. Et le «pillage » a continué. L’épine dorsale d’internet est toujours la propriété de quelques entreprises qui pour beaucoup sont alors aussi devenues fournisseurs d’accès. La concentration de pouvoir prévaut à tous les niveaux, à l’image des principales entreprises qui organisent et possèdent l’information qui passent dans les réseaux. Google, Netflix, Facebook, Microsoft, Apple et Amazon comptent pour la moitié du trafic internet. La privatisation nous a promis un meilleur service, un accès plus large, un meilleur internet. Pourtant, le constat est inverse. Les Américains payent un accès internet parmi les plus chers du monde et le moins bon. Quant à ceux qui sont trop pauvres ou trop éloignés du réseau, ils continuent à en être exclus. En 2018, la moitié des Américains n’avaient pas accès à un internet à haut débit. Et cette déconnexion est encore plus forte si en plus d’habiter loin des villes vous avez peu de revenus. Aux États-Unis, l’accès au réseau demeure un luxe.
Mais l’internet privé n’est pas seulement inéquitable, il est surtout non-démocratique. Les utilisateurs n’ont pas participé et ne participent toujours pas aux choix de déploiements techniques que font les entreprises pour eux, comme nous l’ont montré, très récemment, les faux débats sur la 5G. « Les marchés ne vous donnent pas ce dont vous avez besoin, ils vous donnent ce que vous pouvez vous offrir ». « Le profit reste le principe qui détermine comment la connectivité est distribuée ».
Pourtant, insiste Tarnoff, des alternatives existent aux monopoles des fournisseurs d’accès. En 1935, à Chattanooga, dans le Tennessee, la ville a décidé d’être propriétaire de son système de distribution d’électricité, l’Electric Power Board. En 2010, elle a lancé une offre d’accès à haut débit, The Gig, qui est la plus rapide et la moins chère des États-Unis, et qui propose un accès même à ceux qui n’en ont pas les moyens. C’est le réseau haut débit municipal le plus célèbre des États-Unis. Ce n’est pas le seul. Quelque 900 coopératives à travers les États-Unis proposent des accès au réseau. Non seulement elles proposent de meilleurs services à petits prix, mais surtout, elles sont participatives, contrôlées par leurs membres qui en sont aussi les utilisateurs. Toutes privilégient le bien social plutôt que le profit. Elles n’ont pas pour but d’enrichir les opérateurs. À Detroit, ville particulièrement pauvre et majoritairement noire, la connexion a longtemps été désastreuse. Depuis 2016, le Detroit Community Technology Project (DCTP) a lancé un réseau sans fil pour bénéficier aux plus démunis. Non seulement la communauté possède l’infrastructure, mais elle participe également à sa maintenance et à son évolution. DCTP investit des habitants en « digital stewards » chargés de maintenir le réseau, d’éduquer à son usage, mais également de favoriser la connectivité des gens entre eux, assumant par là une fonction politique à la manière de Community organizers.
Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisé ne propose rien pour changer l’internet, ni pour changer sa propriété, ni son organisation, ni la manière dont on en fait l’expérience. Or, ces expériences de réseaux locaux municipaux défient la fable de la privatisation. Elles nous montrent qu’un autre internet est possible, mais surtout que l’expérience même d’internet n’a pas à être nécessairement privée. La privatisation ne décrit pas seulement un processus économique ou politique, mais également un processus social qui nécessite des consommateurs passifs et isolés les uns des autres. À Detroit comme à Chattanooga, les utilisateurs sont aussi des participants actifs à la croissance, à la maintenance, à la gouvernance de l’infrastructure. Tarnoff rappelle néanmoins que ces réseaux municipaux ont été particulièrement combattus par les industries du numériques et les fournisseurs d’accès. Mais contrairement à ce que nous racontent les grands opérateurs de réseaux, il y a des alternatives. Le problème est qu’elles ne sont pas suffisamment défendues, étendues, approfondies… Pour autant, ces alternatives ne sont pas magiques. « La décentralisation ne signifie pas automatiquement démocratisation : elle peut servir aussi à concentrer le pouvoir plus qu’à le distribuer ». Internet reste un réseau de réseau et les nœuds d’interconnections sont les points difficiles d’une telle topographie. Pour assurer l’interconnexion, il est nécessaire également de « déprivatiser » l’épine dorsale des interconnexions de réseaux, qui devrait être gérée par une agence fédérale ou une fédération de coopératives. Cela peut sembler encore utopique, mais si l’internet n’est déprivatisé qu’à un endroit, cela ne suffira pas, car cela risque de créer des zones isolées, marginales et surtout qui peuvent être facilement renversées – ce qui n’est pas sans rappeler le délitement des initiatives de réseau internet sans fil communautaire, comme Paris sans fil, mangés par la concurrence privée et la commodité de service qu’elle proposent que nous évoquions à la fin de cet article.
Dans les années 90, quand la privatisation s’est installée, nous avons manqué de propositions, d’un mouvement en défense d’un internet démocratique, estime Tarnoff. Nous aurions pu avoir, « une voie publique sur les autoroutes de l’information ». Cela n’a pas été le cas.
Désormais, pour déprivatiser les tuyaux (si je ne me trompe pas, Tarnoff n’utilise jamais le terme de nationalisation, un concept peut-être trop loin pour le contexte américain), il faut résoudre plusieurs problèmes. L’argent, toujours. Les cartels du haut débit reçoivent de fortes injections d’argent public notamment pour étendre l’accès, mais sans rien vraiment produire pour y remédier. Nous donnons donc de l’argent à des entreprises qui sont responsables de la crise de la connectivité pour la résoudre ! Pour Tarnoff, nous devrions surtout rediriger les aides publiques vers des réseaux alternatifs, améliorer les standards d’accès, de vitesse, de fiabilité. Nous devrions également nous assurer que les réseaux publics locaux fassent du respect de la vie privée une priorité, comme l’a fait à son époque la poste, en refusant d’ouvrir les courriers ! Mais, si les lois et les régulations sont utiles, « le meilleur moyen de garantir que les institutions publiques servent les gens, est de favoriser la présence de ces gens à l’intérieur de ces institutions ». Nous devons aller vers des structures de gouvernances inclusives et expansives, comme le défendent Andrew Cumbers et Thomas Hanna dans « Constructing the Democratic Public Entreprise »(.pdf) (à prolonger par le rapport Democratic Digital Infrastructure qu’a publié Democracy Collaborative, le laboratoire de recherche et développement sur la démocratisation de l’économie).
Coincés dans les plateformesLes années 90 sont les années du web. En 1995, l’internet ne ressemble plus tout à fait à un réseau de recherche. Avec 45 millions d’utilisateurs et 23 500 sites web, l’internet commence à se transformer. Chez Microsoft, Bill Gates annonce qu’internet sera leur priorité numéro un. Jeff Bezos lance Amazon. Pierre Omidyar AuctionWeb, qui deviendra eBay. C’est le début des grandes entreprises de l’internet, de celles qui deviendront des « plateformes », un terme qui mystifie plus qu’il n’éclaircit, qui permet de projeter sur la souveraineté qu’elles conquièrent une aura d’ouverture et de neutralité, quand elles ne font qu’ordonner et régir nos espaces digitaux. Si la privatisation d’internet a commencé par les fondements, les tuyaux, au mitan des années 90, cette phase est terminée. « La prochaine étape consistera à maximiser les profits dans les étages supérieurs, dans la couche applicative, là où les utilisateurs utilisent l’internet ». C’est le début de la bulle internet jusqu’à son implosion.
eBay a survécu au crash des années 2000 parce qu’elle était l’une des rares exceptions aux startups d’alors. eBay avait un business model et est devenu très rapidement profitable. eBay a aussi ouvert un modèle : l’entreprise n’a pas seulement offert un espace à l’activité de ses utilisateurs, son espace a été constitué par eux, en les impliquant dans son développement, selon les principes de ce qu’on appellera ensuite le web 2.0. La valeur technique de l’internet a toujours été ailleurs. Sociale plus que technique, estime Tarnoff (pour ma part, je pense que ce n’est pas si clair, l’industrialisation inédite qui s’est construite avec le numérique, n’est pas uniquement sociale, elle me semble surtout économique et politique).
En 1971, quand Ray Tomlinson invente le mail, celui-ci devient très rapidement très populaire et représente très vite l’essentiel du trafic du premier réseau. L’e-mail a humanisé le réseau. Les échanges avec les autres sont rapidement devenu l’attraction principale. Avec eBay, Omidyar va réussir à refondre sa communauté en marché. Le succès des plateformes du web 2.0 va consister à «fusionner les relations sociales aux relations de marché », par trois leviers : la position d’intermédiaire (entre acheteurs et vendeurs), la souveraineté (la plateforme façonne les interactions, écrits les règles, fonctionne comme un législateur et un architecte) et bien sûr les effets réseaux (plus les gens utilisent, plus l’espace prend de la valeur). La couche applicative de l’internet va ainsi se transformer en vastes centres commerciaux : des environnements clos, qui vont tirer leurs revenus à la fois de la rente que procurent ces espaces pour ceux qui veulent en bénéficier et de la revente de données le plus souvent sous forme publicitaire (mais pas seulement). La collecte et l’analyse de données vont d’ailleurs très vite devenir la fonction primaire de ces « centres commerciaux en ligne ». « La donnée a propulsé la réorganisation de l’internet », à l’image de Google qui l’a utilisé pour améliorer son moteur, puis pour vendre de la publicité, lui permettant de devenir, dès 2002, profitable. C’est la logique même du Capitalisme de surveillance de Shoshana Zuboff. Une logique qui préexistait aux entreprises de l’internet, comme le raconte le pionnier des études sur la surveillance, Oscar H. Gandy, dans ses études sur les médias de masse, les banques ou les compagnies d’assurances, mais qui va, avec la circulation des données, élargir la surface de sa surveillance.
Malgré toutes ses faiblesses (vous atteignez surtout les catégories produites par les systèmes que la réalité des gens, c’est-à-dire la manière dont le système caractérise les usagers, même si ces caractères se révèlent souvent faux parce que calculés), la surveillance des utilisateurs pour leur livrer de la publicité ciblée va construire les principaux empires des Gafams que nous connaissons encore aujourd’hui. Si la publicité joue un rôle essentiel dans la privatisation, les «Empires élastiques » des Gafams, comme les appels Tarnoff, ne vont pas seulement utiliser l’analyse de données pour vendre des biens et de la publicité, ils vont aussi l’utiliser pour créer des places de marché pour les moyens de production, c’est-à-dire produire du logiciel pour l’internet commercial.
« Quand le capitalisme transforme quelque chose, il tend à ajouter plus de machinerie », rappelle Tarnoff avec les accents de Pièces et Main d’œuvre. Avec les applications, les pages internet sont devenues plus dynamiques et complexes, « conçues pour saisir l’attention des utilisateurs, stimuler leur engagement, liées pour élaborer des systèmes souterrains de collecte et d’analyse des données ». « Les centres commerciaux en ligne sont devenus les lieux d’un calcul intensif. Comme le capitalisme a transformé l’atelier en usine, la transformation capitaliste d’internet a produit ses propres usines », qu’on désigne sous le terme de cloud, pour mieux obscurcir leur caractère profondément industriel. Ces ordinateurs utilisés par d’autres ordinateurs, rappellent l’enjeu des origines du réseau : étendre le calcul et les capacités de calcul. Tarnoff raconte ainsi la naissance, dès 2004, de l’Elastic Compute Cloud (EC2) d’Amazon par Chris Pinkham et Christopher Brown, partis en Afrique du Sud pour rationaliser les entrailles numériques de la machine Amazon qui commençait à souffrir des limites de l’accumulation de ses couches logicielles. EC2 lancé en 2006 (devenu depuis Amazon Web Services, AWS, l’offre d’informatique en nuage), va permettre de vendre des capacités informatiques et d’analyse mesurées et adaptables. Le cloud d’Amazon va permettre d’apporter un ensemble d’outils à l’industrialisation numérique, de pousser plus loin encore la privatisation. Le Big Data puis les avancées de l’apprentissage automatisé (l’intelligence artificielle) dans les années 2010 vont continuer ces accélérations industrielles. La collecte et le traitement des données vont devenir partout un impératif.
Dans le même temps, les utilisateurs ont conquis un internet devenu mobile. L’ordinateur devenant smartphone n’est plus seulement la machine à tout faire, c’est la machine qui est désormais partout, s’intégrant non seulement en ligne, mais jusqu’à nos espaces physiques, déployant un contrôle logiciel jusque dans nos vies réelles, à l’image d’Uber et de son management algorithmique. L’industrialisation numérique s’est ainsi étendue jusqu’à la coordination des forces de travail, dont la profitabilité a été accrue par la libéralisation du marché du travail. La contractualisation des travailleurs n’a été qu’une brèche supplémentaire dans la gestion algorithmique introduite par le déploiement sans fin de l’industrie numérique, permettant désormais de gérer les tensions sur les marchés du travail, localement comme globalement. La force de travail est elle-même gérée en nuage, à la demande. Nous voilà dans le Human Cloud que décrit Gavin Mueller dans Breaking things at Work ou David Weil dans The Fissured Workplace.
Coincés dans les profits !Les biens réelles abstractions de ces empires élastiques ont enfin été rendues possibles par la financiarisation sans précédent de cette nouvelle industrie. Tout l’enjeu de la privatisation d’internet, à tous les niveaux de la pile, demeure le profit, répète Tarnoff. La financiarisation de l’économie depuis les années 70 a elle aussi profité de cette industrialisation numérique… Reste que la maximisation des profits des empires élastiques semble ne plus suffire. Désormais, les entreprises de la tech sont devenues des véhicules pour la pure spéculation. La tech est l’un des rares centres de profit qui demeure dans des économies largement en berne. La tech est désormais le dernier archipel de super-profit dans un océan de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmé la motivation du profit dans tous les recoins du réseau. De Comcast (fournisseur d’accès), à Facebook jusqu’à Uber, l’objectif est resté de faire de l’argent, même si cela se fait de manière très différente, ce qui implique des conséquences sociales très différentes également. Les fournisseurs d’accès vendent des accès à l’internet, au bénéfice des investisseurs et au détriment des infrastructures et de l’égalité d’accès. Dans les centres commerciaux en ligne comme Facebook, on vend la monétisation de l’activité des utilisateurs ainsi que l’appareillage techno-politique qui va avec… Dans Uber ou les plateformes du digital labor, on vend le travail lui-même au moins disant découpé en microtranches et micro-tâches… Mais tous ces éléments n’auraient pas été possibles hors d’internet. C’est la promesse d’innovation technologique qui persuade les autorités de permettre à ces entreprises à déroger aux règles communes, qui persuade les investisseurs qu’ils vont réaliser une martingale mirifique. Mais dans le fond, toutes restent des machines non démocratiques et des machines à produire des inégalités. Toutes redistribuent les risques de la même façon : « ils les poussent vers le bas, vers les plus faibles » (les utilisateurs comme les travailleurs) « et les répandent autour d’eux. Ils tirent les récompenses vers le haut et les concentrent en de moins en moins de mains ».
Pourtant, rappelle Tarnoff, l’action collective a été le meilleur moyen pour réduire les risques, à l’image des régulations qu’ont obtenues dans le passé les chauffeurs de taxis… jusqu’à ce qu’Uber paupérise tout le monde. L’existence des chauffeurs est devenue plus précaire à mesure que la valorisation de l’entreprise s’est envolée. Le risque à terme est que la machine néolibérale programmée jusqu’au cœur même des systèmes, ubérise tout ce qui reste à ubériser, de l’agriculture à la santé, des services public à l’école jusqu’au développement logiciel lui-même.
Pourtant, les centres commerciaux en ligne sont très gourmands en travail. Tous ont recours à une vaste force de travail invisible pour développer leurs logiciels, les maintenir, opérer les centres de données, labéliser les données… La sociologue Tressie McMillan Cottom parle d’« inclusion prédatrice » pour qualifier la dynamique de l’économie politique d’internet. C’est une logique, une organisation et une technique qui consiste à inclure les marginalisés selon des logiques extractives. C’est ce que montrait Safiya Umoja Noble dans Algorithms of oppression : les « filles noires » que l’on trouve dans une requête sur Google sont celles des sites pornos, les propositions publicitaires qui vous sont faites ne sont pas les mêmes selon votre niveau de revenu ou votre couleur de peau. Les plus exclus sont inclus, mais à la condition qu’ils absorbent les risques et renoncent aux moindres récompenses. L’oppression et les discriminations des espaces en ligne sont désormais le fait d’une boucle de rétroaction algorithmique qui ressasse nos stéréotypes pour ne plus s’en extraire, enfermant chacun dans les catégories que spécifie la machine. Nous sommes désormais pris dans une intrication, un enchevêtrement d’effets, d’amplification, de polarisation, dont nous ne savons plus comment sortir.
Les inégalités restent cependant inséparables de la poursuite du profit pour le profit. La tech est devenue l’équivalent de l’industrie du Téflon. Pour l’instant, les critiques sont mises en quarantaine, limitées au monde de la recherche, à quelques activistes, à quelques médias indépendants. Le techlash a bien entrouvert combien la tech n’avait pas beaucoup de morale, ça n’empêche pas les scandales des brèches de données de succéder aux scandales des traitements iniques. Réformer l’internet pour l’instant consiste d’un côté à écrire de nouvelles réglementations pour limiter le pouvoir de ces monopoles. C’est le propos des New Brandeisians (faisant référence à l’avocat américain Louis Brandeis, grand réformateur américain) qui veulent rendre les marchés plus compétitifs en réduisant les monopoles des Gafams. Ces faiseurs de lois ont raison : les centres commerciaux en ligne ne sont pas assez régulés ! Reste qu’ils souhaitent toujours un internet régi par le marché, plus compétitif que concentré. Pourtant, comme le souligne Nick Srnicek, l’auteur de Capitalisme de plateforme, c’est la compétition, plus que la taille, qui nécessite toujours plus de données, de traitements, de profits…
Pour Tarnoff, il y a une autre stratégie : la déprivatisation. « Que les marchés soient plus régulés ou plus compétitifs ne touchera pas le problème le plus profond qui est le marché lui-même. Les centres commerciaux en ligne sont conçus pour faire du profit et faire du profit est ce qui construit des machines à inégalités ».« L’exploitation des travailleurs à la tâche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrême-droite… aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. » Certes, on peut chercher à atténuer ces effets… Mais le risque est que nous soyons en train de faire comme nous l’avons fait avec l’industrie fossile, où les producteurs de charbon se mettent à la capture du CO2 plutôt que d’arrêter d’en brûler ! Pour Tarnoff, seule la déprivatisation ouvre la porte à un autre internet, tout comme les mouvements abolitionnistes et pour les droits civiques ont changé la donne en adressant finalement le coeur du problème et pas seulement ses effets (comme aujourd’hui, les mouvements pour l’abolition de la police ou de la prison).
Mais cette déprivatisation, pour l’instant, nous ne savons même pas à quoi elle ressemble. Nous commençons à savoir ce qu’il advient après la fermeture des centres commerciaux (les Etats-Unis en ont fermé beaucoup) : ils sont envahis par les oiseaux et les mauvaises herbes ! Sur l’internet, bien souvent, les noms de domaines abandonnés sont valorisés par des usines à spam ! Si nous savons que les réseaux communautaires peuvent supplanter les réseaux privés en bas de couche technologique, nous avons peu d’expérience des alternatives qui peuvent se construire en haut des couches réseaux.
Nous avons besoin d’expérimenter l’alternet !Nous avons besoin d’expérimenter. L’enjeu, n’est pas de remplacer chaque centre commercial en ligne par son équivalent déprivatisé, comme de remplacer FB ou Twitter par leur clone placé sous contrôle public ou coopératif et attendre des résultats différents. Cela nécessite aussi des architectures différentes. Cela nécessite d’assembler des constellations de stratégies et d’institutions alternatives, comme le dit Angela Davis quand elle s’oppose à la prison et à la police. Pour Tarnoff, nous avons besoin de construire une constellation d’alternatives. Nous devons arrêter de croire que la technologie doit être apportée aux gens, plutôt que quelque chose que nous devons faire ensemble.
Comme le dit Ethan Zuckerman dans sa vibrante défense d’infrastructures publiques numériques, ces alternatives doivent être plurielles dans leurs formes comme dans leurs buts, comme nous avons des salles de sports, des bibliothèques ou des églises pour construire l’espace public dans sa diversité. Nous avons besoin d’une décentralisation, non seulement pour combattre la concentration, mais aussi pour élargir la diversité et plus encore pour rendre possible d’innombrables niveaux de participation et donc d’innombrables degrés de démocratie. Comme Zuckerman ou Michael Kwet qui milite pour un « socialisme numérique » avant lui, Tarnoff évoque les logiciels libres, open source, les instances distribuées, l’interopérabilité…, comme autant de leviers à cet alternumérisme. Il évoque aussi une programmation publique, un cloud public comme nous avons finalement des médias publics ou des bibliothèques. On pourrait même imaginer, à défaut de construire des capacités souveraines, d’exiger d’Amazon de donner une portion de ses capacités de traitements, à défaut de les nationaliser. Nous avons besoin d’un secteur déprivatisé plus gros, plus fort, plus puissant.
C’est oublier pourtant que ces idées (nationaliser l’internet ou Google hier, AWS demain…) ont déjà été émises et oubliées. Déconsidérées en tout cas. Tarnoff oublie un peu de se demander pourquoi elles n’ont pas été mises en œuvre, pourquoi elles n’ont pas accroché. Qu’est-ce qui manque au changement pour qu’il ait lieu ?, semble la question rarement posée. Pour ma part, pourtant, il me semble que ce qui a fait la différence entre l’essor phénoménal de l’internet marchand et la marginalité des alternatives, c’est assurément l’argent. Même si on peut se réjouir de la naissance de quelques coopératives, à l’image de Up&Go, CoopCycle ou nombre de plateformes coopératives, les niveaux d’investissements des uns ne sont pas les niveaux d’investissements des autres. Le recul des politiques publiques à investir dans des infrastructures publiques, on le voit, tient bien plus d’une déprise que d’une renaissance. Bien sûr, on peut, avec lui, espérer que les données soient gérées collectivement, par ceux qui les produisent. Qu’elles demeurent au plus près des usagers et de ceux qui les coproduisent avec eux, comme le prônent les principes du féminisme de données et que défendent nombre de collectifs politisés (à l’image d’InterHop), s’opposant à une fluidification des données sans limites où l’ouverture sert bien trop ceux qui ont les moyens d’en tirer parti, et plus encore, profite à ceux qui veulent les exploiter pour y puiser de nouveaux gains d’efficacité dans des systèmes produits pour aller à l’encontre des gens. Pour démocratiser la conception et le développement des technologies, il faut créer des processus participatifs puissants, embarqués et embarquants. « Rien pour nous sans nous », disent les associations de handicapés, reprises par le mouvement du Design Justice.
« Écrire un nouveau logiciel est relativement simple. Créer des alternatives soutenables et capables de passer à l’échelle est bien plus difficile », conclut Tarnoff. L’histoire nous apprend que les Télécoms ont mené d’intenses campagnes pour limiter le pouvoir des réseaux communautaires, comme le pointait à son tour Cory Doctorow, en soulignant que, du recul de la neutralité du net à l’interdiction des réseaux haut débit municipaux aux US (oui, tous les Etats ne les autorisent pas, du fait de l’intense lobbying des fournisseurs d’accès privés !), les oppositions comme les régulateurs trop faibles se font dévorer par les marchés ! Et il y a fort à parier que les grands acteurs de l’internet mènent le même type de campagne à l’encontre de tout ce qui pourra les déstabiliser demain. Mais ne nous y trompons pas, souligne Tarnoff, l’offensive à venir n’est pas technique, elle est politique !
« Pour reconstruire l’internet, nous allons devoir reconstruire tout le reste ». Et de rappeler que les Luddites n’ont pas tant chercher à mener un combat d’arrière garde que d’utiliser leurs valeurs pour construire une modernité différente. Le fait qu’ils n’y soient pas parvenus doit nous inquiéter. La déprivatisation à venir doit être tout aussi inventive que l’a été la privatisation à laquelle nous avons assisté. Nous avons besoin d’un monde où les marchés comptent moins, sont moins présents qu’ils ne sont… Et ils sont certainement encore plus pesants et plus puissants avec le net que sans !
***
Tarnoff nous invite à nous défaire de la privatisation comme d’une solution alors qu’elle tient du principal problème auquel nous sommes confrontés. Derrière toute privatisation, il y a bien une priva(tisa)tion, quelque chose qui nous est enlevé, dont l’accès et l’enjeu nous est soufflé, retranché, dénié. Derrière l’industrialisation numérique, il y a une privatisation massive rappelions-nous il y a peu. Dans le numérique public même, aux mains des cabinets de conseils, l’État est plus minimal que jamais ! Même aux États-Unis, où l’État est encore plus croupion, les grandes agences vendent l’internet public à des services privés qui renforcent l’automatisation des inégalités.
Malgré la qualité de la synthèse que livre Ben Tarnoff dans son essai, nous semblons au final tourner en rond. Sans investissements massifs et orientés vers le bien public plutôt que le profit, sans projets radicaux et leurs constellations d’alternatives, nous ne construirons ni l’internet de demain, ni un monde, et encore moins un monde capable d’affronter les ravages climatiques et les dissolutions sociales à venir. L’enjeu désormais semble bien plus de parvenir à récupérer les milliards accaparés par quelques-uns qu’autre chose ! Si nous avons certes besoin de constellations d’alternatives, il nous faut aussi saisir que ces constellations d’alternatives en sont rarement, en tout cas, que beaucoup ne sont que des projets politiques libéraux et qu’elles obscurcissent la nécessité d’alternatives qui le soient. Le secteur marchand produit nombre d’alternatives mais qui demeurent pour l’essentiel des formes de marchandisation, sans s’en extraire, à l’image de son instrumentation de la tech for good, qui conduit finalement à paupériser et vider de son sens la solidarité elle-même. Comme il le dit dans une interview pour The Verge, nous avons besoin de politiques et de mobilisations sur les enjeux numériques, pas seulement d’alternatives, au risque qu’elles n’en soient pas vraiment ! La constellation d’alternatives peut vite tourner au techwashing.
Il manque à l’essai de Ben Tarnoff quelques lignes sur comment réaliser une nécessaire désindustrialisation du numérique (est-elle possible et comment ?), sur la nécessité d’une définanciarisation, d’une démarchandisation, d’une déséconomisation, voire d’un définancement de la tech, et donc pointer la nécessité d’autres modèles, comme l’investissement démocratique qu’explorait récemment Michael McCarthy dans Noema Mag. Et même ce changement d’orientation de nos investissements risque d’être difficile, les moyens d’influence et de lobbying des uns n’étant pas au niveau de ceux des autres, comme s’en désolent les associations de défense des droits américaines. C’est-à-dire, comme nous y invitait dans la conclusion de son dernier livre le sociologue Denis Colombi, Pourquoi sommes-nous capitalistes (malgré nous) ?, à comment rebrancher nos choix d’investissements non pas sur la base des profits financiers qu’ils génèrent, mais sur ce qu’ils produisent pour la collectivité. C’est un sujet que les spécialistes de la tech ne maîtrisent pas, certes. Mais tant qu’on demandera à la tech de produire les meilleurs rendements du marché pour les actionnaires (15% à minima !), elle restera le bras armé du capital. Pour reconstruire l’internet, il faut commencer par reconstruire tout le reste !
Hubert Guillaud
A propos du livre de Ben Tarnoff, Internet for the people, the fight for our digital future, Verso, 2022. Cet article est paru originellement en deux partie en juin 2022 sur le site Le vent se lève.
-
13:50
Mappery: Scrambled Maps in the Wild
sur Planet OSGeoA little bit of fun for you. We have teamed up with our friends at TripGeo who make a whole load of fun map and travel related games including my favourite Scrambled Maps (Warning – you may get hooked) to create a new puzzle for you Scrambled Maps in the Wild. We have started with 7 puzzles and plan to add more if people like them and want more, so do let us know what you think
-
11:55
gvSIG Team: Geoportal y Semana Santa: Planificación y seguridad con información geográfica actualizada
sur Planet OSGeoLa Semana Santa no solo es una de las celebraciones más emblemáticas del calendario, sino también un gran reto organizativo para los municipios. En este contexto, la colaboración entre el Ayuntamiento de Albacete, la Policía Local y la Junta de Cofradías ha permitido desarrollar itinerarios seguros para los desfiles procesionales, utilizando como herramienta clave la Infraestructura de Datos Espaciales, basada en tecnología gvSIG Online.
Gracias a esta plataforma, que ofrece información geográfica completa y constantemente actualizada, se ha podido planificar con antelación los servicios de emergencia, diseñar recorridos accesibles y seguros, y coordinar los distintos servicios municipales involucrados en la gestión de estos eventos multitudinarios.
Se ha publicado la información de las distintas procesiones de Semana Santa en el Geoportal de la Policía Local, accesible desde la web del Ayuntamiento y de la IDE de Albacete. La plataforma de gestión de información geográfica de Albacete no solo facilita el acceso a mapas, catálogos y servicios de visualización, sino que se ha convertido en una herramienta indispensable para el diseño de proyectos y la planificación urbana. Según ha destacado Francisco Navarro, teniente de alcalde y concejal de Movilidad, “el Geoportal es un servicio esencial y fundamental que permite conocer la ciudad centímetro a centímetro y nos ayuda en la planificación urbana”.
La Unidad de Cartografía, Topografía y Geomática del Ayuntamiento ha sido la encargada de elaborar y mantener la cartografía y la información espacial que alimenta esta plataforma. La información se organiza y visualiza en distintos visores temáticos, como el Visualizador de la Policía Local, desde donde se gestiona todo lo relativo a los recorridos procesionales de Semana Santa. Tras la creación de la estructura en la geodatabase por parte del equipo de Topografía, es la Policía Local quien se encarga de mantener actualizados los recorridos, fechas y detalles.
Además, la IDE de Albacete ofrece a los ciudadanos otras funcionalidades destacadas como el Visor de Urbanismo (Plan General de Ordenación Urbana), el Visor Cartográfico (con cartografía histórica y límites administrativos), el Visor del Cementerio (para localizar sepulturas) o el Visor Feria, que permite gestionar la ocupación de espacios durante grandes eventos.
Esta experiencia demuestra una vez más el valor de las plataformas basadas en tecnología gvSIG Online para la gestión municipal, la mejora de la eficiencia de los servicios públicos y la implicación de diferentes actores en la toma de decisiones a través de la geoinformación.
La prensa dice:
-
11:00
Mappery: Welcome to Bendigo
sur Planet OSGeoAndrew Tyrrell could have said “Here is one I made before” (readers of a certain age will get the cultural reference) but he was a bit more loquacious and said “Driving to #Queenstown to run my first half marathon tomorrow, and stopped off along Lake Cromwell to admire one of my #MapsInTheWild. I made this in my day job, and there’s one for each of the freedom camping sites managed by Toit? Te Whenua.”
Nice one, Andrew!
-
9:56
Incident en cours sur la majorité des services GPF
sur Toute l’actualité des Geoservices de l'IGNIncident en cours sur la majorité des services GPF
-
9:56
Incident en cours sur la majorité des services GPF (résolu)
sur Toute l’actualité des Geoservices de l'IGNIncident en cours sur la majorité des services GPF (résolu)
-
9:05
Hyperlocal Social Media
sur Google Maps ManiaEver wondered what people might say if conversations were pinned to real places - like digital graffiti on a map? That’s exactly the experiment Pintalk is trying out.Created as a minimalist web app, Pintalk invites you to talk where you are - or more accurately, to start or join public text conversations anchored to specific latitude/longitude points. Think of it like a chatroom stapled to a
-
4:46
Données sur la localisation et l’accès de la population aux équipements (BPE)
sur Cartographies numériquesDescription des données
L'Insee met à disposition de nouvelles données sur la localisation et l'accès de la population aux équipements, accessibles librement sur data.gouv.fr. Ce jeu de données permet de s’intéresser aux temps d’accès aux équipements, en utilisant comme source principale la base permanente des équipements (BPE). Il fournit, pour chaque carreau de 200 mètres de côté, sa population (issue du dispositif Filosofi) ainsi que la distance et la durée par la route le séparant de son équipement le plus proche, pour chaque type d’équipement de la BPE. Il s’appuie sur le distancier Metric-OSRM, qui permet des calculs de trajets routiers en voiture optimaux, de point à point, avec une grande rapidité d’exécution.
Les données sont mises à jour à chaque nouveau millésime de la BPE. La description complète du jeu de données figure dans la note méthodologique à télécharger. Les bases sont au format parquet, partitionnées selon la région (variable reg). Un exemple de code R montre comment les exploiter à l’aide du package {duckdb}. Dans les publications où elles sont utilisées, il est demandé de citer les sources des données comme suit : "Sources : Insee, base permanente des équipements, distancier Metric-OSRM, © les contributeurs d’OpenStreetMap et du projet OSRM"
Pistes d'utilisation
C'est sur ces données notamment que s'appuie le zonage en bassins de vie, qui constitue un découpage utile pour la compréhension de phénomènes touchant aux territoires ruraux. Les bassins de vie, qu'ils soient urbains ou ruraux, reposent au départ sur la densité de population et sur leur degré d'attractivité en termes d'emplois par rapport aux grandes aires d'attractions urbaine. Au-delà des différences de morphologie, le degré de densité des bassins de vie va de pair avec la diversité des équipements qu’ils offrent. Si les bassins de vie, quel que soit leur degré de densité, disposent de la quasi-totalité des types d’équipement de la gamme de proximité (commerces de bouche, école, bibliothèque, artisans, médecin généraliste, pharmacie, poste, coiffeur, etc.), des écarts un peu plus prononcés les distinguent pour la gamme intermédiaire. En effet, les bassins de vie urbains, denses ou de densité intermédiaire, comportent en moyenne respectivement 35 et 32 types d’équipement de cette gamme sur les 35 qu’elle comporte, contre 28 dans les bassins de vie ruraux. Mais c’est surtout sur les équipements de la gamme supérieure (lycée, hypermarché, gare, médecins spécialistes, établissements de santé, cinéma, etc.) que les écarts entre bassins de vie se creusent : en moyenne, les bassins de vie urbains denses disposent de 45 types d’équipement sur les 47 de cette gamme quand les bassins urbains de densité intermédiaire en proposent 27 et les bassins ruraux seulement 15. Les données issues de la BPE croisées avec les données de répartition de la population permettent de produire des cartes d'accessibilité aux équipements en fonction de leur niveau et de leur distance-temps.
David Lévy, Virginie Mora, Simon Prusse (2023). Le nouveau zonage en bassins de vie 2022 : 1 700 bassins de vie façonnent le territoire national, Insee.
Une autre piste intéressante d'utilisation des données de la BPE est la possibilité de calculer un indicateur de concentration des équipements de proximité dans un rayon donné, afin d'identifier les centralités. Henry Ciesielski propose une carte des zones regroupant au moins 50 commerces et services de proximité dans un rayon de 500 mètres (à télécharger en kmz sur Google Maps). Cette carte fait ressortir les principales centralités urbaines à l'échelle de la France.
Couche géographique représentant les zones comprenant au moins 50 commerces, services de proximité et restaurants dans un rayon de 500 mètres à partir de la base permanente des équipements de 2021 (data.gouv.fr/)
D'autres types d'utilisation de la Base permanente des équipements (BPE) sont à découvrir sur le site Data.gouv.fr : proximité des services de première nécessité, calcul de zone de chalandise, mesure de l'efficacité du programme "Action Coeur de Ville" pour les commerces de proximité, temps d'accès à la grande gare la plus proche de chez soi, proximité des salles de théâtre...
Le site Koumoul propose une carte de la BPE avec la typologie des différents types d'équipements à l'échelle de la France (services aux particuliers, commerces, enseignement, santé et action scoiale, transports et déplacements, sports loisirs et cultures, tourisme).
Articles connexes
Cartes et données sur les « déserts médicaux » en France
Typologie communale de l'accessibilité aux soins de premier recours en France (IRDES)
Étude sur la diversité des ruralités (ANCT - Observatoire des territoires)
L'Insee propose un nouveau gradient de la ruralité
Cartographier les espaces ruraux en France
L'accès aux services publics dans les territoires ruraux : éléments de débat à partir d'un rapport de la Cour des Comptes
L'INSEE propose une nouvelle typologie des aires urbaines en fonction de leur niveau d’attraction
Intérêt et limites du zonage en aires urbaines
Cartographie des bassins urbains et ruraux à l'échelle mondiale (URCA - FAO)
-
21:33
Pas à pas - Prendre en main le mode Express d'ArcGIS Experience Builder
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierDepuis les premiers numéros du magazine SIGMAG, arcOrama collabore chaque trimestre à la rédaction d'un article didactique focalisé sur une fonctionnalité ou une application clé du système ArcGIS. Je reprends ci-dessous l'article publié dans le numéro 44 paru en mars 2025. Celui-ci présente, en quelques étapes, comment prendre en main le nouveau mode "Express" disponible dans ArcGIS Experience Builder.
ArcGIS Experience Builder est un concepteur d’applications, disponible avec ArcGIS Online ou ArcGIS Enterprise, qui permet de créer et de diffuser des expériences web sans aucune ligne de code. Depuis récemment, il propose un mode "Express" permettant une prise en main simplifiée, idéal dans le cas où vous souhaitez migrer une application réalisée avec ArcGIS Web AppBuilder. Dans ce pas à pas, je vous propose de découvrir comment fonctionne ce nouveau mode en l’utilisant pour recréer une application Web AppBuilder dans Experience Builder. 1. L’application que nous allons recréer permet aux utilisateurs de consulter les données de l’Annuaire Numérique de Santé de Metz Métropole mises à disposition par Data Grand Est. Dans le bandeau inférieur, plusieurs widgets permettent à l’utilisateur d’explorer les données : une fonctionnalité de zoom/dézoom, une recherche d’adresse, la légende de la carte, un filtre sur la spécialité du professionnel de santé et la possibilité de calculer un itinéraire. Un bouton "information" lui permet également d’en apprendre plus sur l’application. Vous pouvez la consulter ici.
2. Commencez par lancer Experience Builder depuis votre portail. Pour passer en mode Express, vous devez cliquer sur le bouton à bascule en haut à droite de l’interface d’accueil. Vous avez désormais accès aux expériences que vous aurez conçues en mode Express. Toutes les expériences que vous avez déjà créées en mode Complet seront à nouveau accessibles dans l’interface d’accueil si vous rebasculez en mode Complet en utilisant le même bouton. De la même manière qu’avec le mode Complet, cliquez sur "+ Créer" en haut à droite pour accéder à l’interface de conception d’expériences.3. Le mode Express vous fait alors sélectionner un modèle d’application. Les modèles disponibles sont équivalents à ceux proposés dans Web AppBuilder. Vous pouvez consulter les différents modèles avant de choisir celui qui vous convient le plus. Ici, choisissez le modèle "Flèche", correspondant au modèle utilisé dans Web AppBuilder pour l’ancienne application. Une fois le modèle sélectionné, cliquez sur "Créer une nouvelle application".
4. Vous arrivez alors dans l’interface de conception de l’expérience, qui est très épurée dans le mode Express afin de faciliter et d’accélérer la prise en main. Dans le bandeau de gauche, vous pouvez définir le style et les paramètres généraux de l’application, tandis que le bandeau de droite permet de configurer les widgets. Commencez par nommer l’expérience "Annuaire Numérique de Santé - Metz Métropole" en cliquant sur son nom en haut à gauche. Ensuite, en cliquant sur la palette de couleur à gauche, vous allez modifier le thème en cliquant sur "Personnaliser". Modifiez la couleur principale en indiquant le code hexadécimal #629b79 pour correspondre au style utilisé dans l’application initiale.5. Il est temps d’ajouter la carte à l’Expérience. Dans le bandeau de droite, qui est par défaut ouvert sur la configuration du widget "Carte ", cliquez sur "Sélectionner une carte" puis sur "Ajouter de nouvelles données" tout en bas du bandeau. Dans les contenus ArcGIS Online, recherchez "ANS Metz Métropole" , sélectionnez la carte qui apparaît et cliquez sur "Terminé". Cliquez ensuite sur la donnée qui vient de s’ajouter dans l’onglet de sélection des données puis refermez le bandeau. La carte apparaît dans l’expérience. Vous apercevez peut-être quelques différences avec la carte présente dans l’ancienne application, dont notamment l’étiquetage des agrégats permettant à l’utilisateur de savoir combien de professionnels de santé sont disponibles à chaque emplacement en un coup d’œil. Il s’agit bien de la même carte, mais contrairement à Web AppBuilder, Experience Builder se base sur la nouvelle génération de Map Viewer. Cela permet d’afficher les configurations présentes dans cette dernière qui n’existaient pas forcément dans Map Viewer Classic.
6. Vous allez maintenant modifier le titre qui s’affiche dans l’application. Double cliquez sur l’emplacement de titre et inscrivez "Annuaire Numérique de Santé - Metz Métropole". Dans le bandeau à droite, configurez la taille du texte sur 22px, et choisissez une couleur blanche. Vous pouvez ensuite sélectionner le sous-titre et le supprimer avec la touche "Suppr" de votre clavier, car il n’y avait pas de sous-titre dans l’application initiale.
7. Le modèle d’expérience propose des widgets par défaut. Dans la carte, vous retrouverez des outils de recherche et de zoom/dézoom. Nous allons les laisser en place. Notez que si vous le souhaitez, vous pouvez ajouter ou supprimer des outils de la carte en cliquant sur la carte puis en déployant l’onglet "Outils" dans le bandeau de droite.
Dans le bandeau vert, trois widgets supplémentaires sont disponibles : une légende, les couches cartographiques et une bibliothèque de fond de carte. Ces widgets sont inclus dans un contrôleur de widget. Cliquez entre deux des widgets pour accéder à la configuration du contrôleur. Dans le bandeau supérieur, vous voyez apparaître deux icônes. Cliquez sur celui de gauche "Gérer les widgets", puis supprimez Couches cartographique et Bibliothèque de fonds de carte en cliquant sur les croix.
8. Vous allez maintenant ajouter et configurer les widgets manquants pour proposer les mêmes fonctionnalités que l’ancienne application. Cliquez sur le second bouton ayant apparu dans le bandeau supérieur, "Ajouter un widget " et sélectionnez le widget "Feuille de route ". A droite, vous pouvez le configurer en choisissant une source pour le localisateur ainsi qu’un service d’itinéraire. L’option "utiliser la localisation actuelle " permettra à l’utilisateur de se géolocaliser pour renseigner le point de départ ou d’arrivée.
9. De la même manière, ajoutez le widget "Filtrer ". Pour la configuration, cliquez sur "+ Nouveau filtre ". Dans "Sélectionner des données ", sélectionnez la couche de points "Annuaire Numérique de Santé " qui apparaît lorsque vous cliquez sur le "+ " à côté de la carte ANS Metz Métropole. Dans le générateur d’expressions SQL, cliquez sur "+ Ajouter une clause " et choisissez le champ "lib_profession ", puis le test "est" puis « Uniques (prédéfinies) ". Cliquez ensuite sur la roue crantée à droite pour modifier l’étiquette par "Sélectionnez une spécialité " puis cliquez sur "OK ".10. Le dernier widget manquant est le widget "A propos ". Pour le recréer dans Experience Builder, vous pouvez simplement ajouter un widget Texte. Dans la fenêtre qui apparaît sur la carte, double cliquez sur le texte servant d’emplacement et remplacez-le par le texte présent dans l’application d’origine. Ensuite, dans la configuration à droite, modifiez l’icône du widget par le i encerclé et le titre du widget par "A propos ".
11. La configuration est terminée ! Vous pouvez désormais enregistrer, prévisualiser, publier et configurer les paramètres de partage de votre expérience grâce aux boutons présents en haut à droite de l’interface. Le mode Express vous laisse également la possibilité de basculer en mode Complet à tout moment. Cela vous permet, une fois votre expérience créée, d’accéder à l’intégralité des fonctionnalités d’Experience Builder. Vous pourrez ainsi enrichir votre application avec une mise en page très configurable, la capacité à ajouter plusieurs pages et fenêtres, et l’accès à un très grand nombre d’actions permettant de connecter vos données et vos widgets entre eux pour proposer à vos utilisateurs une expérience dynamique et personnalisée.
-
20:32
Atlas de l'absence. Le patrimoine culturel du Cameroun en Allemagne
sur Cartographies numériques
Source : Atlas de l'absence. Le patrimoine culturel du Cameroun en Allemagne (Technische Universität Berlin)Plus de 40 000 objets du Cameroun sont aujourd’hui conservés dans les musées publics de la République fédérale d’Allemagne – la plus grande collection au monde. Depuis la période coloniale allemande (1886-1916), ils sont conservés dans les dépôts des institutions et sont rarement montrés ou mis à disposition dans des publications. Les auteurs retracent pour la première fois cette présence invisible du Cameroun dans les musées allemands. Cela permet également de comprendre ce que signifie l’absence de patrimoine culturel pour le Cameroun.
Le projet
La publication est basée sur le projet « Histoire inversée des collections » financé par la Fondation allemande pour la recherche, sous la direction d'Albert Gouaffo (Université de Dschang) et de Bénédicte Savoy (Technische Universität Berlin). L'ouvrage a été présenté lors de la conférence « Le patrimoine culturel du Cameroun en Allemagne. Constats et perspectives » du 1er au 3 juin 2023, à la Technische Universität Berlin.
Avec les contributions de :
Mikaél Assilkinga, Berlin/Dschang ; Lindiwe Breuer, Berlin ; Fogha Mc Cornilius Refem (alias Wan wo Layir), Potsdam ; Albert Gouaffo, Dschang ; Dieu Ly Hoang, Berlin ; Yann Le Gall, Berlin ; Yrine Matchinda, Dschang ; Andrea Meyer, Berlin ; Prince Kum'a Ndumbe III., Douala ; Philippe Rekacewicz, Arendal/Wageningen ; Bénédicte Savoy, Berlin ; Sébastien-Manès Sprute, Berlin ; Richard Tsogang Fossi, Berlin/Dschang ; Eyke Vonderau, Berlin.
Un atlas absolument à découvrir
Tous les éléments et résultats de l'enquête sont disponibles dans le dépôt ouvert par l'Université technique de Berlin Inventaires et données de recherche. Un livre issu de cette enquête a été publié en juin 2023, il est disponible en papier, mais il est aussi téléchargeable en pdf en accès libre Atlas der Abwesenheit. Kameruns Kulturerbe in Deutschland ou par chapitres sur le site de l'éditeur. Une traduction en français "L'Atlas de l’absence. Le patrimoine culturel du Cameroun en Allemagne" est également disponible.
Pour en savoir plus
« Présence invisible en Allemagne d’un patrimoine absent du Cameroun » (Visionscarto).
« Atlas de l’absence » : une spectaculaire enquête sur le « Cameroun fantôme » en Allemagne (Histoire coloniale). Le site Histoire coloniale revient sur la vision coloniale véhiculée par les musées ethnographiques de l'époque, qui ont longtemps manqué de transparence voire minoré leurs inventaires. Un revirement politique assez récent les a poussés à coopérer avec des chercheur·es externes à leurs institutions, à l’instar du groupe formé entre Dschang et Berlin.
Bénédicte Savoy et Albert Gouaffo, qui ont coordonné l'Atlas, présente les enjeux de cet ouvrage dans le but de rendre visibles ces biens culturels qui ont subi une double invisibilisation, du côté du Cameroun qui en a été séparé pendant plus d'un sicèle et du côté de l'Allemagne où les musées ont peu mis en valeur ces "objets" ou seulement de manière récente. Philippe Rekacewicz propose, sur le site Visionscarto, des cartes rendant compte de ce double processus d'invisibilisation qui a contribué largement à créer un « Cameroun fantôme ».
Articles connexesUne carte pour recenser les objets africains dans les musées du monde
Carte des oeuvres du Louvre exposées en France métropolitaine
La projection Equal Earth, un bon compromis ?
Africapolis, un projet pour cartographier au plus près l'Afrique urbaine
Africartes : toute l’Afrique en cartes et en accès libre sur le site de l'AFD
ArchéOdyssée, une carte interactive de plus de 800 musées et sites archéologiques en France
Un projet de cartographie participative pour cartographier les écoles en Afrique
Le Blanc des cartes. Quand le vide s'éclaire (Atlas Autrement)
-
17:30
Tim Waters: Whoots updates: Some changes, and add new PHP version
sur Planet OSGeoWhoots is a simple tile server proxy for WMS servers. WMS > TMS. So if you have an application that only works with ZYX Google-style tiles and all you have is a WMS server, you can use it to re-route the request.
It was created way back in 2010! Here’s the post announcing it: WhooTS a small wms to tile proxy – WMS in Potlatch
There’s been few recent changes.
- Some validations to the code was added to make it a bit more secure.
- image/png and image/jpeg will now work. Defaults to png. Optionally pass in ?format=image/jpeg for jpeg
- You don’t need to have a map= param in the URL for it to work now.
- Puma server configs added
- new php port of the code
- The server at whoots.mapwarper.net was moved to a shared host and is now running the php version
The code is at [https:]]
-
14:00
Que se cache-t-il derrière l'image Docker officielle de QGIS Server ?
sur GeotribuLes mystères de l'image Docker officielle de QGIS Server
-
11:00
Mappery: Spectacular Highland Hall
sur Planet OSGeoJeff Allen shared htis. No idea what or where the building is but this is spectacular.
A little bit of image search and I discovered that this is Highland Hall on the University of Toronto Scarborough Campus, still spectacular.
-
10:53
Café géo de Paris, mardi 29 avril 2025 : « Littérature et géographie », avec Emmanuelle Loyer et Jean-Louis Tissier
sur Les cafés géographiquesMardi 29 avril 2025, de 19h à 21h, Café de Flore, salle du premier étage, 172 boulevard Saint-Germain, 75006 Paris
La géographie n’hésite plus à explorer les territoires les plus divers, notamment en géographie culturelle. C’est ainsi qu’un regard géographique peut servir de révélateur – sans doute partiel – d’une œuvre littéraire qui interroge l’espace et les lieux.
Pour le démontrer une nouvelle fois, nous avons invité une historienne (Emmanuelle Loyer) et un géographe (Jean-Louis Tissier) qui réfléchiront ensemble aux relations entre la géographie et la littérature à partir du livre L’impitoyable aujourd’hui (Flammarion, 2022) qu’E. Loyer a écrit pendant le « confinement ».
L’historienne de la culture a organisé son essai en trois séquences dans lesquelles la littérature, selon elle, s’est confrontée aux épreuves contemporaines, voire à des « fins du monde ». E. Loyer sait que dans l’histoire-géo le trait d’union est important : l’histoire déroule et tend le fil du temps, mais les événements ont lieu ici et/ou là. Et c’est au Flore, ce 29 avril, que nous évoquerons les dangers que l’anthropocène fait courir à la biodiversité !
-
10:27
The Tariff Busting Map Game
sur Google Maps ManiaIntroduction: The Egg CrisisIn a world where breakfast has become a luxury, an evil empire has imposed crippling tariffs on eggs, sending prices skyrocketing. Omelettes are now a distant memory for the average citizen, and scrambled eggs are a delicacy only the wealthy can afford. But hope is not lost! Rebel forces have uncovered a loophole in the empire's trade barriers - by launching eggs
-
9:00
Lancement de l'expérimentation Récolt'Ô : une avancée pour la récupération des eaux pluviales
sur Makina CorpusLes partenaires du projet Récolt’Ô se sont réunis dans les locaux de Makina Corpus à Toulouse pour lancer officiellement l’expérimentation de cette solution innovante.
-
8:32
Questionnaire Qualité des données géographiques
sur Conseil national de l'information géolocaliséeQuestionnaire Qualité des données géographiques
-
7:00
Il est temps de faire entrer les voix des gens dans le code
sur Dans les algorithmesEn 2022, David Robinson faisait paraître « Voices in the Code ». Depuis, on ne s’étonnera pas qu’il soit devenu responsable de la sureté des systèmes chez OpenAI. « Voices in the Code » est à la fois une enquête passionnante sur la responsabilité des systèmes et une ode à la participation publique, seule à même d’assurer leur gouvernance. Lecture.
Avec Voices in the Code, David G. Robinson signe un livre important pour nous aider à rendre les systèmes responsables. Robinson est l’un des directeurs de l’Apple University, le centre de formation interne d’Apple. Il a surtout été, en 2011, le cofondateur d’Upturn, une association américaine qui promeut l’équité et la justice dans le design, la gouvernance et l’usage des technologies numériques. Voices in the code est un livre qui se concentre sur la gestion d’une question technique et une seule, en descendant dans ses tréfonds, à la manière d’une monographie : celle de l’évolution de l’algorithme d’attribution des greffons de rein aux Etats-Unis. Et cette histoire est riche d’enseignement pour comprendre comment nous devrions gérer les algorithmes les plus essentiels de nos sociétés.
“Plus de technologie signifie d’abord moins de démocratie”De plus en plus de moments décisifs de nos vies sont décidés par des algorithmes : attribution de places dans l’enseignement supérieur, obtention de crédit bancaire, emploi, emprisonnement, accès aux services publics… Derrière les verdicts opaques des systèmes techniques, nous avons tendance à penser que leurs enjeux de conception n’est qu’une question technique. Ce n’est pas le cas. La mathématicienne Cathy O’Neil dans Algorithmes, la bombe à retardement, nous le disait déjà : les algorithmes sont des opinions embarquées dans du code. Et le risque est que confrontés à ces systèmes nous perdions les valeurs et l’idéal de société qui devraient les guider. Ces systèmes qui produisent des choix moraux et politiques sont souvent difficiles à comprendre, peu contrôlés, sujets aux erreurs. “Les choix éthiques et démocratiques pris par ces logiciels sont souvent enterrés sous une montagne de détails techniques qui sont traités eux-mêmes comme s’ils étaient techniques plus qu’éthiques”, explique Robinson. Pourtant, les algorithmes n’ont aucune raison d’être mystérieux et leurs limites morales devraient être partagées, notamment pour que nous puissions faire collectivement le travail nécessaire pour les améliorer.
Les algorithmes permettent de traiter des données massives et sont particulièrement populaires pour prendre des décisions sur les personnes – et notamment les plus démunies -, parce qu’ils permettent justement de procéder à des traitements de masses tout en réduisant les coûts de ces traitements. Cela n’est pas sans conséquences. “Trop souvent, plus de technologie signifie d’abord moins de démocratie”, constate Robinson. Le problème, c’est que quand les décisions difficiles sont embarquées dans des logiciels, ces décisions sont plus dures à comprendre et plus difficiles à contrôler. Les logiciels agissent depuis des données toujours imparfaites et la compréhension de leurs biais et lacunes n’est pas accessible à tous. La quantification semble souvent neutre et objective, mais c’est surtout un moyen de prendre des décisions “sans avoir l’air de décider”, comme le disait l’historien des sciences Theodore Porter dans son livre, Trust in numbers. Trop souvent, l’implantation d’algorithmes est le décret d’application des lois. Le problème, c’est que trop souvent, la politique n’est pas assez précise, les ingénieurs comme les administrations avant eux, doivent en produire une interprétation qui a des conséquences directes sur ceux qui sont affectés par le calcul. Nos lois et politiques sont remplies d’ambiguïtés. Le risque auquel nous sommes confrontés c’est de laisser décider aux ingénieurs et systèmes le rôle de définir les frontières morales des systèmes techniques qu’ils mettent en place.
Le problème, bien souvent, demeure l’accès aux algorithmes, aux calculs. En 2021, Upturn a publié une étude (.pdf) sur 15 grands employeurs américains pour comprendre les technologies qu’ils utilisaient pour embaucher des candidats, concluant qu’il était impossible de saisir les biais de leurs pratiques depuis l’extérieur. Et c’est encore plus difficile quand les algorithmes ou leurs résultats sont puissamment intriqués entre eux : avoir un mauvais score de crédit a des répercussions bien au-delà d’une demande de crédit (sur ses primes d’assurance ou la possibilité de candidater à certains emplois par exemple…). Nous sommes cernés par des scores complexes, intriqués, qui ne nous sont pas expliqués et qui calculent trop souvent des objets d’une manière trompeuse, selon une prétention à la connaissance mensongère (Robinson parle de “prédictions zombies” qui m’évoquent les “technologies zombies” de José Halloy), peu contrôlés, pas mis à jour… sans qu’on puisse les contester, les rectifier ou même être au courant de leur existence. Robinson donne de nombreux exemples d’algorithmes qui posent problèmes, dans le domaine de la justice, de la santé, de l’aide sociale, de l’affectation dans l’enseignement supérieur…
“Quand les enjeux sont élevés, nous devrions construire des systèmes qui se trompent rarement et où les erreurs sont faciles à trouver et à corriger”. Ce n’est pas le cas. Trop souvent, les systèmes mettent en œuvre les logiques morales de ceux qui les conçoivent. Trop souvent, on laisse les experts techniques, cette élite du code (qui tient également beaucoup d’une consultocratie, entre Gafams et grands acteurs du conseil) décide d’enjeux moraux et politiques. Nous sommes confrontés à une industrie logicielle qui encode les principes et visions du monde des puissants. Des technologies avec des objectifs, comme disait Kate Crawford. Un numérique industriel profondément orienté à droite, comme je le résume souvent et plus directement. Contrairement à ce qu’on pourrait penser, décider de qui doit prioritairement bénéficier d’un organe tient bien plus d’un choix moral que d’un choix médical, notamment parce que les différences médicales entre les patients qui relèvent d’une même urgence sont faibles. Trop souvent, le choix moral qu’accomplissent les systèmes n’est pas explicite. “Nous devons nous inquiéter de la relation entre le process et le résultat”, explique Robinson. Le problème, c’est que bien souvent la conception met en valeur l’un ou l’autre, prônant la vertu du processus ou la vertu du résultat, quand ils devraient surtout se renforcer l’un l’autre plutôt que de s’opposer. Or, souligne Robinson dans son livre, seule la délibération et la participation partout tendent à mener à de meilleurs résultats, permettent de faire se rejoindre le process et le résultat.
4 stratégies pour améliorer la gouvernance des systèmesRobinson détaille 4 stratégies de gouvernance pour les systèmes algorithmiques :
- Élargir la participation des parties prenantes
- Renforcer la transparence
- Améliorer la prévision d’impact des systèmes
- Assurer l’audit en continu
La participation des parties prenantes repose sur les techniques délibératives très documentées, comme on les trouve développées dans les jury ou les conférences de citoyens : à savoir délivrer une information équilibrée, consciente, substantielle, compréhensible. C’est ce qu’on appelle aussi, assez mal, les “comités consultatifs” communautaires ou éthiques (qu’on devrait plutôt appeler il me semble Comités de parties prenantes, parce qu’ils ne devraient pas être seulement consultatifs, mais bien impliqués dans les décisions… et parce que leurs fonctions consistent avant tout à rassembler autour de la table tous ceux qui sont concernés, les usagers comme les experts). Ces comités chargés d’inspecter, de contrôler, d’équilibrer les décisions techniques en faisant entendre d’autres voies dans les décisions sont encore bien trop rares. Une coalition d’organisation de défense des droits civils a proposé ainsi que les algorithmes d’évaluation de risque de récidive utilisés dans les cours de justice américaines mettent en place ce type de structure pour déterminer ce qui devrait être pris en compte et rejeté par ces systèmes, et on pourrait les imaginer comme des structures obligatoires à tout système à fort impact social. C’est le “rien pour nous sans nous” de ceux qui réclament d’être à la table et pas seulement au menu de ce que l’on conçoit pour eux. Le risque bien sûr – et c’est d’ailleurs la règle plus que l’exception – c’est que ces comités soient trop souvent des coquilles vides, un faux-semblant participatif, rassemblant des gens qu’on n’écoute pas.
La transparence peut prendre bien des formes. La principale à l’œuvre dans les systèmes techniques consiste à divulguer le code source des systèmes. Une solution intéressante, mais insuffisante, notamment parce qu’elle ferme la question à l’élite du code, et surtout que sans données correspondantes, il est difficile d’en faire quelque chose (et c’est encore plus vrai avec les systèmes d’IA, dont la non-reproductabilité est le premier écueil). La transparence doit s’accompagner d’une documentation et de descriptions plus larges : des données utilisées comme des logiques de décisions suivies, des critères pris en compte et de leurs poids respectifs. Elle doit être “extensive”, plaide Robinson (pour ma part, j’ajouterai bien d’autres termes, notamment le terme “projective”, c’est-à-dire que cette transparence, cette explicabilité, doit permettre au gens de se projeter dans les explications). Dans le contexte de la transplantation, le système doit être décrit d’une manière compréhensible, les changements envisagés doivent être explicités, doivent montrer ce qu’ils vont changer, et l’ensemble doit pouvoir être largement débattu, car le débat fait également partie de la transparence attendue.
La prévision consiste à produire des déclarations d’impacts qui décrivent les bénéfices et risques des modifications envisagées, évaluées et chiffrées. La prévision consiste à montrer les effets concrets, les changements auxquels on souhaite procéder en en montrant clairement leurs impacts, leurs effets. L’enjeu est bien de prévoir les conséquences afin de pouvoir décider depuis les effets attendus. Dans le cas de la transplantation de rein, les études d’impact sur les modifications de l’algorithme d’allocation ont permis de voir, très concrètement, les changements attendus, de savoir qui allait être impacté. Lors d’une de ses modifications par exemple, la prévision – produite par un organisme dédié et indépendant, c’est important – montrait que les patients âgés recevraient bien moins de transplantation… ce qui a conduit à rejeter la proposition.
L’audit consiste à surveiller le système en usage et à produire une documentation solide sur son fonctionnement. Les audits permettent souvent de montrer les améliorations ou détériorations des systèmes. Sous prétextes de vie privée ou de propriété, l’audit est encore bien trop rarement pratiqué. Bien souvent, pourtant, l’audit permet d’accomplir certaines mesures, comme par exemple de mesurer la performances des systèmes d’attribution de crédits sur différents groupes démographiques. Dans le domaine de la transplantation rénale américaine, le Scientific Registry of Transplant Recipients (SRTR) – l’organisme indépendant qui publie un rapport annuel détaillé pour mesurer la performance du système pour les patients selon des caractéristiques comme l’âge, le genre ou la race – permet de voir les évolutions dans le temps de ces caractéristiques, et de montrer si le système s’améliore ou se dégrade.
Ces bonnes pratiques ne se suffisent pas, rappelle Robinson, en évoquant l’exemple d’un outil de prédiction du risque de maltraitance et d’agression d’enfants du comté d’Allegheny en Pennsylvanie sur lequel avait travaillé Virginia Eubanks dans Automating inequality. La bonne question à se poser parfois consiste aussi à refuser la construction d’un système… ou de poser la question des moyens. Trop souvent, les systèmes algorithmiques visent d’abord et avant tout à gérer la pénurie quand l’enjeu devrait d’abord consister à y remédier. Trop souvent, leurs déploiements visent et produisent de la diminution de personnel et donc amoindrit l’interaction humaine. Le refus – que défendent nombre d’activistes, comme ceux présents à la conférence sur le refus technique organisée à Berkeley en 2020 ou les associations à l’origine du Feminist Data Manifest-No (voir également “Pour un féminisme des données”) – tient bien souvent, pour certains, du seul levier pour s’opposer à des projets par nature toxiques. Face à des moyens de discussion et d’écoute réduits à néant, l’opposition et le refus deviennent souvent le seul levier pour faire entendre une voix divergente. Dans le champ du social notamment, les travaux d’Eubanks ont montré que la mise en place de systèmes numériques produisent toujours une diminution des droits à l’encontre des plus démunis. Nombre de systèmes sociaux mis en place depuis (au Royaume-Uni, aux Pays-Bas, en Autriche, mais également en France – ce qu’il se passe actuellement autour des systèmes mis en place dans les CAF suit les mêmes logiques) sont en ce sens profondément dysfonctionnels. Les biais, les logiques austéritaires et libérales qui président au déploiement des systèmes ne produisent que la dégradation des systèmes sociaux et des services publics (« ce patrimoine de ceux qui n’en ont pas »), de la justice et de l’équité vers lesquels ils ne devraient jamais cesser de tendre. C’est bien l’inverse pourtant auquel on assiste. La numérisation accélérée des services publics, sous prétexte d’économie budgétaire, devient un levier de leur définancement et de la minimisation des droits et empêche les gens d’accéder à leurs droits et aux services. Depuis les travaux d’Eubanks, on constate finalement que partout, le déploiement de systèmes de traitements de masse des bénéficiaires d’aides ou de services publics est problématique, et la cause est autant à trouver dans les choix de développement que dans les considérations idéologiques qui président à ceux-ci. Partout, le but est de gérer la pénurie et de l’étendre, tout en diminuant les coûts. Le but n’est pas de faire des services publics qui rendent le service qu’on en attend, que de faire des services qui produisent des gains économiques, de la rentabilité. Et de l’accélérer… quoi qu’il en coûte.
Une histoire algorithmique exemplaire : affecter des reins à ceux qui en ont besoinD’une manière un peu déstabilisante, Robinson ne nous explique pas comment le système d’attribution d’un greffon rénal calcule (c’est tout de même dommage de ne pas s’être essayé à l’exercice… Ainsi par exemple, on finit par comprendre que c’est un système par points qui préside à l’attribution où le but du côté du greffon est d’en avoir le moins possible, quand du côté du greffé, il est d’en avoir le plus possible). Robinson raconte plutôt la grande histoire de l’évolution de la transplantation rénale et l’évolution des débats éthiques qui l’ont accompagné. Il raconte l’histoire de la discussion d’un système technique avec la société et si cette histoire est exemplaire, ce n’est pas parce que le système d’attribution, l’algorithme d’appariement, serait plus vertueux que d’autres (Robinson termine son analyse en montrant que ce n’est pas le cas), mais parce qu’il démontre que ce qui est vertueux c’est la mise en discussion – ouverte, organisée, inclusive… – continue entre technique et société… Même quand elle se referme (par exemple quand il évoque la question de la prise en compte des problèmes liés à la géographie des dons), d’autres moyens permettent de l’ouvrir (en l’occurrence, le recours aux tribunaux). Ce qu’il montre, c’est que même quand les discussions se referment, les questions de justice et d’équité, d’équilibres des droits, finissent toujours par revenir, comme nous le rappelle Alain Supiot.
De l’introduction des questions éthiquesRobinson retrace l’histoire de la transplantation rénale en montrant les conséquences éthiques de l’évolution des connaissances médicales. Si la première tentative de transplantation à eu lieu au début du XXe siècle, longtemps, la question de l’immunologie, c’est-à-dire de l’acceptation d’un organe étranger dans le corps est restée obscure à la science. La première transplantation de rein réussie date de 1954 seulement, et elle était entre deux parfaits jumeaux, qui semblait la seule condition à la réussite de l’opération. A défaut de transplantation, la médecine a progressé sur un autre front, la dialyse, c’est-à-dire le fait de faire filtrer les toxines d’un patient non pas par un rein, mais par une machine, ce qu’on est parvenu à faire pendant la seconde guerre mondiale. En 1960, le docteur Scribner met au point le cathéter qui va permettre de prolonger la durée d’un patient sous dialyse (qui n’était que de quelques semaines), transformant le dysfonctionnement du rein de maladie fatale en maladie chronique et amenant un problème éthique chronique : comment trier les patients, à une époque où les appareils de dialyse sont encore extrêmement rares et coûteux ? Face à l’afflux des demandes, Scribner va avoir l’intuition de mettre en place un système de sélection qui ne soit pas uniquement médical. Pour élire les patients à la dialyse, il met en place un processus de sélection consistant en un avis médical pour déterminer l’éligibilité à la dialyse mais surtout il va mettre en place un comité de profanes chargés de trancher les décisions non-médicales d’attribution (comme de déterminer entre deux patients médicalement éligibles, lequel doit être prioritaire). Les membres de ce comité recevront des informations sur le fonctionnement de la dialyse et de la transplantation… mais devront décider des règles non médicales s’appliquant aux patients éligibles à une transplantation ou une dialyse. Très tôt donc, la réponse des limites de l’allocation dans des cas où les ressources sont rares a consisté à faire porter la problématique éthique à une communauté plus large – et pas seulement aux experts techniques. Lors de ses 13 premiers mois de fonctionnement, le Centre du rein de Seattle du docteur Scribner a dû considérer 30 candidats, 17 ayant été jugé médicalement aptes la dialyse, mais en écartant 7 du traitement.
D’autres centres de dialyse vont pourtant faire des choix différents : certains vont opter pour une approche, “premier arrivé, premier servi”. Les premiers critères de choix n’étaient pas sans opacités où sans jugements moraux : les patients pauvres, vieux ou appartenant à des minorités ethniques, ceux dont les vies sont plus chaotiques, ont été plus facilement écartés que d’autres. Malgré ses déficiences, ces interrogations ont permis de construire peu à peu la réponse éthique.
Ce qui va changer dans les années 60, c’est la généralisation de la dialyse (d’abord accessible aux vétérans de l’armée), le développement de la transplantation rénale en ayant recours à des donneurs provenant de la famille proche, puis, en 1972, la décision par le Congrès de rembourser les soins de dialyse. Cette évolution législative doit beaucoup aux témoignages de patients devant les représentants, expliquant la difficulté à accéder à ce type de soins. Le remboursement des soins va permettre d’élargir le public de la dialyse, de créer des centres dédiés et de la rendre moins coûteuse, non seulement pour les patients, mais aussi pour la médecine. Cette prise en charge de la dialyse n’est pas sans incidence d’ailleurs, souligne Robinson, notamment quand les soins liés à une transplantation, couvrant la prise d’immunosuppresseurs, eux, ne courent que sur 3 ans, alors que les soins de dialyse, eux sont pris en charge à vie. Même encore aujourd’hui (et plus encore aux Etats-Unis, ou la prise en charge des soins de santé est difficile), cette logique subsiste et fait que certains patients ne peuvent se permettre de s’extraire de la dialyse au profit d’une transplantation. En moyenne, une dialyse, consiste en 3 traitements par semaine, 4 heures de traitement par session. Coûteuse, elle reste surtout dangereuse, le taux de mortalité des patients sous dialyse est encore important à cette époque. Sans compter que l’augmentation du nombre de patients sous dialyse va avoir un impact sur l’augmentation de la demande de transplantation…
Dans les années 60, la découverte de médications immunosuppressives va permettre de faire baisser considérablement le rejet des greffons et d’élargir le nombre de greffes : en quelques années, on va passer d’une mortalité post transplantation de 30% à un taux de survie de 80%.
Un algorithme, mais sûr quels critères ?En 1984, les spécialistes de la greffe de rein, Tom Starzl et Goran Klintmalm reçoivent une demande de greffe de toute urgence pour une petite fille de 4 ans. Ce drame public, très médiatisé, va reposer la question de l’attribution. La loi nationale sur la transplantation d’organe votée en 1984 va organiser l’encadrement de l’attribution et décider de la création d’un système national par ordinateur pour apparier les organes des donneurs aux patients, dont la réalisation est confiée au Réseau d’approvisionnement en organe et de transplantation (OPTN, Organ procurement and transplantation network) et qui doit faire discuter, comme les premiers comités de Scribner, des médecins et le public. A nouveau, deux écoles s’affrontent. Celle qui propose le premier arrivé, premier servi, et une autre qui propose une rationalisation médicale de la priorisation.
Cette priorisation va longtemps reposer sur l’appariement antigénique… Ce typage des tissus, consiste a prédire biologiquement la meilleure relation entre les données biomédicales d’un donneur et celles d’un receveur. Cette prédiction ne va cesser d’évoluer avec l’avancée des connaissances et l’évolution des standards de soin. Cet appariement permet de médicaliser le choix, mais repose sur la croyance que cet appariement est important pour la plupart des cas. Pour Robinson, nous avons là un expédient moral car les caractéristiques biomédicales ne sont pas toujours un obstacle insurmontable pour la survie des greffons de reins. Le problème, c’est que les antigènes ne sont pas seulement un prédicteur de la compatibilité entre donneur et receveur, ils sont aussi statistiquement corrélés à la race. Les afro-américains ont trois fois plus de risques d’avoir une maladie des reins en stade terminal que les blancs, alors que la majorité des donneurs ressemblent à la population américaine et sont donc blancs. La prise en compte antigénique signifie proportionnellement moins d’appariements pour les noirs.
Un autre problème va donner lieu à de longues discussions : à partir de quand prendre en compte une demande de transplantation ? La règle a longtemps été à l’inscription d’un patient sur la liste d’attente… Or, cette inscription sur la liste d’attente n’est pas la même pour tous les patients : le niveau social, la couleur de peau et l’accès aux soins de santé sont là encore producteurs d’inégalités. En fait, le souhait de ne vouloir prendre en compte que des critères dits médicaux pour l’attribution d’un greffon, fait l’impasse sur ce qui ne relève pas du médical dans le médical et notamment ses pesanteurs sociales. Ce que montre très bien le livre de Robinson, c’est combien les discussions internes comme le débat public ne cessent de se modifier dans le temps, à mesure que la connaissance progresse.
En 1987, l’UNOS (United network for Organ Sharing) qui opère l’OPTN, décide d’opter pour un algorithme d’allocation déjà utilisé localement à Pittsburgh (là encore, soulignons le, on retrouve une constante dans le déploiement de procédures techniques nationales : celle de s’appuyer sur des innovateurs locaux… Le sociologue Vincent Dubois raconte la même histoire quand il évoque la généralisation du contrôle automatisé à l’égard des bénéficiaires de l’aide sociale dans les CAF). Cet algorithme prend en compte de multiples facteurs : le temps d’attente d’un patient, la comptabilité antigénique et l’urgence médicale… avant d’opter deux ans plus tard pour renforcer dans les critères la question de l’appariement antigénique, alors que de nombreux spécialistes s’y opposent prétextant que la preuve de leur importance n’est pas acquise. La contestation gagne alors du terrain arguant que la question antigénique est insignifiante dans la plupart des cas de transplantation et qu’elle est surtout discriminatoire. En 1991, l’inspecteur général de la Santé américain souligne que les noirs attendent un rein deux à trois fois plus longtemps que les blancs (jusqu’à 18 mois, contre 6 !). Sans compter que ceux en faveur de l’appariement antigénique sont également ceux qui valorisent la distribution géographique, qui elle aussi à un impact discriminatoire.
Mais à nouveau, comme aux premiers temps de la transplantation, pour équilibrer les débats, une infrastructure de gouvernance ouverte et équilibrée s’est installée. Avec l’OPTN d’abord, qui s’est imposé comme une organisation caractérisée par la transparence, la consultation et la décision (par le vote). L’OPTN est le modèle de nombreux comités de parties prenantes qui prennent en compte la représentation des usagers et discutent des changements à apporter à des systèmes via d’innombrables conférences ouvertes au public qui vont se déplacer à travers le pays pour permettre la participation. Les efforts de cette structure ont été soutenus par une autre, qui lui est indépendante : le Scientific Registry of Transplant Recipents (SRTR), dont l’une des fonctions est de produire une compréhension des modèles et des impacts des changements envisagés par l’OPTN. Les visualisations et simulations que va produire le SRTR vont bien souvent jouer un rôle vital dans les débats. Simuler les conséquences d’un changement de modèle d’affectation permet d’en saisir les orientations, permet de comprendre qui va en bénéficier et qui risque d’en pâtir. Outre ces institutions phares, il faut ajouter les autorités de santé, les représentants politiques, la communauté médicale, les associations de patients, les décisions de justice… qui s’imbriquent et s’entremêlent dans une grande discussion médico-politique.
Des critères qui évoluent avec la science et le débat publicDurant les années 90, les progrès de l’immunosuppression renforcent la critique des antigènes, les rendant encore moins critiques dans le succès de la transplantation. L’UNOS procéde à plusieurs changements à son système d’affectation pour réduire le rôle des antigènes dans l’attribution des greffons (et atténuer le fossé des discriminations), au profit du temps d’attente. Dans les années 90, la barrière des groupes sanguins est également dépassée.
En 2003, un processus de discussion pour reconcevoir le système d’attribution des greffons qui semble en bout de course est à nouveau lancé. Pour beaucoup, “l’algorithme d’allocation des reins était devenu un collage de priorités”. A partir de 2003, le débat s’enflamme sur la question des listes d’attentes : là encore, la discrimination est à l’oeuvre, les afro-américains n’étant pas placé sur les listes d’attentes aussi rapidement ou dans les mêmes proportions que les blancs. Les patients noirs attendent plus longtemps avant d’être inscrits en liste d’attente, souvent après plusieurs années de dialyse, notamment parce que l’accès aux soins aux Etats-unis reste fortement inégalitaire. Pour corriger cette disparité, en 2002, on propose non plus de partir du moment où un patient est ajouté à une liste d’attente, mais de partir du moment où un patient commence une dialyse. Pourtant, à cette époque, la question ne fait pas suffisamment consensus pour être adoptée.
Une autre critique au premier système de calcul est son manque d’efficacité. Certains proposent que les reins soient affectés prioritairement afin de maximiser la durée de vie des patients (au détriment des patients en attente les plus âgés). D’autres discussions ont lieu sur les patients sensibles, des patients qui ont développé des antigènes spécifiques qui rendent leur transplantation plus à risque, comme ceux qui ont déjà eu une transplantation, des femmes qui ont eu plusieurs naissances ou des patients qui ont reçu beaucoup de transfusions par exemple. Ce degré de sensibilité est calculé par un score : le CPRA, calculated panel reactive antibody score. L’un des enjeux est de savoir si on doit favoriser un patient qui a déjà reçu une transplantation sur un autre qui n’en a pas encore eu : le fait d’avoir une double chance paraissant à ceux qui n’en ont pas encore eu une, comme une injustice. L’introduction de ce nouveau calcul souligne combien les calculs dépendent d’autres calculs. L’intrication des mesures et la complexité que cela génère n’est pas un phénomène nouveau.
L’utilité contre l’équité : l’efficacité en questionLa grande question qui agite les débats qui vont durer plusieurs années, explique Robinson, consiste à balancer l’utilité (c’est-à-dire le nombre total d’années de vie gagnées) et l’équité (le fait que chacun ait une chance égale). Des médecins proposent d’incorporer au système d’allocation une mesure du bénéfice net (le LYFT : Life years from Transplant), visant à classer les candidats selon le nombre d’années de vie qu’ils devraient gagner s’ils reçoivent une greffe. Cette formule, présentée en 2007, est compliquée : elle prend en compte une douzaine de facteurs (l’âge, l’indice de masse corporelle, le temps passé à vivre avec un problème rénal, la conformité antigénique…). En utilisant les données passées, le STR peut modéliser le temps de survie des patients en liste d’attente, le temps de survie post-transplantation, pour chaque patient et chaque appariement. Les modélisations présentées par le STR montrent que LYFT devrait avoir peu d’effet sur la distribution raciale et sanguine des receveurs, mais qu’il devrait éloigner de la greffe les diabétiques, les candidats sensibles et âgés, au profit des plus jeunes. Le calcul du temps de vie cumulé que le système devrait faire gagner peut paraître impressionnant, mais le recul de la chance pour les seniors est assez mal accueilli par les patients. L’efficacité semble mettre à mal l’équité. Les discussions s’enlisent. Le comité demande au ministère de la santé, si l’usage de l’âge dans les calculs est discriminatoire, sans recevoir de réponse. Une version finale et modifiée de Lyft est proposée à commentaire. Lyft montre une autre limite : les modèles de calculs de longévité sur lesquels il repose ne sont pas très compréhensibles au public. Ce qui permet de comprendre une autre règle des systèmes : quand l’explicabilité n’est pas forte, le système reste considéré comme défaillant. Au final, après plusieurs années de débats, Lyft est abandonné.
En 2011, une nouvelle proposition de modification est faite qui propose de concilier les deux logiques : d’âge et de bénéfice net. Les greffons sont désormais évalués sur un score de 100, où plus le score est bas, meilleur est le greffon. Les patients, eux, sont affecté par un Post-Transplant Survival score (EPTS), qui comme Lyft tente d’estimer la longévité depuis 4 facteurs seulement : l’âge, le temps passé en dialyse, le diabète et si la personne a déjà reçu une transplantation, mais sans évaluer par exemple si les patients tolèrent la dialyse en cas de non transplantation… Pour concilier les logiques, on propose que 20% des greffons soient proposés prioritairement à ceux qui ont le meilleur score de longévité, le reste continuant à être attribué plus largement par âge (aux candidats qui ont entre 15 ans de plus ou de moins que l’âge du donneur). Là encore, pour faire accepter les modifications, le comité présente des simulations. Plus équilibré, la règle des 20/80 semble plus compréhensible, Mais là encore, il réduit les chances des patients de plus de 50 ans de 20%, privilégiant à nouveau l’utilité sur l’équité, sans répondre à d’autres problèmes qui semblent bien plus essentiels à nombre de participants, notamment ceux liés aux disparités géographiques. Enfin, la question de l’âge devient problématique : la loi américaine contre la discrimination par l’âge a été votée en 2004, rappelant que personne ne peut être discriminé sur la base de son âge. Ici, se défendent les promoteurs de la réforme, l’âge est utilisé comme un proxy pour calculer la longévité. Mais cela ne suffit pas. Enfin, les patients qui ont 16 ans de plus ou de moins que l’âge du donneur n’ont pas moins de chance de survivre que ceux qui ont 14 ans de différence avec le donneur. Ce critère aussi est problématique (comme bien souvent les effets de seuils des calculs, qui sont souvent strictes, alors qu’ils devraient être souples).
La surveillance du nouveau système montre d’abord que les receveurs de plus de 65 ans sont défavorisés avant de s’améliorer à nouveau (notamment parce que, entre-temps, la crise des opioïdes et la surmortalité qu’elle a engendré a augmenté le nombre de greffons disponibles). Le suivi longitudinal de l’accès aux greffes montre qu’entre 2006 et 2017, l’équité raciale a nettement progressé, notamment du fait de la prise en compte de la date de mise sous dialyse pour tous. Les différences entre les candidats à la greffe, selon la race, se resserrent.
En septembre 2012, une nouvelle proposition est donc faite qui conserve la règle des 20/80, mais surtout qui intègre le calcul à partir du début de l’entrée en dialyse des patients, atténue l’allocation selon le groupe sanguin… autant de mesures qui améliorent l’accès aux minorités. Cette proposition finale est à nouveau discutée entre septembre et décembre 2012, notamment sur le fait qu’elle réduit l’accès aux patients les plus âgés et sur le compartimentage régional qui perdure. En juin 2013, le conseil de l’OPTN approuve cependant cette version et le nouvel algorithme entre en fonction en décembre 2014. Dix ans de discussion pour valider des modifications… Le débat public montre à la fois sa force et ses limites. Sa force parce que nombre d’éléments ont été discutés, recomposés ou écartés. Ses limites du fait du temps passé et que nombre de problèmes n’ont pas été vraiment tranchés. Décider prend du temps. Robinson souligne combien ces évolutions, du fait des débats, sont lentes. Il a fallu 10 ans de débats pour que l’évolution de l’algorithme d’attribution soit actée. Le débat entre utilité et équité n’a pu se résoudre qu’en proposant un mixte entre les deux approches, avec la règle du 20/80, tant ils restent irréconciliables. Mais si le processus a été long, le consensus obtenu semble plus solide.
La lente déprise géographiqueLe temps d’acheminement d’un greffon à un donneur a longtemps été une donnée essentielle de la greffe, tout comme la distance d’un malade à une unité de dialyse, ce qui explique, que dès le début de la greffe et de la dialyse, le critère géographique ait été essentiel.
L’allocation de greffon est donc circonscrite à des zonages arbitraires : 58 zones, chacune pilotées par un organisme de contrôle des allocations, découpent le territoire américain. Le système montre pourtant vite ses limites, notamment parce qu’il génère de fortes discriminations à l’accès, notamment là où la population est la plus nombreuse et la demande de greffe plus forte. Les patients de New York ou Chicago attendent des années, par rapport à ceux de Floride. Plusieurs fois, il va être demandé d’y mettre fin (hormis quand le transport d’organes menace leur intégrité). Pourtant, les zones géographiques vont s’éterniser. Il faut attendre 2017 pour que l’UNOS s’attaque à la question en proposant un Score d’accès à la transplantation (ATS, Access to Transplant Score) pour mesurer l’équité de l’accès à la transplantation. L’outil démontre ce que tout le monde dénonçait depuis longtemps : la géographie est un facteur plus déterminant que l’âge, le groupe sanguin, le genre, la race ou les facteurs sociaux : selon la zone dont dépend le receveur (parmi les 58), un même candidat pourra attendre jusqu’à 22 fois plus longtemps qu’un autre ! Cette question va évoluer très rapidement parce que la même année, l’avocat d’une patiente qui a besoin d’une greffe attaque en justice pour en obtenir une depuis une zone où il y en a de disponibles. Fin 2017, l’UNOS met fin au zonage pour le remplacer par une distance concentrique par rapport à l’hôpital du donneur, qui attribue plus ou moins de points au receveur selon sa proximité. Le plus étonnant ici, c’est qu’un critère primordial d’inégalité ait mis tant d’années à être démonté.
Le scoring en ses limitesLes scientifiques des données de l’UNOS (qui ont mis en place l’ATS) travaillent désormais à améliorer le calcul de score des patients. Chaque patient se voit attribuer un score, dont la précision va jusqu’à 16 chiffres après la virgule (et le système peut encore aller plus loin pour départager deux candidats). Mais se pose la question du compromis entre la précision et la transparence. Plus il y a un chiffre précis et moins il est compréhensible pour les gens. Mais surtout, pointe Robinson, la précision ne reflète pas vraiment une différence médicale entre les patients. “Le calcul produit une fausse précision”. Ajouter de la précision ne signifie pas qu’un candidat a vraiment un meilleur résultat attendu qu’un autre s’il est transplanté. La précision du calcul ne fait que fournir un prétexte technique pour attribuer l’organe à un candidat plutôt qu’à un autre, une raison qui semble extérieurement neutre, alors que la précision du nombre ne reflète pas une différence clinique décisive. Pour Robinson, ces calculs, poussés à leur extrême, fonctionnent comme la question antigénique passée : ils visent à couvrir d’une neutralité médicale l’appariement. En fait, quand des candidats sont cliniquement équivalents, rien ne les départage vraiment. La précision du scoring est bien souvent une illusion. Créer une fausse précision vise surtout à masquer que ce choix pourrait être aussi juste s’il était aléatoire. Robinson souhaite voir dans cette question qu’adressent les data scientist de l’UNOS, le retour de l’interrogation sempiternelle de ne pas transformer une question technique en une question morale. Il paraîtra à d’autres assez étonnant qu’on continue à utiliser la précision et la neutralité des chiffres pour faire croire à leur objectivité. Pourtant, c’est là une pratique extrêmement répandue. On calcule des différences entre les gens via une précision qui n’a rien de médicale, puisqu’au final, elle peut considérer par exemple, que le fait d’habiter à 500 mètres d’un hôpital fait la différence avec une personne qui habite à 600 mètres. En fait, l’essentiel des candidats est si semblable, que rien ne les distingue dans la masse, les uns des autres. Faire croire que la solution consiste à calculer des différences qui n’ont plus rien de scientifiques est le grand mensonge de la généralisation du scoring. C’est trop souvent l’écueil moral des traitements de masse qui justifient le recours aux algorithmes. Mais le calcul ne le résout pas. Il ne fait que masquer sous le chiffre des distinctions problématiques (et c’est un problème que l’on retrouve aujourd’hui dans nombre de systèmes de scoring, à l’image de Parcoursup). Le calcul d’attribution de greffes de rein n’est pas encore exemplaire.
Faire mieuxDans sa conclusion, Robinson tente de remettre cette histoire en perspective. Trop souvent, depuis Upturn, Robinson a vu des systèmes conçus sans grande attention, sans grands soins envers les personnes qu’ils calculaient. Trop de systèmes sont pauvrement conçus. “Nous pouvons faire mieux.”
Dans la question de l’attribution de greffes, la participation, la transparence, la prévision et l’audit ont tous joué un rôle. Les gens ont élevé leurs voix et ont été entendus. Pourquoi n’en est-il pas de même avec les autres algorithmes à fort enjeu ? Robinson répond rapidement en estimant que la question de la transplantation est unique notamment parce qu’elle est une ressource non marchande. Je ne partage pas cet avis. Si le système est l’un des rares îlots de confiance, son livre nous montre que celle-ci n’est jamais acquise, qu’elle est bien construite, âprement disputée… Cette histoire néanmoins souligne combien nous avons besoin d’une confiance élevée dans un système. “La confiance est difficile à acquérir, facile à perdre et pourtant très utile.” L’exemple de la transplantation nous montre que dans les cas de rationnement la participation du public est un levier primordial pour assurer l’équité et la justice. Il montre enfin que les stratégies de gouvernance peuvent être construites et solides pour autant qu’elles soient ouvertes, transparentes et gérées en entendant tout le monde.
Gérer la pénurie pour l’accélérer… et faire semblant d’arbitrerCertes, construire un algorithme d’une manière collaborative et discutée prend du temps. Les progrès sont lents et incrémentaux. Les questions et arbitrages s’y renouvellent sans cesse, à mesure que le fonctionnement progresse et montre ses lacunes. Mais les systèmes sociotechniques, qui impliquent donc la technique et le social, doivent composer avec ces deux aspects. La progression lente mais nette de l’équité raciale dans l’algorithme d’affectation des reins, montre que les défis d’équité que posent les systèmes peuvent être relevés. Reste que bien des points demeurent exclus de ce sur quoi l’algorithme concentre le regard, à l’image de la question des remboursements de soins, limités à 3 ans pour la prise en charge des médicaments immunosuppresseurs des transplantés alors qu’ils sont perpétuels pour les dialysés. Cet enjeu pointe qu’il y a encore des progrès à faire sur certains aspects du système qui dépassent le cadre de la conception de l’algorithme lui-même. Les questions éthiques et morales évoluent sans cesse. Sur la transplantation, la prochaine concernera certainement la perspective de pouvoir avoir recours à des reins de cochons pour la transplantation. Les xénogreffes devraient être prêtes pour les essais médicaux très prochainement, et risquent de bouleverser l’attribution.
Robinson évoque les algorithmes de sélection des écoles de la ville de New York, où chaque école peut établir ses propres critères de sélection (un peu comme Parcoursup). Depuis peu, ces critères sont publics, ce qui permet un meilleur contrôle. Mais derrière des critères individuels, les questions de discrimination sociale demeurent majeures. Plusieurs collectifs critiques voudraient promouvoir un système où les écoles ne choisissent pas leurs élèves selon leurs mérites individuels ou leurs résultats à des tests standardisés, mais un système où chaque école doit accueillir des étudiants selon une distribution représentative des résultats aux tests standardisés, afin que les meilleurs ne soient pas concentrés dans les meilleures écoles, mais plus distribués entre chaque école. C’est le propos que porte par exemple le collectif Teens Take Change. De même, plutôt que d’évaluer le risque de récidive, la question pourrait être posée bien autrement : plutôt que de tenter de trouver quel suspect risque de récidiver, la question pourrait être : quels services garantiront le mieux que cette personne se présente au tribunal ou ne récidive pas ? Déplacer la question permet de déplacer la réponse. En fait, explique très clairement Robinson, les orientations des développements techniques ont fondamentalement des présupposés idéologiques. Les logiciels de calcul du risque de récidive, comme Compass, reposent sur l’idée que le risque serait inhérent à des individus, quand d’autres systèmes pourraient imaginer le risque comme une propriété des lieux ou des situations, et les prédire à la place. (pour InternetActu.net, j’étais revenu sur les propos de Marianne Bellotti, qui militait pour des IA qui complexifient plutôt qu’elles ne simplifient le monde, qui, sur la question du risque de récidive, évoquait le système ESAS, un logiciel qui donne accès aux peines similaires prononcées dans des affaires antérieures selon des antécédents de condamnations proches, mais, là où Compass charge l’individu, ESAS relativise et aide le juge à relativiser la peine, en l’aidant à comparer sa sentence à celles que d’autres juges avant lui ont prononcé). Les algorithmes qui rationnent le logement d’urgence, comme l’évoquait Eubanks dans son livre, visent d’abord à organiser la pénurie, et finalement permettent de mieux écarter le problème principal, celui de créer plus de logements sociaux. Au contraire même, en proposant un outil d’administration de la pénurie, bien souvent, celle-ci peut finalement être encore plus optimisée, c’est-à-dire plus rabotée encore. Les systèmes permettent de créer des “fictions confortables” : la science et le calcul tentent de neutraliser et dépolitiser des tensions sociales en nous faisant croire que ces systèmes seraient plus juste que le hasard, quand une “loterie aléatoire refléterait bien mieux la structure éthique de la situation”.
Participer c’est transformerLa force de la participation n’est pas seulement dans l’apport d’une diversité, d’une pluralité de regards sur un problème commun. La participation modifie les regards de tous les participants et permet de créer des convergences, des compromis qui modulent les systèmes, qui modifient leur idéologie. Au contact d’autres points de vues, dans une ambiance de construction d’un consensus, les gens changent d’avis et modèrent leurs positions, souligne très pertinemment Robinson. Certes, la participation est un dispositif complexe, long, lent, coûteux. Mais ses apports sont transformateurs, car la délibération commune et partagée est la seule à même à pouvoir intégrer de la justice et de l’équité au cœur même des systèmes, à permettre de composer un monde commun. “Une compréhension partagée bénéficie d’une infrastructure partagée”. Pour produire une gouvernance partagée, il faut à la fois partager la compréhension que l’on a d’un système et donc partager l’infrastructure de celui-ci. Les jurés sont briefés sur les enjeux dont ils doivent débattre. Les participants d’un budget citoyens également. La participation nécessite la transparence, pas seulement des données et des modalités de traitement, mais aussi des contextes qui les façonnent. Cela signifie qu’il est toujours nécessaire de déployer une infrastructure pour soutenir le débat : quand elle est absente, la conversation inclusive et informée tend à ne pas être possible. Dans le cas de la transplantation, on l’a vu, les ressources sont innombrables. Les organismes pour les produire également – et leur indépendance est essentielle. Les visualisations, les simulations se sont souvent révélées essentielles, tout autant que les témoignages et leur pluralité. Pour Robinson, cette implication des publics, cette infrastructure pour créer une compréhension partagée, ces gouvernances ouvertes sont encore bien trop rares au-delà du domaine de la santé… alors que cela devrait être le cas dans la plupart des systèmes à haut enjeu. “La compréhension partagée bénéficie d’une infrastructure partagée, c’est-à-dire d’investissements qui vont au-delà de l’effort qu’implique la construction d’un algorithme en soi.” Certes, concède-t-il, la participation est très coûteuse. Pour Robinson : “Nous ne pouvons pas délibérer aussi lourdement sur tout”. Bien sûr, mais il y a bien trop d’endroits où nous ne délibérons pas. Faire se rejoindre l’utilité et l’équité prend du temps, mais elles ne sont irréconciliables que là où aucune discussion ne s’engage. En fait, contrairement à Robinson, je pense que nous ne pouvons pas vivre dans des systèmes où la justice n’est pas présente ou le déséquilibre entre les forces en présence est trop fort. Les systèmes injustes et oppressifs n’ont qu’un temps. L’auto-gouvernement et la démocratie ont toujours pris du temps, mais ils demeurent les moins pires des systèmes. L’efficacité seule ne fera jamais société. Cette logistique de la participation est certainement le coût qui devrait balancer les formidables économies que génère la dématérialisation. Mais surtout, convient Robinson, la participation est certainement le meilleur levier que nous avons pour modifier les attitudes et les comportements. Plusieurs études ont montré que ces exercices de discussions permettent finalement d’entendre des voies différentes et permettent aux participants de corriger leurs idées préconçues. La participation est empathique.
Le risque d’une anesthésie morale par les chiffresEnfin, Robinson invite à nous défier de la quantification, qu’il qualifie “d’anesthésiant moral“. “Les algorithmes dirigent notre attention morale”, explique-t-il. Le philosophe Michael Sacasas parle, lui, de machines qui permettent “l’évasion de la responsabilité”. Quand on regarde le monde comme un marché, un score “semble toujours dépassionné, impartial et objectif”, disaient Marion Fourcade et Kieran Healy. Pourtant, la quantification n’est pas objective, parce qu’elle a des conséquences normatives et surtout que le chiffre nous rend indifférent à la souffrance comme à la justice (c’est ce que disait très bien le chercheur italien Stefano Diana, qui parlait de psychopathologisation par le nombre). C’est également ce que disaient les juristes Guido Calabresi et Philip Bobbitt dans leur livre, Tragic Choices (1978) : “En faisant en sorte que les résultats semblent nécessaires, inévitables, plutôt que discrétionnaires, l’algorithme tente de convertir ce qui est tragiquement choisi en ce qui n’est qu’un malheur fatal. Mais généralement, ce n’est qu’un subterfuge, car, bien que la rareté soit un fait, une décision particulière… (par exemple, celle de savoir qui recevra un organe dont on a besoin de toute urgence) est rarement nécessaire au sens strict du terme.” C’est tout le problème du scoring jusqu’à 16 décimales, qui ne distingue plus de différences médicales entre des patients, mais les discrétise pour les discrétiser. La fausse rationalité du calcul, permet “d’esquiver la réalité que de tels choix, sont, à un certain niveau, arbitraires”. Ces subterfuges par le calcul se retrouvent partout. Poussé à son extrême, le score produit des différences inexistantes. Pour Robinson, “nous apprenons à expliquer ces choix impossibles dans des termes quantitatifs neutres, plutôt que de nous confronter à leur arbitraire”. Pour ma part, je pense que nous n’apprenons pas. Nous mentons. Nous faisons passer la rationalité pour ce qu’elle n’est pas. Nous faisons entrer des critères arbitraires et injustes dans le calcul pour le produire. Quand rien ne distingue deux patients pour leur attribuer un greffon, on va finir par prendre un critère ridicule pour les distinguer, plutôt que de reconnaître que nous devrions avoir recours à l’aléatoire quand trop de dossiers sont similaires. Et c’est bien le problème que souligne Robinson à la fin de son inspection du système de calcul de l’attribution de greffe de rein : la plupart des patients sont tellement similaires entre eux que le problème est bien plus relatif à la pénurie qu’autre chose. Le problème est de faire penser que les critères pour les distinguer entre eux sont encore médicaux, logiques, rationnels.
Pour Robinson, les algorithmes sont des productions de compromis, d’autant plus efficaces qu’ils peuvent être modifiés (et ne cessent de l’être) facilement. Leur adaptabilité même nous invite à tisser un lien, trop inexistant, entre la société et la technique. Puisque les modifier n’est pas un problème, alors nous devrions pouvoir en discuter en permanence et avoir une voix pour les faire évoluer. L’expertise technique n’est jamais et ne devrait jamais être prise comme une autorité morale. La participation ne devrait pas être vue comme quelque chose de lourd et de pesant, mais bien comme le seul levier pour améliorer la justice du monde. Robinson nous invite à imaginer un monde où les plus importants systèmes techniques refléteraient bien des voix, même la nôtre. Pour l’instant, ce que l’on constate partout, c’est que tout est fait pour ne pas les écouter.
Ce que nous dit le livre de Robinson, c’est combien la question de l’équité reste primordiale. Et qu’améliorer un système prend du temps. La justice n’est pas innée, elle se construit lentement, patiemment. Trop lentement bien souvent. Mais le seul outil dont nous disposons pour améliorer la justice, c’est bien le débat, la contradiction et la discussion. Malgré sa complexité et sa lenteur, la question du débat public sur les systèmes est essentielle. Elle ne peut ni ne doit être un débat d’experts entre eux. Plusieurs fois, dans ces débats, Robinson montre l’importance des patients. C’est leurs interventions lors des séances publiques qui modifient les termes du débat. Construire des systèmes robustes, responsables, nécessite l’implication de tous. Mais ce qui est sûr c’est qu’on ne construit aucun système responsable quand il n’écoute pas les voix de ceux pris dans ces filets. Nous devons exiger des comités de parti de prenantes partout où les systèmes ont un impact fort sur les gens. Nous devons nous assurer d’améliorations incrémentales, non pas imposées par le politique, mais bien discutées entre égaux, dans des comités où les experts ont autant la voix que les calculés. Aujourd’hui, c’est ce qui manque dans la plupart des systèmes. Y faire entrer les voix des gens. C’est la principale condition pour faire mieux, comme nous y invite David Robinson.
Hubert Guillaud
A propos du livre de David G. Robinson, Voices in the code, a story about people, their values, and the algorithm they made, Russell Sage Foundation, 2022, 212 pages. Cet article a été publié originellement sur le blog de Hubert Guillaud, le 24 novembre 2022.
-
2:00
Kartoza: Streamlining Geospatial Data for GeoPackage Upload
sur Planet OSGeoMy GeoPackage exceeded the 5MB limit due to excess vertices, unused attributes, and residual data. By simplifying geometries and optimizing the database, I reduced it from 9.7MB to 1.6MB.
-
19:06
Portrait des nouveaux quartiers prioritaires de la politique de la ville en France métropolitaine
sur Cartographies numériquesL'INSEE a mis à jour au 1er janvier 2024 la liste et les contours des QPV pour la France métropolitaine, aboutissant à 1 362 quartiers prioritaires en France métropolitaine dans 776 communes et désormais tous les départements. Parmi eux, une large majorité (neuf QPV sur dix) sont issus de la liste des anciens QPV, avec un contour similaire ou modifié, tandis qu’une centaine de nouveaux QPV ont été créés. Seuls une cinquantaine de QPV sont intégralement sortis de la géographie prioritaire.
Les quartiers prioritaires de la politique de la ville (QPV) ont été créés par la loi du 21 février 2014 de programmation pour la ville et la cohésion urbaine. Jusqu’en 2023, la France métropolitaine comptait 1 296 quartiers prioritaires, dans 754 communes. La géographie prioritaire était présente dans tous les départements, à l’exception de la Lozère. En France métropolitaine, un département comptait en moyenne 14 QPV, avec au minimum 1 QPV dans plusieurs départements (les Hautes-Alpes, le Cantal, la Creuse, le Gers, le Lot) et au maximum 91 dans le Nord.
Les départements d’outre-mer (Guadeloupe, Martinique, Guyane, La Réunion et Mayotte) comprennent 140 QPV (zonage de 2014 toujours en vigueur), avec 7 QPV en Martinique et jusqu’à 49 à La Réunion. De plus, 78 QPV sont recensés dans les collectivités d’outre-mer : 76 en Polynésie française et 2 à Saint-Martin. Une nouvelle génération de quartiers prioritaires est entrée en vigueur au 1er janvier 2025 pour les Outre-mer, par le décret n° 2024-1212 du 27 décembre 2024 modifiant la liste des quartiers prioritaires de la politique de la ville dans les collectivités régies par l'article 73 de la Constitution, à Saint-Martin et en Polynésie française.
Il y a désormais 1 362 QPV en France métropolitaine, localisés sur l’ensemble des départements mais répartis de façon très hétérogène sur le territoire. Représentant 8 % de la population, les 5,3 millions d’habitants des QPV diffèrent des habitants des environnements urbains voisins de ces quartiers selon plusieurs caractéristiques. Ils sont plus jeunes : ils ont 35 ans en moyenne, contre 41 ans dans les environnements urbains. Les ménages y sont plus souvent constitués de familles monoparentales (un ménage sur six, contre un sur dix dans les environnements urbains), tandis que les couples sans enfant y sont moins présents. Les ménages des QPV sont très majoritairement locataires, le plus souvent d’un logement social, et résident davantage dans des logements suroccupés. Enfin, les habitants de ces quartiers, par définition plus modestes que dans leur environnement urbain, ont un niveau de diplôme plus faible et sont confrontés à une plus grande précarité sur le marché du travail.
- La population des QPV est plus jeune que celle de leurs environnements urbains
- Un ménage sur six résidant dans un QPV est une famille monoparentale
- La suroccupation des logements est nettement plus fréquente dans les QPV
- La population des QPV est moins diplômée et moins présente sur le marché de l’emploi
Décret n° 2023-1314 du 28 décembre 2023 modifiant la liste des quartiers prioritaires de la politique de la ville dans les départements métropolitains, JORF no 0301 du 29 décembre 2023.
Décret n° 2024-1212 du 27 décembre 2024 modifiant la liste des quartiers prioritaires de la politique de la ville pour les Outre-mer
Lien pour télécharger le découpage des QPV sur le site Data.gouv.fr.
Atlas de la géographie prioritaire de la politique de la ville 2024 tenant compte de cette mise à jour.
Pour compléter
« Les quartiers en politique de la ville, reflet des évolutions de la géographie sociale francilienne » (Institut Paris Région)
L'Île-de-France est la région la plus concernée par la politique de la ville, qui vise à améliorer les conditions de vie des habitants des quartiers défavorisés. En 2024, les périmètres des quartiers prioritaires de la politique de la ville (QPV) ont été actualisés : des quartiers intègrent la politique de la ville, d’autres la quittent ou voient leur contour redessiné. Cette nouvelle géographie traduit la paupérisation de certains secteurs ou, à l’inverse, la valorisation de quartiers transformés par une desserte améliorée, la diversification de l’habitat et l’arrivée de ménages plus aisés. Plus nombreux qu’en 2015, les QPV continuent de présenter, en 2024, des profils hétérogènes.- Une population en qpv inégalement répartie sur le territoire francilien
- Le plus grand nombre de nouveaux qpv en Seine-Saint-Denis
- Des qpv sortants à la suite des démolitions et de la diversification de l’habitat
- Des contours modifiés par la paupérisation et la gentrification
- Une population plus diplômée, active, familiale et immigrée
- Une hausse de la population en qpv dans les départements les plus concernés
- Des écarts inégalement marqués avec leur environnement
- Des politiques qui bougent elles aussi
- 1 Francilien sur 7 vit dans un QPV en 2024
- 1,7 million de Franciliens vivent dans un QPV (32 % des habitants de QPV à l'échelle nationale)
- 298 QPV en 2024 (272 en 2015) en Île-de-France
- 40 nouveaux QPV et 12 QPV sortants en 2024 en Île-de-France
Part de population en QPV au sein des EPCI de la région Ile-de-France (source : © Institut Paris Région)
De nouveaux contrats de ville "Engagements Quartiers 2030"Les nouveaux contrats de ville "Engagements Quartiers 2030" ont été signés localement en 2024. Ils assurent le cadre partenarial de l’engagement des acteurs publics et privés dans ces quartiers, conformément aux annonces du Comité interministériel des villes du 27 octobre 2023. Les mesures présentées lors de ce Comité interministériel d'octobre 2023 étaient axées autour de quatre points principaux :- la transition écologique ;
- la politique de la ville ;
- le plein emploi ;
- les services publics.
En contrepoint
Comment parler de "territoires délaissés" dégomme l'idée d'une France "périphérique" (France Culture). Carrément sans ministre à l'époque du gouvernement Barnier, la "politique de la ville" revient à l'agenda avec un Comité interministériel des villes le 17 avril 2025. Mais des chercheurs en sciences sociales proposent de changer de vocabulaire pour mieux décrypter les inégalités territoriales.
Articles connexes
Cartes et données sur les Quartiers prioritaires de la politique de la ville (QPV)
Etudier les établissements scolaires en lien avec la politique de la ville : intérêt et limites
Étudier les inégalités entre établissements scolaires à partir de l'Indice de position sociale (IPS)
Rapport de l'Observatoire des territoires sur l'impact des mobilités en France
Gentrification et paupérisation au coeur de l'Île-de-France (évolutions 2001-2015)
Intérêt et limites du zonage en aires urbaines
-
16:50
gvSIG Team: Leyenda por mapa de calor en gvSIG Online
sur Planet OSGeoEn la última versión de gvSIG Online se ha incorporado un nuevo tipo de simbología: la leyenda por mapa de calor. Dicha leyenda permite representar, tanto la densidad de puntos como con valores ponderados, mediante un gradiente continuo de colores.
En el caso de densidad de puntos podemos ver en qué zonas hay más puntos, y puede ser muy útil para ver dónde hay más farolas en un municipio, dónde ha habido más accidentes… En ese caso todos los puntos tienen el mismo valor.
Si se utiliza un campo para ponderar, un caso podría ser el de estaciones de tomas de datos, por ejemplo de temperatura, polución…, y donde el campo a ponderar sería el de dichos valores.
En ambos tipos de leyenda se dispone de dos tipos de gradientes: uno donde se indica el color inicial y color final, y en el que se calcula el gradiente entre esos dos colores, y otro en el que se pueden indicar gradiente de varios colores y el porcentaje de aplicación de cada uno.
Los otros parámetros que se deben configurar son el radio (en píxeles), que calcularíamos en función de la separación de los puntos que estemos representando, y los píxeles por celda.
Aparte, si la capa está configurada con parámetro temporal y aplicamos dicha leyenda, podríamos visualizar cómo cambian los gradientes en el tiempo. Por ejemplo si representamos una capa de delitos, podríamos ver si las zonas con más delitos han ido cambiando según el tiempo,
En el siguiente vídeo podéis ver su funcionamiento:
-
14:38
Explorer les images Sentinel-2 à l'aide de Sentinel-2 Explorer
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Depuis 2015, la mission Copernicus Sentinel-2 fournit des images optiques pour un large éventail d'applications, notamment la surveillance des terres, des eaux et de l'atmosphère. Elle repose sur une constellation de deux satellites identiques, phasés à 180 degrés, volant en tandem et couvrant l'ensemble des terres et des eaux côtières de la Terre tous les cinq jours.
Chaque satellite embarque un capteur multispectral qui génère des images optiques dans le visible, le proche infrarouge et l'infrarouge court du spectre électromagnétique. Ces images couvrent 13 bandes spectrales à des résolutions de 10, 20 et 60 mètres.
Avec son capteur multispectral et sa large couverture, la mission Sentinel-2 offre non seulement une continuité avec les missions Landsat, mais les élargit également en offrant une plus grande résolution spatiale et des capacités spectrales uniques pour la surveillance de l'agriculture et de la végétation dans le monde entier.
Sentinel-2 permet des applications opérationnelles principalement pour les services terrestres, notamment la surveillance de la végétation, des sols et de la couverture hydrique, ainsi que l'observation des voies navigables intérieures et des zones côtières.
Pour vous aidez à explorer facilement ce type de données, Esri propose l'application "Sentinel-2 Explorer" que je vous propose de découvrir dans cet article sous la forme d'un tutoriel.
Introduction de Sentinel-2 Explorer
Depuis de nombreuses années, un catalogue des images Sentinel-2 multispectrales et multitemporelles corrigées atmosphériquement est disponible sur le Living Atlas ArcGIS. Proposées avec rendus visuels instantanés et indices pour la visualisation et l'analyse, elles comprennent treize bandes multispectrales à des résolutions spatiales de 10, 20 et 60 mètres. Cette couche d'images provient du catalogue de données Sentinel-2 de niveau 2A de Planetary Computer sur Azure, mis à jour quotidiennement avec les dernières images disponibles.
Pour faciliter la recherche et l'exploration de ce catalogue de données, Esri propose désormais l'application Sentinel-2 Explorer est une application ArcGIS Living Atlas qui vous permet de déverrouiller et d'explorer la richesse des informations fournies par Sentinel-2.
L'application offre des fonctionnalités intéressantes :- Exploration visuelle d'une mosaïque globale dynamique des dernières scènes Sentinel-2 disponibles.
- Combinaisons et indices de bandes/polarisation à la volée pour la visualisation et l'analyse.
- Recherche interactive d'une scène par emplacement, capteur, heure et couverture nuageuse.
- Changement visuel au fil du temps, et comparaison de différents rendus, avec modes de balayage et d'animation.
- Analyses telles que le masquage de seuil et les profils temporels pour la végétation, l'eau, etc.
Ouvrir l'application
Sentinel-2 Explorer peut être ouvert depuis la page Applications d'ArcGIS Living Atlas, accessible via l'onglet Applications de la page d'accueil de Living Atlas. L'application peut également être ouverte directement depuis l'aperçu de Sentinel-2 Explorer. Cet aperçu fournit des informations complémentaires sur l'application et le programme Sentinel-2.
Outils essentiels
Les outils suivants sont toujours disponibles et peuvent être utilisés pour naviguer, partager, faire des captures d’écran, etc.
En haut à gauche, vous trouverez des outils pour en savoir plus sur l'application, Zoom, ainsi que les éléments suivants :
a - Zoom sur la résolution native des pixels de l’imagerie Sentinel-1.b - Zoomez sur toute l’étendue de l’image.c - Capturez la vue actuelle de la carte sous forme d’image.d - Copiez un lien vers l'application actuelle. C'est un moyen pratique de sauvegarder tous les paramètres et de partager votre travail.e - Enregistrer une nouvelle instance de Sentinel-2 Explorer dans son état actuel. Cela crée une nouvelle application web ArcGIS Online.
Explorer les scènes Sentinel-2
Mode d'affichage dynamique
L'application s'ouvre par défaut en mode "Vue dynamique". Dans ce mode, les scènes les plus récentes et les moins nuageuses de l'archive Sentinel-2 sont priorisées et fusionnées dynamiquement en une seule couche d'image mosaïquée. À mesure que vous effectuez un panoramique et un zoom, la carte continue de récupérer et de restituer dynamiquement les meilleures scènes disponibles.
L'application s'ouvre dans plusieurs emplacements intéressants, chacun utilisant un moteur de rendu différent mettant en valeur au mieux les caractéristiques spécifiques de l'image. Vous pouvez sélectionner ces emplacements et en savoir plus en suivant les étapes ci-dessous.
Étape 1 - Ouvrez Sentinel-2 Explorer. L'application ouvre un lieu intéressant grâce à un moteur de rendu spécifique, indiqué par les cartes sélectionnées (mises en surbrillance).
Étape 2 - Survolez une carte dans la section Lieux intéressants pour en savoir plus. Cliquez dessus pour zoomer sur le lieu.
Les capteurs multispectraux Sentinel-2 fonctionnent passivement en collectant la lumière solaire réfléchie par la surface terrestre. Les images sont collectées à différentes plages, ou bandes, du spectre électromagnétique. Ces bandes d'images peuvent être combinées pour créer des représentations de la Terre destinées à différentes applications.
Étape 3 - Survolez un moteur de rendu pour en savoir plus. Cliquez sur la carte pour appliquer le moteur de rendu à l'image.
Étape 4 - Cliquez n'importe où sur la carte pour obtenir plus d'informations sur les images Sentinel-2, comme la date et les coordonnées. Les autres informations présentées incluent l'indice d'humidité par différence normalisée (NDMI), l'indice de végétation par différence normalisée (NDVI) et l'indice d'eau par différence normalisée modifié (MNDWI).
Dans la section suivante, vous utiliserez les outils et les paramètres décrits ci-dessus pour en savoir plus sur un domaine spécifique.
Étape 5 - Dans la section "Lieux intéressants" , choisissez "Fucino". Survolez la carte pour en savoir plus sur la région.
Notez que lorsque Fucino est affiché, le rendu IR couleur est appliqué automatiquement. Survolez la carte IR couleur pour en savoir plus ; ce rendu affiche la végétation saine en rouge vif, tandis que la végétation stressée est rouge terne.
Étape 6 - Choisissez le moteur de rendu NDVI et visualisez l'image. Survolez la carte du moteur de rendu pour en savoir plus. Le vert foncé représente une végétation vigoureuse et le marron une végétation clairsemée.
Étape 7 - Explorez davantage en utilisant d'autres lieux et moteurs de rendu intéressants. Utilisez l'outil de recherche en haut à gauche pour trouver d'autres lieux intéressants.
Étape 8 - Utilisez l'outil "Copier le lien" décrit dans la section "Les essentiels de Sentinel-2 Explorer" pour capturer l'état actuel de votre carte pendant votre exploration. Voici quelques exemples :- Désert d'Atacama, Chili, bassins d'évaporation du lithium utilisant le moteur de rendu MNDWI
- Désert d'Atacama, Chili, bassins d'évaporation du lithium utilisant le moteur de rendu NDMI
- Littoral de Belize City avec rendu de couleurs naturelles
- Littoral de Belize City à l'aide du moteur de rendu NDVI
Rechercher des scènes Sentinel-2
Ce mode permet de sélectionner des scènes Sentinel-2 individuelles par année, mois et jour. Dans l'exercice suivant, vous trouverez des scènes couvrant la zone proche du village d'Odeceixe, au Portugal, où plusieurs incendies de forêt se sont déclarés en 2023.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer dans la zone proche d’Odeceixe en mode dynamique.
Étape 2 - Cliquez sur "Rechercher une scène" pour passer en mode scène.
Le calendrier de sélection des scènes s'affiche, affichant les scènes Sentinel-2 disponibles. Les filtres en haut du calendrier vous permettent de trouver les scènes par date et par couverture nuageuse.
Les scènes correspondant à vos critères sont incluses dans le calendrier et celles répondant aux paramètres de date et de couverture nuageuse sont mises en évidence par un remplissage uni.
Pour en savoir plus sur une scène spécifique, passez la souris sur un carré pour afficher l'info-bulle sur la scène.
Ensuite, vous trouverez des scènes disponibles autour de l’époque des incendies de forêt de 2023.
Étape 3 - Cliquez sur la liste déroulante des dates du calendrier et sélectionnez 2023 pour trouver les scènes disponibles pour cette année.
Étape 4 - Choisissez la scène du 7 août 2023.
La scène, utilisant le moteur de rendu Natural Color, montre les énormes panaches de fumée de l'incendie de 2023 soufflant vers l'ouest
Étape 5 - Choisissez un autre moteur de rendu pour visualiser les incendies. Testez différents moteurs de rendu pour trouver celui qui offre la meilleure visualisation.
Exemples :- Couleur naturelle : ce rendu montre la fumée des feux de forêt.
- IR à ondes courtes : ce moteur de rendu coupe à travers la fumée pour montrer les zones en combustion active.
- Rendu urbain : ce rendu montre clairement les zones en feu actif.
Exemple de rendu IR à ondes courtes lors de l'éruption du Mauna Loa le 3 décembre 2022:
Comparer différentes scènes Sentinel-2
Utilisez l'outil de balayage pour comparer les scènes
En mode Glissement , vous pouvez sélectionner deux scènes et les balayer pour comparer visuellement leurs différences. Il est courant de choisir entre des scènes de dates différentes, mais vous pouvez également balayer et comparer différents rendus de la même date, ou combiner les deux. Le balayage est un moyen simple et extrêmement puissant de détecter, d'explorer et d'analyser visuellement les différences et les similitudes entre deux images.
L'incendie de Cameron Peak s'est déclaré près de Chambers Lake, dans le Colorado, le 13 août 2020. Il a ravagé 83 000 hectares dans les forêts nationales d'Arapaho et de Roosevelt, dans les comtés de Larimer et de Jackson, ainsi que dans le Parc National des Rocheuses. Il est devenu le plus grand incendie de forêt de l'histoire du Colorado.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode dynamique avec le moteur de rendu de couleurs naturelles autour de la zone de l’incendie.
Étape 2 - Cliquez sur Balayer pour passer en mode balayage de scène.
Les cases empilées gauche et droite indiquent les scènes sélectionnées pour les côtés gauche et droit du balayage.
Étape 3 - Cliquez sur Gauche et, en suivant le flux de travail de sélection de scène décrit dans la section précédente, sélectionnez la scène du 20 juillet 2020. Il s’agit de la scène Sentinel-2 avant l’incendie.
Étape 4 -Choisissez le moteur de rendu "IR à ondes courtes" pour la scène de gauche.
Étape 5 - Cliquez avec le bouton droit et, en suivant le flux de travail de sélection de scène utilisé à l’étape 3, sélectionnez la scène du 8 octobre 2020. Il s’agit d’une scène après l’incendie.
Étape 6 - Choisissez le moteur de rendu IR à ondes courtes pour la bonne scène.
Votre balayage doit être configuré comme indiqué ci-dessous :
Étape 7 - Utilisez l'outil de balayage pour comparer les deux scènes. L'image de gauche montre les conditions avant l'incendie, tandis que celle de droite montre les conditions après l'incendie. Les zones brûlées sont clairement visibles en rouge dans les scènes utilisant le moteur de rendu IR à ondes courtes .
Étape 8 - Cliquez sur l’image ci-dessous pour la comparer avec votre carte ou ouvrez Sentinel-2 Explorer avec les paramètres d’exercice des étapes ci-dessus.
Animer plusieurs scènes
En mode Animation , vous pouvez sélectionner plusieurs scènes pour créer des animations temporelles captivantes. Une fois votre collection d'images rassemblée, cliquez sur le bouton de lecture pour lancer l'animation. Pendant la lecture, vous pouvez choisir la fréquence d'images et, si vous le souhaitez, exporter votre animation au format MP4 avec la mise en page de votre choix.
À partir de septembre 2023, le fleuve Pineios, en Grèce, a été fortement touché par les inondations généralisées causées par la tempête Elias. Dans le prochain exercice, vous animerez des scènes autour du delta du Pineios.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode dynamique avec le moteur de rendu "Natural Color" dans la zone englobant le delta de Pineios.
Étape 2 – Cliquez sur Animer pour passer en mode animation, puis cliquez sur "Ajouter une scène".
Étape 3 - À l'aide du calendrier de sélection de scènes , ajoutez les scènes suivantes. N'oubliez pas de cliquer sur "Ajouter une scène" pour ajouter des scènes supplémentaires.- 21 août 2023, Couleur naturelle
- 10 septembre 2023, Couleur Naturelle
- 30 septembre 2023, Couleur Naturelle
- 5 octobre 2023, Couleur Naturelle
- 10 octobre 2023, Couleur Naturelle
- 30 octobre 2023, Couleur Naturelle
Étape 4 - Une fois terminé, cliquez sur la flèche en bas de la liste des scènes pour lire l’animation.
Étape 5 - Utilisez les commandes de lecture pour (de gauche à droite) :- Ajustez la vitesse de l'animation.
- Capturez un lien vers l'animation.
- Téléchargez l'animation au format MP4.
- Pause/Lecture.
- Désactivez les commandes de lecture.
Astuce : après avoir ajusté la vitesse, vous pouvez mettre les animations en pause et utiliser le lien sur la barre d'outils de lecture ou la barre d'outils qui apparaît en haut à droite de l'application pour enregistrer les paramètres d'animation actuels.
Étape 6 - Cliquez sur l’image ci-dessous pour la comparer avec votre carte ou ouvrez Sentinel-2 Explorer avec les paramètres de l’exercice.
L'animation ci-dessous montre les variations saisonnières de l'irrigation des champs agricoles à pivot central dans le désert près de Tubarjal, en Arabie saoudite, tout au long de 2024. Cliquez sur l'image pour ouvrir "Sentinel-2 Explorer" avec l'animation.
Analyser vos scènes Sentinel-2
Analyser : Masque d'index
Utilisez des indices spectraux, dérivés de l'arithmétique des bandes , pour mesurer l'abondance relative d'éléments tels que l'eau, l'humidité et la végétation. En déplaçant le curseur, un masque s'affiche dynamiquement à l'écran, indiquant les zones respectant les seuils spécifiés. Vous pouvez également utiliser ce masque pour découper l'image et n'afficher que les pixels d'origine respectant les seuils spécifiés.
Dans ce prochain exercice, vous examinerez l’indice hydrique dans une région du nord du Canada.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer dans une zone du nord-ouest de la province de la Saskatchewan, en utilisant une scène capturée le 8 août 2024, affichée à l’aide du moteur de rendu Natural Color.
Étape 2 - Cliquez sur "Analyser", puis choisissez "Masque d’index" .
Étape 3 - Choisissez "Indice d’eau" dans la liste déroulante "Index".
Étape 4 -Ajustez le curseur aux valeurs souhaitées. Notez que la zone de masque calculée s'ajuste.
Étape 5 - (Facultatif) Expérimentez en utilisant les options "Découper pour masquer" et colorer.
Étape 6 - Utilisez l’outil "Copier le lien" pour capturer les paramètres actuels.
Les zones présentant l'indice hydrique le plus élevé sont mises en évidence. Cliquez sur l'image ci-dessous pour l'agrandir et la comparer à votre carte, ou ouvrez Sentinel-2 Explorer pour accéder aux paramètres enregistrés lors des étapes de l'exercice précédent.
Vous pouvez maintenant expérimenter cette fonctionnalité avec d’autres emplacements et d’autres masques d’index.
Analyser : Profil temporel
Grâce à l'outil "Profil temporel", vous pouvez détecter des tendances catégorielles au fil du temps, notamment en matière d'humidité, de végétation et d'eau. Vous pouvez également sélectionner l'intervalle de temps : annuel ou mensuel.
Lorsque vous sélectionnez "Annuel", vous pouvez spécifier le mois cible pour l'échantillonnage annuel. Cette option est idéale pour identifier les tendances à long terme. Lorsque vous sélectionnez "Mensuel", vous spécifiez l'année cible et les 12 mois de cette année seront échantillonnés. L'option mensuelle est utile pour observer les tendances saisonnières et les fluctuations tout au long de l'année.
Dans cet exercice, vous examinerez le profil temporel du bassin du lac Tulare, en Californie centrale. Cette zone a été inondée au printemps/été 2023. L'utilisation du profil temporel annuel met en évidence le pic d'inondation.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode d’affichage dynamique dans la zone du bassin du lac Tulare à l’aide du moteur de rendu Agriculture.
Étape 2 - Cliquez sur "Analyser", puis choisissez "Profil temporel".
Étape 3 - À l’aide du calendrier de sélection de scène , choisissez le 21 avril 2023.
Cette scène montre clairement le lac peu profond dans la zone agricole du bassin du lac Tulare en bleu.
Étape 4 - Cliquez n’importe où dans la zone bleu foncé.
Étape 5 - Choisissez "Eau" comme tendance dans la liste déroulante. Sélectionnez "Annuel" comme intervalle de temps. Notez le pic en avril 2023.
Étape 6 - Choisissez "Végétation" comme tendance dans la liste déroulante. Sélectionnez "Annuel" comme intervalle de temps. Notez le pic inversé pour la même période en avril 2023.
Étape 7 - Expérimentez en cliquant sur d’autres zones et en passant des tendances annuelles aux tendances mensuelles.
Étape 8 - Utilisez l’outil "Copier le lien" pour capturer les paramètres actuels.
Cliquez sur l'image ci-dessous pour afficher une version plus grande à comparer à votre carte, ou ouvrez Sentinel-2 Explorer en utilisant les paramètres enregistrés à partir des étapes de l'exercice ci-dessus.
Analyser : Profil spectral
L'imagerie multispectrale fournit des mesures des différentes quantités de lumière réfléchies par différents matériaux, autrement dit de leurs réponses spectrales. En collectant des échantillons de la réponse spectrale d'un même type de matériau à la surface de la Terre, il est possible d'établir une signature spectrale pour ce matériau.
Pour utiliser l’outil Profil spectral, cliquez sur "Analyser", puis sur "Profil spectral".
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode profil spectral dans une zone le long du Nil près de Gizeh, en Égypte, le 2 janvier 2025.
Étape 2 - Cliquez sur l’une des zones vert foncé au centre de la scène pour afficher le profil.
Étape 3 - Cliquez sur l’une des zones marron clair pour afficher le profil.
Étape 4 - Cliquez sur l’une des zones gris foncé pour afficher le profil.
Étape 5 - Cliquez sur le bouton "Développer" dans la fenêtre "Profil" pour afficher tous les profils.
Étape 6 - Expérimentez en cliquant sur d’autres zones ou scènes et en examinant les profils spectraux.
Analyser : Détection des changements
Dans ce mode, vous pouvez sélectionner deux scènes et calculer leur différence. Vous pouvez créer des masques de changement basés sur les indices de végétation, d'eau ou d'humidité. La création d'images de différence vous permet ensuite de réaliser des analyses plus approfondies, comme l'estimation des pertes de forêt et de végétation en cas d'incendie de forêt.
En utilisant des images similaires avant et après l'incendie de Cameron Peak dans l'exemple de balayage ci-dessus, nous pouvons calculer la différence de végétation entre les images pour créer un masque de différence.
Étape 1 - Cliquez sur le bouton ci-dessous pour ouvrir Sentinel-2 Explorer en mode détection de changement. Les deux scènes (Scène A et Scène B) ont déjà été sélectionnées pour être affichées avant et après l'incendie à l'aide du moteur de rendu IR à ondes courtes.
Étape 2 - Cliquez sur Afficher Changer la scène A – Scène B.
Étape 3 - Choisissez l’indice de végétation dans la liste déroulante Modifier, puis ajustez les sélecteurs de plage.
Notez que la zone de changement estimée s'ajuste à mesure que vous ajustez la portée, fournissant une délimitation visuelle approximative et une surface de la perte de végétation due à l'incendie.
Cliquez sur l'image ci-dessous pour afficher une version plus grande à comparer à votre carte, ou ouvrez Sentinel-2 Explorer en utilisant les paramètres enregistrés à partir des étapes de l'exercice ci-dessus.
Étape 4 - Expérimentez en choisissant d’autres scènes et dates.
Conclusion
Alimentée par l'imagerie multispectrale Sentinel-2 de niveau 2A d'ArcGIS Living Atlas et conçue avec le SDK ArcGIS Maps pour JavaScript, l'application Sentinel-2 Explorer offre une simplicité d'utilisation et un accès sans précédent à l'intégralité des archives de produits scientifiques Sentinel-2 de niveau 2A. J'espère que cet article vous aura permis de découvrir un peu le potentiel de cette application. Pour mémoire, avec un objectif similaire, Esri propose également depuis quelques années l'application Landsat Explorer.
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
11:00
Mappery: A Reader’s Guide to Western Massachusetts Bookshops
sur Planet OSGeoDoug G spotted this, very useful if you are in Western Massachusetts
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.