Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Feeds
6316 items (1 unread) in 55 feeds
-
Cybergeo
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique
-
Mappemonde
-
Dans les algorithmes

-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier (1 unread)
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR
-
Géoblogs (GeoRezo.net)
-
Conseil national de l'information géolocalisée
-
Geotribu
-
Les cafés géographiques
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Icem7
-
Séries temporelles (CESBIO)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques
-
Veille cartographie
-
Makina Corpus
-
Oslandia
-
Camptocamp
-
Carnet (neo)cartographique
-
Le blog de Geomatys
-
GEOMATIQUE
-
Geomatick
-
CartONG (actualités)
Unread items (1)
-
11:49
Nouveautés d'ArcGIS Reality Studio 2025.1
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Avec de nombreuses évolutions et innovations depuis près de 2 ans maintenant, le moteur de photogrammétrie numérique du système ArcGIS devient désormais une des références du marché. Ce dernier permet, à travers différentes applications comme ArcGIS Drone2Map, Site Scan for ArcGIS, ArcGIS Reality for Pro ou ArcGIS Reality Studio, de créer des contenus 2D et 3D de haute-qualité à partir d'images collectées par drone, par avion ou satellite. Ce moteur de "Reality Capture" évolue rapidement et je m'en fait l'écho régulièrement à l'occasion de la mise à jour de ces différentes applications.
Aujourd'hui, Esri annonce la version 2025.1 d'ArcGIS Reality Studio, l'application la plus complète pour réaliser vos workflows de création de photomaillages 3D, d'orthophotos "vraies", de MNT/MNS, de nuages de points,... à partir de données d'imagerie aéroportée (drone, avion, satellite). Je vous propose un aperçu des principales fonctionnalités et améliorations de la version de mai 2025.
Utiliser des données LiDAR comme entrée supplémentaire
Vous pouvez désormais compléter vos images en entrée avec des données LiDAR pour améliorer les reconstructions 3D, notamment en zone urbaine ou pour les bâtiments à surfaces réfléchissantes. Cette amélioration garantit de meilleurs résultats dans les zones fortement occultées, comme les zones urbaines avec de grands immeubles, et permet de reconstruire plus précisément les bâtiments aux surfaces hautement réfléchissantes. L'utilisation du lidar comme entrée supplémentaire peut également améliorer les résultats dans les zones fortement ombragées.
Vous en apprendrez plus sur cette nouvelle fonctionnalité dans ce court tutoriel :
Nouvelles capacités d'édition des photomaillages 3D (3D Meshes)
De nouveaux outils intégrés font leur apparition pour vous permettent de modifier des photomaillages 3D directement dans ArcGIS Reality Studio. Ces outils vous aideront à corriger rapidement les problèmes, comme les espaces vides sur les surfaces réfléchissantes, sans avoir à retraiter l'intégralité du photomaillage 3D.
Vous en apprendrez plus sur cette nouvelle fonctionnalité dans ce court tutoriel :
De plus, vous pouvez créer des "géométries de contrôle qualité" pour marquer des zones spécifiques pour un retraitement ciblé, les exporter pour des modifications avancées à l'aide d'applications tierces, puis réimporter les nouveaux modèles dans Reality Studio pour un retraitement, qui les intègre ensuite dans le photomaillage final.
Vous en apprendrez plus sur cette amélioration dans ce court tutoriel :
Les nouveaux outils et fonctionnalités ajoutés pour l'édition de maillage sont passionnants et si vous souhaitez en savoir plus sur ces améliorations, un prochain article arcOrama expliquera ce processus en détails.
Plus de capacités lors de l'export de vos photomaillages 3D
Les fonctionnalités de l'outil d'export ont été étendues pour offrir davantage d'options. Vous pouvez désormais générer des formats de photomaillage supplémentaires, exporter des zones plus petites, appliquer des corrections de couleur pour les rendre plus vives ou supprimer les effets atmosphériques, et appliquer des décalages verticaux pour corriger les problèmes d'élévation. Ces fonctionnalités offrent une plus grande flexibilité et un meilleur contrôle sur vos résultats finaux.
Améliorations de l'alignement
-
Vue "Galerie" : La vue "Galerie" affiche désormais davantage d'images
simultanément, permettant une mesure manuelle plus rapide des points de
contrôle au sol et des contrôles de précision plus rapides.
Vous pouvez regarder ce court tutoriel pour en savoir plus sur cette amélioration :
- Optimisation d'image distribuée et extraction d'entités : les étapes d'optimisation et d'extraction d'entités sont désormais plus rapides grâce au traitement distribué. Cela réduit considérablement le temps nécessaire à l'alignement des images.
- Prise en charge de la séquence d'angles de rotation Phi-Omega-Kappa : les utilisateurs peuvent désormais importer directement les angles d'orientation donnés dans l'ordre de rotation Phi-Omega-Kappa, ce qui est typique des systèmes de caméra Vexcel.
Autres améliorations
- Mises à jour plus rapides des résultats de reconstruction : l'application de géométries de correction ou de géométries de plan d'eau est désormais plus rapide, car seules les zones affectées sont retraitées.
- Photomaillages 3D optimisés pour un meilleur streaming : les maillages sont désormais optimisés pour des performances de rendu améliorées, en particulier pour les applications mobiles, Web et AR/VR, et ils occupent moins de stockage sur disque.
- Sélecteur de référence spatiale : lorsque vous importez ou créez de nouveaux éléments, vous pouvez désormais choisir de copier la référence spatiale d'un élément existant de votre projet. Cela simplifie l'importation.
- Le gestionnaire de processus a été simplifié grâce au regroupement des tâches selon leur état de traitement. Cela facilite la recherche et la gestion de vos projets.
J'espère que ces nouvelles fonctionnalités et ces améliorations optimiseront vos flux de travail de photogrammétrie umérique et vous permettront d'optimiser encore davantage vos performances avec ArcGIS Reality Studio. Pour plus de détails sur ces fonctionnalités, vous pouvez également consulter cette page de la documentation.
Si vous avez des questions ou des idées, n'hésitez pas à les communiquer aux équipes ArcGIS Reality Studio d'Esri via les pages dédiées la communauté Esri.
-
Vue "Galerie" : La vue "Galerie" affiche désormais davantage d'images
simultanément, permettant une mesure manuelle plus rapide des points de
contrôle au sol et des contrôles de précision plus rapides.
Recent items
-
11:26
Insurers Retreating From Climate-Risk Zones
sur Google Maps ManiaFor many Americans, one of the consequences of climate change is higher insurance premiums. In Homeowners Insurance in an Era of Climate Change, the Brookings Institution maps U.S. Treasury Federal Insurance Office data to show where home insurance is becoming more costly and harder to obtain for millions of Americans.One way this is happening is through non-renewals of homeowners insurance. A
-
11:00
Mappery: La Via Dell’ Ambra
sur Planet OSGeoDoug spotted this “The amber trail in Europ – Bassano del Grappa Italy
-
8:26
Le Chatbot IA du Support Esri a répondu à 200 000 questions !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Depuis sa sortie en 2023, Esri a régulièrement continuellement mis à jour les fonctionnalités du Chatbot IA de support aux utilisateurs. Nous sommes passés d'un simple modèle de questions-réponses à des fonctionnalités conversationnelles avancées, et Esri a diffusé le Chatbot sur le site web du support Esri et avons ajouté la possibilité d'analyser les messages d'erreur pour trouver rapidement des solutions. Esri enrichit également régulièrement la bibliothèque de ressources du Chatbot et l'intégre à davantage de systèmes d'information, comme par exemple le tableau de bord de santé d'ArcGIS Online. Plus récemment, nous avons veillé à ce qu'il soit parfaitement informé sur ArcGIS Pro 3.5 et ArcGIS Enterprise 11.5.
Aujourd'hui petit point d'étape, ces améliorations qualitatives ont encouragé les utilisateur ArcGIS à poser plus de 200 000 questions ! L'accès à cette vaste bibliothèque de documentation technique dépasse même la recherche traditionnelle.
Des solutions par produit
Avec 23 % des questions posées, les utilisateurs ont surtout posé des questions spécifiquement sur ArcGIS Pro. Pour garantir que le Chatbot apporte les solutions pertinentes, Esri le tient à jour avec les notes de version et les nouvelles fonctionnalités, ainsi qu'avec des informations détaillées sur toutes les versions précédentes. Le chatbot répondra à vos questions sur le cycle de vie de Pro, les correctifs et les problèmes courants : tout ce qui est disponible pour résoudre les problèmes dans Pro.
Bien entendu, Esri maintient ces informations à jour pour tous les autres produits. C'est pourquoi les utilisateurs peuvent compter sur le Chatbot pour obtenir des réponses à leurs questions sur ArcGIS Online et ArcGIS Enterprise, qui représentent chacun 15 % des questions. On notera aussi que 7 % des questions concernent ArcGIS Survey123.
Les 40 % restants concernent toutes les autres technologies, d'ArcGIS AllSource à ArcGIS Workforce en passant par ArcGIS Urban, ArcGIS Indoors, ArcGIS FieldMaps ou ArcGIS QuickCapture. Si des informations publiques, vérifiées par Esri, peuvent vous être utiles, nous avons tout mis en œuvre pour les inclure dans le chatbot.
Solutions par catégorie
Le Chatbot est également disponible pour gérer certains des problèmes les plus courants et les plus complexes rencontrés par les utilisateurs de SIG. La plupart des questions, quelle que soit la catégorie, concernent, bien entendu, les erreurs. C'est l'une des raisons pour lesquelles Esri a intégré dans le Chatbot la fonctionnalité d'analyse des erreurs dans l'application d'assistance Esri. Nous souhaitions vous aider à trouver des solutions rapidement et facilement.
Le Chatbot est également là pour vous aider dans la gestion des données, la publication, l'installation, la création de scripts et l'octroi de licences, ainsi que pour toute autre question que vous pourriez avoir concernant les produits Esri.
Obtenir des réponses toujours plus rapidement à ses questions
Esri fait le maximum pour que vous ayez toujours accès aux informations dont vous avez besoin. Grâce aux analystes du support Esri France et au Chatbot, vous avez l'assurance que votre projet SIG et ses implémentations bénéficient d'une prise en charge complète. En cas de problème, essayez d'abord le Chatbot sur le site d'assistance Esri ou via l'application mobile du support Esri.
Cette application propose également l'envoi de notifications en cas d'incidents sur la plateforme SaaS ArcGIS Online. Téléchargez-la dès maintenant sur l'App Store ou Google Play pour accéder à des outils de recherche de réponses.
Dans un avenir proche, vous pourrez également bénéficier d'assistants d'IA pour interagir, dans un mode conversationnel, avec à la documentation des applications ArcGIS. Nous en reparlerons le moment venu sur arcOrama...
-
7:00
Ecrire le code du numérique
sur Dans les algorithmesC’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un groupe de travail pour visibiliser le vécu collectif des souffrances individuelles des plus précaires face au déploiement du numérique, donnant naissance au Comité humain du numérique. “La digitalisation de la société n’a pas entraîné une amélioration généralisée des compétences numériques”, rappelle le Comité en s’appuyant sur le baromètre de l’inclusion numérique belge.
Le Comité humain du numérique s’installe alors dans les quartiers et, avec les habitants, décide d’écrire un Code de loi : “Puisque l’Etat ne nous protège pas, écrivons les lois à sa place”. Rejoints par d’autres collectifs, le Comité humain se met à écrire la loi avec les habitants, depuis les témoignages de ceux qui n’arrivent pas à accomplir les démarches qu’on leur demande. Manifestations, séances d’écriture publique, délibérations publiques, parlement de rues… Le Comité implique les habitants, notamment contre l’ordonnance Bruxelles numérique qui veut rendre obligatoire les services publics digitalisés, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnée par le collectif Lire et écrire et plus de 200 associations. Devant le Parlement belge, le Comité humain organise des parlements humains de rue pour réclamer des guichets ! Suite à leur action, l’ordonnance Bruxelles numérique est amendée d’un nouvel article qui détermine des obligations pour les administrations à prévoir un accès par guichet, téléphone et voie postale – mais prévoit néanmoins la possibilité de s’en passer si les charges sont disproportionnées. Le collectif œuvre désormais à attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numérique.
Mais l’essentiel n’est pas que dans la victoire à venir, mais bien dans la force de la mobilisation et des propositions réalisées. Le Code du numérique ce sont d’abord 8 articles de lois amendés et discutés par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problème”. Que cet accès doit être sans condition, c’est-à-dire gratuit, avec des temps d’attente limités, “sans rendez-vous”, sans obligation de maîtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coût ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller à cette accessibilité humaine et qu’il doit proposer aux citoyen.nes des procédures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est à l’Etat d’évaluer l’utilité et l’efficacité des nouveaux outils numériques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrôler. Que cette évaluation doit associer les utilisateurs, que leurs impacts doivent être contrôlés, limités et non centralisés. L’article 3 rappelle que l’Etat doit créer ses propres outils et que les démarches administratives ne peuvent pas impliquer le recours à un service privé. L’article 4 suggère de bâtir des alternatives aux solutions numériques qu’on nous impose. L’article 5 suggère que leur utilisation doit être contrainte et restreinte, notamment selon les lieux ou les âges et souligne que l’apprentissage comme l’interaction entre parents et écoles ne peut être conditionnée par des outils numériques. L’article 6 en appelle à la création d’un label rendant visible le niveau de dangerosité physique ou mentale des outils, avec des possibilités de signalement simples. L’article 7 milite pour un droit à pouvoir se déconnecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compétences humaines et de la rencontre physique, notamment dans le cadre de l’accès aux soins. “Tout employé.e/étudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face à face un responsable sur un lieu physique”. L’introduction de nouveaux outils numériques doit être développée et validée par ceux qui devront l’utiliser.
Derrière ces propositions de lois, simples, essentielles… la vraie richesse du travail du Comité humain du numérique est de proposer, de donner à lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontés à la transformation numérique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protéger de tout ça.” Anthony : “Internet devait être une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numérique me surresponsabilise et rend le public surdépendant de moi. Je suis le dernier maillon de la chaîne, l’échec social passe par moi. Je le matérialise”. Amina : “Je ne sais pas lire, je ne sais pas écrire. Mais je sais parler. Le numérique ne me laisse pas parler”. Aïssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numérique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numérique est utilisé pour décourager les démarches”, puisque bien souvent on ne peut même pas répondre à un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numérisées, car elles n’entrent pas dans les cases. La passation d’information est devenue très difficile”… Le Code du numérique nous “redonne à entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.
Le Code du numérique nous rappelle que désormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nécessaire pour presque la moitié de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrêter derrière un téléphone qui sonne dans le vide. Que “la digitalisation des services publics et privés donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prédéfinies.Le Code du numérique n’est pas qu’une expérience spécifique et située, rappellent ses porteurs. “Il est là pour que vous vous en empariez”. Les lois proposées sont faites pour être débattues, modifiées, amendées, adaptées. Les auteurs ont créé un jeu de cartes pour permettre à d’autres d’organiser un Parlement humain du numérique. Il détaille également comment créer son propre Comité humain, invite à écrire ses propres lois depuis le recueil de témoignages des usagers, en ouvrant le débat, en écrivant soi-même son Code, ses lois, à organiser son parlement et documente nombre de méthodes et d’outils pour interpeller, mobiliser, intégrer les contributions. Bref, il invite à ce que bien d’autres Code du numérique essaiment, en Belgique et bien au-delà ! A chacun de s’en emparer.
Le Code du numérique.
-
11:00
Mappery: The MapWoman at GeomobBER
sur Planet OSGeoEnclosure: [download]
Chiara Phillips presented at Geomob Berlin with a MapsInTheWild-approved dress code.
Tonight is the Geomob London event, will anyone wear maps in the wild?
-
10:11
The Reforestation Interactive Map
sur Google Maps ManiaThe Nature Conservancy has released a new interactive map identifying 195 million hectares around the world where forest cover could be restored."Reforesting these areas could capture 2.2 billion tonnes of CO? per year, equivalent to removing 481 million passenger vehicles driven for one year."Click on a country on the Reforestation Hub map to see how much land could be reforested, how many
-
9:00
Makina Corpus : conférence sur le DbToolsBundle au BreizhCamp 2025
sur Makina CorpusNotre expert Symfony anime une conférence sur le DbToolsBundle au BreizhCamp 2025, du 25 au 27 juin à Rennes.
-
7:00
Chatbots, une adoption sans impact ?
sur Dans les algorithmesDans sa dernière newsletter, Algorithm Watch revient sur une étude danoise qui a observé les effets des chatbots sur le travail auprès de 25 000 travailleurs provenant de 11 professions différentes où des chatbots sont couramment utilisés (développeurs, journalistes, professionnels RH, enseignants…). Si ces travailleurs ont noté que travailler avec les chatbots leur permettait de gagner du temps, d’améliorer la qualité de leur travail, le gain de temps s’est avéré modeste, représentant seulement 2,8% du total des heures de travail. La question des gains de productivité de l’IA générative dépend pour l’instant beaucoup des études réalisées, des tâches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus élevés pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiés ni incitations supplémentaires, la plupart des effets positifs sont vains”.
Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutôt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.
-
6:33
Map Myths, un blog à découvrir sur les mythes cartographiques
sur Cartographies numériquesLe blog Map Myths, créé par Henry Patton, s'intéresse aux histoires et légendes associées à des lieux figurant sur des cartes historiques aujourd'hui disparus. Pourquoi ont-ils disparu et comment les cartographes ont-ils imaginé ces espaces vides au-delà du monde connu ? Une carte interactive donne accès à l'ensemble des mythes cartographiques commentés sur le site.
Map Myths a débuté sous la forme d'une carte interactive, mêlant une géographie fantomatique à une vision du monde moderne. Le blog a été lancé fin 2024 pour approfondir l'histoire et les personnages de ces mythes.
Carte interactive donnant accès aux différentes histoires et légendes (source : Map Myths)
Henry Patton (@mapmyths.com), créateur et auteur de ce site web, est titulaire d'un doctorat en glaciologie. Il a toujours été passionné par les cartes et leur histoire. « J'adore passer des heures à fouiller dans les archives et les sources originales des cartographes, explorateurs, pirates, baleiniers du passé, pour vous livrer ces récits fascinants des profondeurs de l'histoire ».
Articles disponibles (juin 2025) :
- Les 5 erreurs de cartographie les plus notoires de l'ère moderne
- Meurtre au pôle Nord ?
- Ce qui était faux (et étonnamment vrai) dans la carte de l'Arctique de Mercator de 1595
- « Le plus grand menteur du Pacifique »
- Les Chinois ont-ils découvert l’Amérique 1 000 ans avant Colomb ?
- La rivalité autour du Groenland un siècle avant Trump
- L'homme derrière le mythe qui préfigurait l'Antarctique
- La ruée vers l'or du XVIe siècle qui a divisé le Groenland en deux
- Comment une île perdue a paniqué les astronomes
- La double vie de Giles Land
La Lémurie : le mythe d'un continent englouti. La cartographie entre science et imaginaire
Articles connexes
Le voyage d'Ulysse. Comment cartographier un mythe ?
Derrière chaque carte, une histoire. La cartographie du détroit de Magellan entre science et imaginaire
L'histoire par les cartes : entre faits et légendes, la cartographie du fleuve Amazone du XVIe au XVIIIe siècle (Gallica)
L'histoire par les cartes : les créatures marines monstrueuses d'Olaus Magnus
Les monts de Kong en Afrique : une légende cartographique qui a duré près d'un siècle !
Cartes et atlas historiques
Cartes et atlas imaginaires
-
22:43
Fernando Quadro: Instalação do GeoNode no Ubuntu 22.04
sur Planet OSGeoPrezados leitores,
Neste post irei apresentar como você pode instalar o GeoNode via Docker em uma máquina rodando o Ubuntu Linux 22.04. Ao final dessa instalação você estará com uma instância do GeoNode executando no seu localhost.
Sem enrolação, vamos aos passos:
1. Instalar os pacotes do S.O
> sudo add-apt-repository universe > sudo apt-get update -y > sudo apt-get install -y git-core git-buildpackage debhelper devscripts python3.10-dev python3.10-venv virtualenvwrapper > sudo apt-get install -y apt-transport [https] ca-certificates curl lsb-release gnupg gnupg-agent software-properties-common vim
2. Adicionar os repositórios do Docker
> sudo mkdir -p /etc/apt/keyrings > curl -fsSL [https:] | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg > sudo chmod a+r /etc/apt/keyrings/docker.gpg > echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] [https:] $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
3. Adicionar os pacotes do Docker
> sudo apt-get update -y > sudo apt-get install -y docker-ce docker-ce-cli containerd.io docker-compose > sudo apt autoremove --purge > sudo reboot
4. Adicionar seu usuário ao grupo docker
> sudo usermod -aG docker ${USER} > su ${USER}
5. Preparar o ambiente
> sudo mkdir -p /opt/geonode_custom/ > sudo usermod -a -G www-data geonode > sudo chown -Rf geonode:www-data /opt/geonode_custom/ > sudo chmod -Rf 775 /opt/geonode_custom/
Dica: Se o nome do seu usuário não for geonode, substitua pelo nome do seu usuário na linha 2 e 3 acima.
6. Clonar o código fonte
> cd /opt/geonode_custom/ > git clone [https:] -b 4.4.2
Dica: É importante ressaltar que o número que você passar após o -b é na realidade a versão que você quer baixar/instalar do GeoNode
7. Criar uma instância do Django
> source /usr/share/virtualenvwrapper/virtualenvwrapper.sh > mkvirtualenv --python=/usr/bin/python3 my_geonode > pip install Django==3.2.13 > django-admin startproject --template=./geonode-project -e py,sh,md,rst,json,yml,ini,env,sample,properties -n monitoring-cron -n Dockerfile my_geonode > cd /opt/geonode_custom/my_geonode
OBS: Chamaremos nossa instância de my_geonode. Você pode alterar o nome conforme desejar.
8. Criar o arquivo .env
> python create-envfile.py
9. Construa os containers
> docker-compose -f docker-compose.yml build --no-cache
10. Finalmente execute o container
> docker-compose -f docker-compose.yml up -d
Agora é só aguardar todos os containers aparecerem como done, e você já pode acessar o GeoNode no seu navegador digitando [localhost]
Se você quiser mais detalhes sobre a instalação basta acessar a documentação oficial do GeoNode, clicando aqui.
-
11:00
Mappery: Valpolicella
sur Planet OSGeoDoug shared this “Valpolicella Wine Region @ Tenuta Santa Maria di Gaetano Bertani Winery. Beautiful relief map
-
9:00
Où en est Geotrek-Admin en 2025 ?
sur Makina CorpusDepuis 2023, Goetrek-Admin connait de nombreuses évolutions tant du côté fonctionnel que technique et son écosystème continue de se structurer, de s’enrichir grâce aux contributions de la communauté, et de s’ouvrir à d’autres outils.
-
8:42
When Ocean Currents Collapse
sur Google Maps ManiaAMOC Collapse VisualizationA new study suggests that global warming could paradoxically plunge Europe into dramatic cooling, leading to severe winter cold spells, more intense storms, and reduced rainfall. Average winter temperatures could plunge, sea ice could spread as far south as the British Isles, and nearly half the year could see temperatures below freezing.The Atlantic Meridional
-
7:00
Pour une science de la subjectivité
sur Dans les algorithmes« J’aimerais vous confronter à un problème de calcul difficile », attaque Albert Moukheiber sur la scène de la conférence USI 2025. « Dans les sciences cognitives, on est confronté à un problème qu’on n’arrive pas à résoudre : la subjectivité ! »
Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary éditions 2019) et de Neuromania (Allary éditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau.
Où est le neurone ?« Contrairement à d’autres organes, un cerveau mort n’a rien à dire sur son fonctionnement. Et pendant très longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau ». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activité, sont assez récentes et demeurent bien peu précises. Pour cela, il faut être capable de mesurer son activité, de voir où se font les afflux d’énergie et l’activité chimique. C’est seulement assez récemment, depuis les années 1990 surtout, qu’on a développé des technologies pour étudier cette activité, avec les électro-encéphalogrammes, puis avec l’imagerie par résonance magnétique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les médecins vous prescrivent. Elle mesure la matière cérébrale permettant de créer une image en noir et blanc pour identifier des maladies, des lésions, des tumeurs. Mais elle ne dit rien de l’activité neuronale. Seule l’IRM fonctionnelle observe l’activité, mais il faut comprendre que les images que nous en produisons sont peu précises et demeurent probabilistes. Les images de l’IRMf font apparaître des couleurs sur des zones en activité, mais ces couleurs ne désignent pas nécessairement une activité forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentées en oxygène et en sang. L’IRMf fonctionne par soustraction des images passées. Le patient dont on mesure l’activité cérébrale est invité à faire une tâche en limitant au maximum toute autre activité que celle demandée et les scientifiques comparent ces images à des précédentes pour déterminer quelles zones sont affectées quand vous fermez le poing par exemple. « On applique des calculs de probabilité aux soustractions pour tenter d’isoler un signal dans un océan de bruits », précise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cérébrale pour une tâche donnée, mais « une reconstruction a posteriori de la probabilité qu’une aire soit impliquée dans cette tâche ». En fait, les couleurs indiquent des probabilités. « Ces couleurs n’indiquent donc pas une intensité d’activité, mais une probabilité d’implication ». Enfin, les mesures que nous réalisons n’ont rien de précis, rappelle le chercheur. La précision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygène, alors que la circulation sanguine est bien plus lente que les échanges chimiques de nos neurones. Enfin, le traitement de données est particulièrement complexe. Une étude a chargé plusieurs équipes d’analyser un même ensemble de données d’IRMf et n’a pas conduit aux mêmes résultats selon les équipes. Bref, pour le dire simplement, le neurone est l’unité de base de compréhension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications établies à partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance réelle qu’autre chose. D’où l’enjeu à prendre les résultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses à l’imagerie cérébrale » et c’est assurément ce qui explique qu’elle soit si utilisée.
Les données ne suffisent pasDans les années 50-60, le courant de la cybernétique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait étudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modéliser le cerveau à l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idées d’une théorie de l’information qui va permettre de créer des « neurones artificiels », qui ne portent ce nom que parce qu’ils ont été créés pour fonctionner sur le modèle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considéré comme la première machine à utiliser un réseau neuronal artificiel. Mais on a bien plus appliqué le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber.
Aujourd’hui, l’Intelligence artificielle et ses « réseaux de neurones » n’a plus rien à voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider à faire des prothèses adaptées comme les BCI, Brain Computer Interfaces.
Désormais, faire de la science consiste à essayer de comprendre comment fonctionne le monde naturel depuis un modèle. Jusqu’à récemment, on pensait qu’il fallait des théories pour savoir quoi faire des données, mais depuis l’avènement des traitements probabilistes et du Big Data, les modèles théoriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de même demandé si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. Malgré l’arsenal d’outils à leur disposition, les chercheurs qui s’y sont essayé ont été incapables de produire un modèle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nécessite pas seulement des informations techniques ou des données, mais avant tout des concepts pour les organiser. En fait, avoir accès à une quantité illimitée de données ne suffit pas à comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposé une expérience de pensée avec son article « Quel effet ça fait d’être une chauve-souris ? ». Même si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’être une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intérieure d’autrui. Que la subjectivité des autres nous échappe toujours. C’est là le difficile problème de la conscience.
Albert Moukheiber sur la scène d’USI 2025. La subjectivité nous échappe
Une émotion désigne trois choses distinctes, rappelle Albert Moukheiber. C’est un état biologique qu’on peut tenter d’objectiver en trouvant des modalités de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs très différentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nécessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent être émues par un même coucher de soleil, mais sont-elles émues de la même manière ? »
Notre réductionnisme objectivant est là confronté à des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problèmes, notamment dans le monde de l’entreprise comme dans celui de la santé mentale.
Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariés et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scène. Les notes des étudiants leurs rappellent que le but est de réussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liés au nombre d’opérations réussies, les chirurgiens réalisent bien plus d’opérations faciles que de compliquées. Quand on mesure les humains, ils ont tendance à modifier leur comportement pour se conformer à la mesure, ce qui n’est pas sans effets rebond, à l’image du célèbre effet cobra, où le régime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les éradiquer, mais qui a poussé à leur démultiplication pour toucher la prime. En entreprises, nombre de mesures réalisées perdent ainsi très vite de leur effectivité. Moukheiber rappelle que les innombrables tests de personnalité ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisé reste le MBTI qui a été développé dans les années 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre théorique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques années), mais surtout, « ce sont nos croyances qui sont déphasées. Beaucoup de personnes pensent que la personnalité des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs était surtout un bel enfoiré ! », comme nombre de ces « grands » entrepreneurs que trop de gens portent aux nues. Comme nous le rappelions nous-mêmes, la recherche montre en effet que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité. « Ces tests nous demandent d’y répondre personnellement, quand ce devrait être d’abord à nos collègues de les passer pour nous », ironise Moukheiber. Ils supposent surtout que la personnalité serait « stable », ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-être bien plus d’importance que la personnalité : les compétences, le fait de bien s’entendre avec les autres, le niveau de rémunération, le cadre de travail… Mais surtout, ils ont tous un effet « barnum » : n’importe qui est capable de se reconnaître dedans. Dans ces tests, les résultats sont toujours positifs, même les gens les plus sadiques seront flattés des résultats. Bref, vous pouvez les passer à la broyeuse.
Dans le domaine de la santé mentale, la mesure de la subjectivité est très difficile et son absence très handicapante. La santé mentale est souvent vue comme une discipline objectivable, comme le reste de la santé. Le modèle biomédical repose sur l’idée qu’il suffit d’ôter le pathogène pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogène. Bien sûr, ce n’est pas le cas. « Imaginez un moment, vous êtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise où vous êtes très valorisée. Vous êtes débauché par la concurrence, une entreprise encore plus brillante où vous allez pouvoir briller encore plus. Mais voilà, vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous développez un trouble anxieux. On va alors pousser la personne à se soigner… Mais le pathogène n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collègues qu’il faudrait pousser à se faire soigner ? »
En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.
Exemple d’échelle d’évaluation de la douleur.
« Mais deux personnes confrontés à la même blessure ne vont pas l’exprimer au même endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaître que les douleurs qu’on a vécu, à laquelle on les compare ». Mais chacun a une échelle de comparaison différente, car personnelle. « Et puis surtout, on est très doué pour ne pas croire et écouter les gens. C’est ainsi que l’endométriose a mis des années pour devenir un problème de santé publique. Une femme à 50% de chance d’être qualifiée en crise de panique quand elle fait un AVC qu’un homme »… Les exemples en ce sens sont innombrables. « Notre obsession à tout mesurer finit par nier l’existence de la subjectivité ». Rapportée à moi, ma douleur est réelle et handicapante. Rapportée aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phénoménologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivité et de la prendre plus au sérieux qu’elle n’est ».
La science de la subjectivité n’est pas dénuée de tentatives de mesure, mais elles sont souvent balayées de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander à quelqu’un comment il va est souvent plus parlant que les mesures électrodermales qu’on peut réaliser ». Reste que les mesures physiologiques restent toujours très séduisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM à un article pour le rendre plus sérieux qu’il n’est.
*
Pour conclure la journée, Christian Fauré, directeur scientifique d’Octo Technology revenait sur son thème, l’incalculabilité. « Trop souvent, décider c’est calculer. Nos décisions ne dépendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent à nous vendre la plus puissante. Nos décisions sont-elles le fruit d’un calcul ? Nos modèles d’affaires dépendent-ils d’un calcul ? Au tout début d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modèle économique à OpenAI. Pour lui, décider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer à tout. Certains espaces échappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout résoudre. Cela semble difficile à croire quand tout est désormais analysé, soupesé, mesuré« . « Il faut qu’il y ait dans le poème un nombre tel qu’il empêche de compter », disait Paul Claudel. Le poème n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, même chez le comptable, sinon à quoi bon faire ces métiers. « L’incalculable, c’est ce qui donne du sens ».
« Nous vivons dans un monde où le calcul est partout… Mais il ne donne pas toutes les réponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit à ses collègues de ne pas donner de sens et de signification dans les données. Turing qui invente l’ordinateur, explique que c’est une procédure univoque, c’est-à-dire qu’elle est reliée à un langage qui n’a qu’un sens, comme le zéro et le un. Comme si finalement, dans cette abstraction pure, réduite à l’essentiel, il était impossible de percevoir le sens ».
Hubert Guillaud
-
6:58
Vérifications et corrections géométriques et topologiques
sur OslandiaEnclosure: [download]
Crédits : Pixabay (Pixabay Content License)
L’importance de la mise en conformitéUne couche d’information géographique doit respecter de nombreuses règles de conformité.
Par exemple :
Géométriques Topologiques règles arbitraires – pas d’angle de moins de 15°
– pas de polygone de moins de 0.3 m²– pas de polygone à l’intérieur d’un autre
– pas de trouerreurs de dessin – polygone de moins de 3 points
– ligne unique dans une multi-ligne– nœud en double
– auto-intersectionsVérifier la conformité d’une couche géographique est une étape indispensable dans la validation des données, pour détecter des erreurs, ou pour s’assurer de ne pas corrompre le système d’information dans lequel elle sera intégrée.
Lorsque c’est possible, pouvoir corriger les erreurs automatiquement permet alors d’automatiser entièrement l’étape de mise en conformité des données.
Et dans QGIS ?Le plugin de vérification géométrique et topologique est disponible pour effectuer ces vérifications à l’aide d’un assistant pas-à-pas.
Après un long travail de mise à niveau du code, de création des traitements, et d’homogénéisation des méthodes, toutes ces vérifications et corrections ont été mises à disposition dans la boîte à outils de traitements !
À partir de QGIS 3.44 il est possible d’effectuer ces traitements en lot, et de les intégrer dans un modeleur graphique pour créer votre propre chaîne de vérification et correction.
Avec 21 traitements de vérification, et 10 traitements de correction, il est maintenant possible de créer des enchaînements automatiques de validation de conformité.
Ils sont disponibles dans la catégorie « Vérification de géométrie » et « Correction de géométrie ».
Les nouveaux traitementsDémonstration pour la détection et correction de petits polygones et petits angles :
document.createElement('video'); [https:]]Chaque traitement repose sur la même logique d’entrées/sorties, afin de pouvoir les enchaîner de la même manière.
Traitement global sur-mesure : démonstrationIl est ainsi possible de créer un traitement sur-mesure basé sur les blocs disponibles. Exemple ici d’un traitement qui vérifie et répare les petits polygones et les petits angles.
[https:]] Schéma des entrées-sorties des nouveaux traitementsChaque traitement suit la même logique d’entrée/sortie, ce qui les rend faciles à enchaîner dans les flux de travail.
Et ensuite…??La mise à disposition de ces traitements permet d’ouvrir la voie à l’amélioration d’outils comme QompliGIS (lien vers le plugin QGIS), d’envisager une version web où l’on pourra déposer des couches à vérifier et à réparer selon des contraintes sur-mesure, pré-définies.
N’hésitez pas à tester ces nouveaux algorithmes de traitement. Nous sommes à votre disposition pour vous accompagner, vous proposer des formations sur QGIS et les géo-traitements, ou pour configurer votre chaîne de vérification de conformité. N’hésitez pas à nous contacter à infos+qgis@oslandia.com
-
6:12
Terre Australe, projection d'un monde à l'envers vu depuis l'hémisphère sud
sur Cartographies numériques
Les cartes du monde ne sont pas forcément orientées avec le nord en haut. Tom Patterson propose une nouvelle carte du monde à l'envers, vu depuis l'hémisphère sud. Il s'agit d'une version spéciale de la projection Equal Earth, centrée sur l'Océanie (150° Est), qui a été inversée.
« Tout ce qui était autrefois familier semble désormais inconnu. L'eau domine l'hémisphère sud reculé, encerclant la planète sans interruption près de l'Antarctique. Je n'ai pas pu résister à l'envie d'y ajouter un albatros. »
Austral Earth, une vision du monde depuis l'hémisphère sud (source : Shaderelief, T. Patterson)
Choisissez la version qui vous convient le mieux :- Image JPEG de qualité moyenne, 200 DPI, 21 Mo (avec plus de 4 000 étiquettes)
- Fichier Adobe Illustrator en couches avec géoréférencement MAPublisher et art du terrain (193 Mo)
- Terrain géoréférencé avec hydrographie (GeoTIFF, 350 DPI, 187 Mo)
Visitez également le site web principal d'Equal Earth pour des versions de cette carte avec le Nord en haut, disponible en plusieurs langues.
Le site Shaderelief de Tom Patterson fournit de nombreuses autres cartes physiques à télécharger en haute résolution ainsi que des tutoriels pour les réaliser.
Articles connexes
La projection Equal Earth, un bon compromis ?
Le nord en haut de la carte : une convention qu'il faut parfois savoir dépasser
Désaxer la carte pour porter un autre regard, mais lequel ?
Andrew Rhodes et ses projections originales pour décentrer le regard sur l'Indopacifique
La projection cartographique Liquid Earth : une nouvelle projection à surfaces presque égales
Des usages de la projection Spilhaus et de notre vision du monde
Compare Map Projections. Un site pour comparer des projections cartographiques entre elles
La projection Peters, toujours aussi mal aimée ?
Projections vues de l'hémisphère sud
-
19:18
5 recommandations critiques de sécurité pour ArcGIS Enterprise 2025
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Les recommandations de sécurité pour les produits et opérations Esri évoluent à mesure que de nouvelles fonctionnalités sont disponibles et que des configurations moins sécurisées peuvent être supprimées. Cette annonce couvre trois nouvelles recommandations de configuration de sécurité essentielles que les administrateurs d'ArcGIS Enterprise doivent impérativement valider :
- Configurer les proxys autorisés
- Supprimer les clés API héritées
- Supprimer l'authentification du proxy direct
Je profite également de cet article pour rappeler deux autres recommandations de sécurité, plus générales et intemporelles :
- Importance des mises à jour de produits
- Suivre le site consacré à la sécurité des solutions Esri
1. Configurer la liste autorisée des proxys Portal for ArcGIS (allowedProxyHosts)
ArcGIS Enterprise inclut un proxy de partage qui doit toujours être configuré par l'administrateur IT afin de réduire le risque d'attaques par déni de service (DoS) ou par falsification de requête côté serveur (SSRF) exploitant ses opérations. La propriété allowedProxyHosts était initialement répertoriée comme élément de profil avancé dans le guide de renforcement d'ArcGIS Enterprise en raison de difficultés d'implémentation potentielles.
Esri l'a toutefois déplacée vers le profil de base, ce qui signifie que TOUTES les organisations doivent la configurer. Vous consulterez l'annexe J pour plus de détails sur les instructions de configuration dans le dernier guide de renforcement. On notera également qu'Esri travaille à la désactivation de l'utilisation du proxy de partage par défaut pour les nouveaux déploiements à partir de la version 12.0 d'ArcGIS Enterprise. En attendant, configurez toujours allowedProxyHosts.
2. Suppression des clés API héritées
Esri a introduit de nouvelles clés API dans ArcGIS Location Platform, ArcGIS Online et ArcGIS Enterprise. Ces clés intègrent des mécanismes de sécurité renforcés et peuvent être étendues pour une sécurité nettement renforcée. Bien qu'ArcGIS Enterprise ne puisse pas créer ni traiter de clés API héritées, certains clients les ont intégrées à leur déploiement ArcGIS Enterprise en les ajoutant à des URL appelant ArcGIS Online et Location Platform. Les clés API héritées sont intrinsèquement non sécurisées, car elles ne sont pas étendues et n'expirent jamais. Bien qu'Esri autorise les clés API héritées à fonctionner pour accéder aux services ArcGIS jusqu'à leur retrait en 2026, les clients doivent immédiatement adopter les nouvelles informations d'identification de clé API et supprimer les clés API héritées de tous les systèmes ArcGIS.
3. Éviter l'authentification par proxy direct
Si votre organisation nécessite le routage de tout le trafic Internet de vos systèmes ArcGIS Enterprise vers un proxy géré par votre organisation, veuillez vous assurer des points suivants. L'authentification de base utilisée entre ArcGIS Enterprise et le système de proxy direct d'un client a été intégrée il y a de nombreuses années pour réduire l'accès des systèmes utilisant le proxy direct pour communiquer avec les systèmes Internet. En raison de la fréquence à laquelle nous avons constaté des configurations incorrectes de proxys directs lors de l'utilisation de l'authentification de base, Esri recommande désormais fortement de NE PAS UTILISER l'authentification de base entre ArcGIS Enterprise et les proxys directs, et d'utiliser plutôt des communications restreintes standard entre les systèmes, telles que les contrôles d'accès réseau. Cette recommandation a été ajoutée dans le dernier guide de renforcement d'ArcGIS Enterprise en tant que recommandation de sécurité du profil de base (voir page 46). Esri envisage de supprimer la prise en charge de l'authentification de base avec les proxys directs des clients dans les prochaines versions en raison du risque qu'elle peut présenter.
4. L'importance des mises à jour de produits
Rappelons ici que l'utilisation de produits dont le cycle de vie est mature ou retiré constitue un déploiement extrêmement risqué et ne doit PAS être exposée au réseau Internet. Cela inclut par exemple ArcGIS Enterprise 11.0 et ArcGIS Enterprise 10.9 et bien entendu des versions antérieures. Esri recommande vivement de maintenir vos systèmes à jour avec au moins les versions de disponibilité générale de nos produits, voire la dernière version.
5. Suivre les informations de sécurité publiées sur le Trust Center ArcGIS
Suivre les annonces publiées par Esri sur le Trust Center ArcGIS est essentiel pour garantir l'intégrité, la confidentialité et la disponibilité des systèmes ArcGIS que vous administrez. Ce portail centralise les alertes de sécurité, les correctifs critiques, les mises à jour logicielles et les meilleures pratiques en matière de cybersécurité pour l’ensemble des produits Esri. En consultant régulièrement ces informations ou en souscrivant au flux RSS des annonces, vous pouvez anticiper les vulnérabilités, appliquer les correctifs à temps et vous conformer aux exigences réglementaires ou sectorielles en matière de sécurité informatique.
Vous y trouverez par exemple l'outil ArcGIS Security Adviser créé par l'équipe Esri "Software Security and Privacy" et fournit des outils aux administrateurs d'organisation dans ArcGIS Online ou ArcGIS Enterprise Server pour examiner divers aspects de la posture de sécurité de leur organisation, tout en fournissant des suggestions d'amélioration.
Le Trust Center ArcGIS vous aide à protéger les données sensibles de vos utilisateurs et partenaires. Pour les administrateurs de portails ArcGIS Online ou Enterprise, cette veille permet de maintenir un haut niveau de confiance dans les services SIG proposés. Le Trust Center ArcGIS joue ainsi un rôle clé dans une démarche proactive de gestion des risques liés à la sécurité des systèmes d'information géographiques.
-
12:06
Cartographie des Zones Climatiques Locales (LCZ) dans les aires urbaines françaises
sur Cartographies numériques
Source : « Cartographie des zones climatiques locales (LCZ) de 83 aires urbaines de plus de 50 000 habitants en France » (Cerema)
Le Cerema met à disposition l’outil Zones climatiques locales (LCZ), qui permet d’accéder aux données et cartes indiquant le degré d’exposition au phénomène d’îlot de chaleur des quartiers de 12 000 communes de France : 88 aires urbaines les plus densément peuplées sont ainsi couvertes, soit 44 millions d’habitants. Ce service est unique car il donne pour tous les territoires un accès gratuit et compréhensible à des données uniformisées, permettant de classer les zones urbaines en fonction de leur exposition potentielle au phénomène d’îlot de chaleur.
Visualisateur cartographique des Zones climatiques locales (Cerema)
Le Cerema répond ainsi à un besoin essentiel des territoires et une priorité du Plan national d’adaptation au changement climatique (PNACC3). L’évolution du climat en cours (+1,7°C en moyenne en France hexagonale depuis 1900) s’accompagne d’épisodes de forte chaleur plus fréquents et plus intenses. Le 3e Plan national d’adaptation au changement climatique (PNACC3) rendu public le 10 mars 2025 par le Ministère de la Transition écologique, de la Biodiversité, de la Forêt, de la Mer et de la Pêche, retient l’un des scénarios de référence du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), pour préparer la France : une hausse des températures moyennes de 4 °C en 2100 par rapport à l’ère préindustrielle. L’outil « LCZ » du Cerema répond à la mesure 13 du PNACC3 : « Renaturer les villes pour améliorer leur résilience face au changement climatique ».
État des lieux de la sensibilité des 88 plus grandes aires urbaines de l’Hexagone aux fortes chaleurs
L’outil dit « LCZ » couvre 88 plus grandes aires urbaines de l’Hexagone, soit 44 millions d’habitants (Outre-mer à l’étude en 2025). Il est disponible pour 12 000 communes (sur 34 826 en Hexagone) dont 248 communes de 20 000 à 50 000 habitants, 79 communes de 50 à 100 000 habitants et les 40 communes de plus de 100 000 habitants.- Plus de 5 millions d’habitants vivent dans des quartiers à forte sensibilité aux fortes chaleurs
- Plus de 20 000 hectares (200 km2, soit 2 fois la surface de la ville de Paris) de zones bâties sont à forte ou très forte sensibilité à l’effet d’îlot de chaleur et demanderaient des actions d’adaptation importantes.
- Dans les plus grandes villes (> 400 000 habitants), ces zones représentent près de 20 % des tissus urbanisés.
- Sur l’ensemble des villes de plus de 20 000 habitants, 4,2 millions de personnes vivent dans des quartiers à forte ou très forte sensibilité, soit 20 % de la population totale de ces communes
- Sur les villes de plus de 400 000 habitants, 2 millions de personnes vivent dans des secteurs à forte ou très forte sensibilité, soit 50 % de la population
- Sur les villes de 200 à 400 000 habitants, 350 000 personnes sont dans des secteurs à forte ou très forte sensibilité, soit 18 % de la population
- Ce taux est de 16 % pour les villes de 100 000 à 200 000 habitants, et il est plus faible (7 %) pour les villes de 20 000 à 50 000 habitants
L'outil LCZ. Un pré-diagnostic simple pour agir face aux fortes chaleurs
Une Zone Climatique Locale (ou LCZ pour "Local Climate Zone" en anglais), concept adopté par la communauté scientifique internationale du climat urbain depuis les travaux de Stewart et Oke [2012], est une unité de surface urbaine, de la taille de quelques îlots ou d’un quartier, avec une homogénéité de composition urbaine entraînant un comportement climatique homogène. 17 classes de LCZ différentes, réparties en deux grandes catégories selon qu’il s’agit d’une zone artificialisée ou non, permettent de qualifier l’exposition de chaque zone à la surchauffe urbaine.Ce concept se fonde sur une classification géo-climatique des territoires urbanisés ; une classification éprouvée et internationalement reconnue, issue de travaux de recherche. Il consiste à découper un territoire en zones uniformes du point de vue de l’occupation du sol (artificialisée ou naturelle), de la structure urbaine, des matériaux, et des activités humaines en supposant que ces zones ont un comportement climatique homogène. Ces zones peuvent s’étendre de quelques centaines de mètres à plusieurs kilomètres de large. 17 classes de LCZ permettant de caractériser les territoires ont été définies par des travaux de recherche : 10 classes LCZ « bâties » et 7 classes LCZ « naturelles ».
Le pôle satellitaire du Cerema a développé une méthode originale basée sur des images satellite à très haute résolution spatiale ainsi que des bases de données ouvertes pour cartographier les LCZ et identifier ainsi les quartiers particulièrement exposés à la surchauffe urbaine et susceptibles de contribuer à l’effet d’îlot de chaleur urbain.
Accès aux ressources- Visualiseur cartographique
- Données téléchargeables sur Data.gouv.fr
- Guide méthodologique
- Guide utilisateurs
- Webinaire de présentation
Cette donnée LCZ peut être utilisée comme diagnostic à grande échelle du phénomène d'Îlot de Chaleur Urbain (ICU) sur votre territoire. Elle constitue un pré-diagnostic climatique tenant compte de la morphologie urbaine et de l'occupation du sol : le but est de localiser les îlots/quartiers à enjeux sur lesquels affiner les analyses et prioriser les actions.
La plateforme CartoClimate de la Fondation CNRS Geomanum permet également d'accéder à une cartographie des Zones Climatiques Locales (LCZ). La cartographie des LCZ permet d'appréhender la réponse d’un territoire aux vagues de chaleur estivale (comportement thermique, potentiel de rafraîchissement d’une zone) et de connaître in fine les secteurs potentiellement propices à l’effet d'Îlot de Chaleur Urbain (ICU). Il convient de noter cependant que la cartographie des LCZ n'est pas une modélisation de l'Îlot de Chaleur Urbain.
En cliquant sur un îlot de la carte, vous accédez au détail de celui-ci (CartoClimate)
Références scientifiques
La typologie LCZ (Stewart et Oke, 2012) est une typologie urbaine universelle qui permet de distinguer les zones urbaines, en tenant compte de la combinaison des couvertures terrestres à micro-échelle et des propriétés physiques associées. Le schéma LCZ se distingue des autres schémas d'utilisation et d'occupation du sol par l'accent mis sur les types de paysages urbains et ruraux, qui peuvent être décrits par l'une des 17 classes qu'il contient. Sa forte valeur ajoutée réside dans la diversité des classes urbaines, facilement interprétables et globalement cohérentes, qui capturent la variabilité intra-urbaine des formes de surface et des fonctions du sol.
Stewart, I. D., and T. R. Oke, 2012: Local Climate Zones for Urban Temperature Studies [Zones climatiques locales pour les études de température urbaine]. Bull. Amer. Meteor. Soc., 93, 1879–1900, https://doi.org/10.1175/BAMS-D-11-00019.1
Demuzere, M., Kittner, J., Martilli, A., Mills, G., Moede, C., Stewart, ID, van Vliet, J., et Bechtel, B. (2022). A global map of local climate zones to support earth system modelling and urban-scale environmental science [Une carte mondiale des zones climatiques locales pour soutenir la modélisation du système terrestre et la science environnementale à l'échelle urbaine]. Earth Syst. Sci. Data, 14, 3835-3873, [https:]]
Le site LCZ-generator fournit une cartographie mondiale des zones climatiques locales à une résolution spatiale de 100 m, dérivée de plusieurs ensembles de données d'observation de la Terre et d'étiquettes de classe LCZ expertes.
Carte des zones climatiques locales à l'échelle mondiale (source : LCZ-generator)
Sur les 17 classes de ZCL, 10 reflètent l'environnement bâti, et chaque type de ZCL est associé à des descriptions numériques génériques des principaux paramètres de la canopée urbaine, essentiels à la modélisation des réponses atmosphériques à l'urbanisation. De plus, les ZCL ayant été initialement conçues comme un nouveau cadre pour les études sur les îlots de chaleur urbains , elles contiennent également un ensemble limité (7) de classes d'occupation du sol « naturelles » pouvant servir de zones de « témoin » ou de « référence naturelle ». Ces sept classes naturelles du schéma ZCL ne permettant pas de saisir l'hétérogénéité des écosystèmes naturels existants, il est conseillé, si nécessaire, de combiner les classes de ZCL construites avec tout autre produit d'occupation du sol offrant un éventail plus large de classes d'occupation du sol naturelles.
Ensemble des données disponibles à l'échelle mondiale en téléchargement sur Zenodo.
Articles connexes
Ilots de chaleur et inégalités urbaines en France
Adapt’Canicules. Identifier les vulnérabilités des quartiers populaires face aux canicules
CAPAMOB, un guide du Cerema pour réaliser des diagnostics de mobilités en territoire rural ou péri-urbain
La France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
Renforcer l'atténuation, engager l'adaptation (3e rapport du Haut Conseil pour le climat - 2021)
Rapport du Giec 2021 : le changement climatique actuel est « sans précédent »
Les villes face au changement climatique et à la croissance démographique
Le choc climatique frappe déjà les villes les plus peuplées du monde (rapport WaterAid)
Surmortalité attribuée à la chaleur et au froid : étude d'impact sur la santé dans 854 villes européennes
R4RE, une plateforme cartographique d'analyse de résilience pour les bâtiments (Observatoire de l'immobilier durable)
-
11:30
Représentations des risques d’inondation, adaptation et évacuation en Île-de-France
sur CybergeoL’étude des déterminants des représentations liées aux risques et leurs effets sur les niveaux de préparation des populations exposées conduit à des conclusions souvent contradictoires d’une étude de cas à une autre. De nombreuses théories et hypothèses concurrentes ont été formulées dans des disciplines différentes, mais aucune n’est parvenue à s’imposer empiriquement. La validation croisée des résultats est complexe et le champ des risk perception s’apparente souvent à une collection d’études de cas indépendantes et peu comparables. À partir d’une enquête par questionnaire sur les représentations liées au risque inondation à Paris et en Île-de-France sur un échantillon de grande taille (n=2976), cet article propose une réflexion théorique et méthodologique pour consolider le positionnement de la géographie dans le champ des représentations des risques, pour mieux démêler les facteurs sociaux et territoriaux. Les questions de recherche se structurent autour du rôle de l’exposition ...
-
11:30
Mark Monmonier, 2023, Comment faire mentir les cartes, Paris, Flammarion, 304 p.
sur CybergeoInitialement publié en 1991 et rapidement traduit en français (1993), Comment faire mentir les cartes de Mark Monmonier est un livre dont l’auteur admet lui-même qu’il n’a pas complètement atteint son objectif. Il voulait en faire un ouvrage pour le grand public et surtout pas un manuel étudiant. C’est pourtant, en France du moins, ce qu’il est devenu. La troisième édition, sortie aux États-Unis en 2018, a été traduite dès 2019 dans la collection Autrement de Flammarion. Cinq ans plus tard, le même éditeur ressort aujourd’hui cet ouvrage en format poche dans sa collection Champs/essais. Si les illustrations pâtissent de la réduction du format et de la qualité de la reprographie, le format et le prix le rendent plus accessible. Cela pourrait enfin lui ouvrir les portes du lectorat initialement visé : "Le lecteur intelligent et non-initié qui s’intéresse à la cartographie" (p.14).
Car, il faut le rappeler, et le titre nous le suggère, ce n’est pas d’un traité de cartographie dont il s’...
-
11:30
Les échanges fonciers agricoles, levier pour la transition agroécologique de l’élevage ?
sur CybergeoL’agriculture contribue aux dérèglements climatiques et à l’érosion de la biodiversité autant qu’elle en subit les conséquences Les pratiques agricoles évoluent pour y remédier, notamment à travers la transition agroécologique qui propose de combiner les savoirs de l’agronomie et de l’écologie. La dimension foncière (distribution et droits d’usage des parcelles) de ces pratiques est peu explorée par la recherche, en dépit de son caractère déterminant pour cette transition. Cet article examine les avantages et limites des échanges de foncier agricole pour la diminution des émissions de gaz à effet de serre et pour le maintien d’habitats favorables à la biodiversité, mais aussi pour les conditions de travail des agriculteurs. Il s’appuie sur l’analyse de l’élevage laitier dans la Zone Atelier Armorique, à partir d’entretiens auprès de services (para-)publics en charge du foncier agricole en Ille-et-Vilaine. Combinant des approches en écologie, en géographie et en droit, cette étude pr...
-
11:30
Hervé Théry, 2024, Amazone. Un monde en partage, Paris, CNRS Éditions, 229 p.
sur CybergeoAprès le Congo, le Tigre et l’Euphrate, le Mississippi et la Volga, voici l’Amazone. Ce livre est publié dans la collection Géohistoire d’un fleuve, dirigée par Thierry Sanjuan. Hervé Théry, grand spécialiste du Brésil et de l’Amérique latine, s’attaque à un véritable monument, le plus grand fleuve du monde, par la taille de son bassin, par son débit et par sa longueur même si, chiffres à la clé, il montre que ce dernier record est contesté par le Nil.
C’est un livre de facture classique que nous livre le géographe. Le style est précis, très clair, sans jargon. Hervé Théry expose des faits, donne des chiffres (et les compare avec d’autres avec une volonté didactique affichée), décrit des lieux avant de se livrer à des analyses et de pointer quelques enjeux majeurs. Citons-les tout de suite : le "partage" de cet immense territoire, les incendies, la déforestation, l’accessibilité et les voies de circulation, la mondialisation des problèmes amazoniens, les droits des peuples autochtone...
-
11:30
La passation des marchés publics : une entrée utile pour l’analyse des interactions spatiales dans l’espace français
sur CybergeoL’ouverture récente des données concernant la passation des marchés publics à l’échelle européenne permet d’accéder à des informations sur les acheteurs publics et sur les entreprises prestataires sélectionnées. Le « nettoyage » et géoréférencement de la base de données à l’échelle européenne Tenders Electronic Daily (TED) sur les marchés publics a permis de créer et mettre à disposition de tous une base à l’échelle du territoire français, la base French Open Public Procurement Award Notices (FOPPA). Cette base permet d’explorer de manière inédite les interactions entre des unités spatiales de différentes échelles. Elle offre la possibilité d’identifier les acteurs impliqués dans les marchés, leurs partenaires, ainsi que le type de marché, afin d’analyser et d’expliquer ces relations.
Dans cet article, nous illustrons les possibilités offertes par la base FOPPA, en produisant des analyses essentiellement descriptives des interactions, au prisme de la commande publique, aux échelles r... -
11:30
Searching for Data: Nature and Flow of Information Underlying Urban Wild Boar Management Policies. Bordeaux (France) as a Case Study
sur CybergeoNature in the city harbours a wide range of biodiversity. While some species are welcomed, others have settled in uninvited. This is the case with wild boar. The challenge of managing large urban wildlife is not only ecological but also cultural, political, and ethical. This study, driven by the general uncertainty surrounding the socio-ecological issues of coexistence with urban wild boar and potential solutions, explores and discusses the nature and flow of information underlying the specie’s management policies. Our approach is based on a field survey conducted in Bordeaux Metropolis, aimed at tracking the shared information between local stakeholders. The objectives are twofold: i) to gather and analyse existing data on urban wild boar, the problems generated by their presence in the city, and the management systems; ii) to model information flows between social groups facing the challenges of coexistence with wild boar or involved in their management. The study points to a lack...
-
11:30
Les micropolluants émergents dans les eaux littorales : représentations et enjeux de gestion d’un problème complexe. Le cas du Pays basque français
sur CybergeoLa qualité de l’eau du littoral basque français est un enjeu crucial pour les gestionnaires locaux. Parmi les dégradations qu’elle subit, les micropolluants représentent un défi majeur. Ces substances chimiques, aussi appelées polluants émergents, peuvent nuire à la santé humaine et à l’environnement malgré leur présence en faibles concentrations. Leur gestion est complexe en raison de leur diversité, de leurs origines multiples, d’une absence massive de réglementation et de la nécessité d’une approche globale et multi-niveaux pour réduire leur impact, ce qui en fait un "problème épineux". Cet article a pour objectif d’appréhender les dynamiques et les défis de la gestion de ces polluants en portant la focale sur les acteurs locaux et leurs représentations du problème. La gestion de l’eau implique divers acteurs publics et privés, chacun ayant des intérêts et des responsabilités variés. Pour cette étude, 65 acteurs ont été interrogés sur leurs visions de la situation locale et de la...
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:00
Mappery: You arrrr here
sur Planet OSGeoAnita shared this neat little pirate map which comes with an attached cocktail
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:43
Nuit sportive
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueL’ING Night Marathon Luxemburg est l’un des marathons urbains les plus exigeants d‘Europe. Le circuit des 42.195 km mène les coureurs par les quartiers du Kirchberg, Limpertsberg, Belair, Merl, Hollerich, Gare et centre-ville pour les reconduire au point de départ. Comme chaque année, le Service Topographie et géomatique de la ville de Luxembourg a proposé pour la course du 31 mai une carte interactive du parcours officiel en se basant sur sa plate-forme « Citymap - Ville de Luxembourg » basée sur ArcGIS. Le tracé apparait selon le mode de consultation choisi, en 2D ou 3D, et en fonction des calques choisis, par exemple en ajoutant le modèle urbain 3D ou des ombrages. Avec la topo gris foncé, l’immersion nocturne est garantie !
+ d'infos :
urls.fr/vVwV_v
-
8:16
When is the sun directly overhead?
sur Google Maps ManiaThe longest day of the year occurs this coming Saturday. In the Northern Hemisphere, the summer solstice is on June 21st. This is the day when the subsolar point - the location on Earth where the Sun is directly overhead at solar noon - reaches its northernmost position, directly above the Tropic of Cancer. The subsolar point moves north and south throughout the year as the Earth orbits the
-
7:00
“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”
sur Dans les algorithmesAlors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple à Abilene au Texas, où OpenAI (associé à Oracle et SoftBank) construit un data center géant, premier des 10 mégasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coûter quelque 12 milliards de dollars (voir également le reportage de 40 minutes en vidéo qui revient notamment sur les tensions liées à ces constructions). Mais plus que de centres de données, il faut désormais parler « d’usine à IA », comme le propose le patron de Nvidia, Jensen Huang.
“De 2005 à 2017, la quantité d’électricité destinée aux centres de données est restée relativement stable grâce à des gains d’efficacité, malgré la construction d’une multitude de nouveaux centres de données pour répondre à l’essor des services en ligne basés sur le cloud, de Facebook à Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivée de l’IA, cette consommation s’est envolée. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est désormais destinée aux centres de données. “Compte tenu de l’orientation de l’IA – plus personnalisée, capable de raisonner et de résoudre des problèmes complexes à notre place, partout où nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA à elle seule pourrait consommer chaque année autant d’électricité que 22 % des foyers américains.
“Les chiffres sur la consommation énergétique de l’IA court-circuitent souvent le débat, soit en réprimandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux réactions esquivent l’essentiel : l’IA est incontournable, et même si une seule requête est à faible impact, les gouvernements et les entreprises façonnent désormais un avenir énergétique bien plus vaste autour des besoins de l’IA”. ChatGPT est désormais considéré comme le cinquième site web le plus visité au monde, juste après Instagram et devant X. Et ChatGPT n’est que l’arbre de la forêt des applications de l’IA qui s’intègrent partout autour de nous. Or, rappelle la Technology Review, l’information et les données sur la consommation énergétique du secteur restent très parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraînement des modèles est énergétiquement coûteux, c’est désormais son utilisation qui devient problématique, notamment, comme l’explique très pédagogiquement Le Monde, parce que les requêtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui évaluent la consommation énergétique de requêtes selon les moteurs d’IA utilisés, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de données qu’on estime en activité aux Etats-Unis, de plus en plus d’espaces sont consacrés à des infrastructures dédiées à l’IA, notamment avec des serveurs dotés de puces spécifiques qui ont une consommation énergétique importante pour exécuter leurs opérations avancées sans surchauffe.
Calculer l’impact énergétique d’une requête n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modèle, le type de résultat généré et d’innombrables variables indépendantes de votre volonté, comme le réseau électrique connecté au centre de données auquel votre requête est envoyée et l’heure de son traitement, peuvent rendre une requête mille fois plus énergivore et émettrice d’émissions qu’une autre”. Outre cette grande variabilité de l’impact, il faut ajouter l’opacité des géants de l’IA à communiquer des informations et des données fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modèles, la complexité des questions sont autant d’éléments qui influent sur la consommation énergétique. Bien évidemment, la production de vidéo consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidéo générative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas démontrée et ne prend pas en compte l’effet rebond que génèrerait les vidéos génératives si elles devenaient peu coûteuses à produire.
La Techno Review propose donc une estimation d’usage quotidien, à savoir en prenant comme moyenne le fait de poser 15 questions à un modèle d’IA génératives, faire 10 essais d’image et produire 5 secondes de vidéo. Ce qui équivaudrait (très grossièrement) à consommer 2,9 kilowattheures d’électricité, l’équivalent d’un micro-onde allumé pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dépend beaucoup de sa localisation, selon que les réseaux sont plus ou moins décarbonés, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalités de calcul mobilisées par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricité produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette même électricité en Virginie-Occidentale pourrait faire grimper le total à plus de 1 150 grammes”. On peut généraliser ces estimations pour tenter de calculer l’impact global de l’IA… et faire des calculs compliqués pour tenter d’approcher la réalité… “Mais toutes ces estimations ne reflètent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisées l’année prochaine ou la suivante dans les “usines à IA” que déploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissémine autour du monde. Dans cette course au nombre de token générés par seconde, qui devient l’indicateur clé de l’industrie, c’est l’architecture de l’informatique elle-même qui est modifiée. Huang parle de passage à l’échelle qui nécessite de générer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le déploiement d’une IA toujours plus puissante. Cela passe bien évidemment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces.
« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modèles d’IA au cours de la journée, ni de leur demander de générer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tâches pour nous, où nous discutons en continue avec des agents, où nous “confierons des tâches complexes à des modèles de raisonnement dont on a constaté qu’ils consomment 43 fois plus d’énergie pour les problèmes simples, ou à des modèles de « recherche approfondie”, qui passeront des heures à créer des rapports pour nous ». Nous disposerons de modèles d’IA “personnalisés” par l’apprentissage de nos données et de nos préférences. Et ces modèles sont appelés à s’intégrer partout, des lignes téléphoniques des services clients aux cabinets médicaux… Comme le montrait les dernières démonstrations de Google en la matière : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possède les modèles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce côté, là course démarre à peine. Google prévoit par exemple d’intégrer l’IA partout, pour créer des résumés d’email comme des mailings automatisés adaptés à votre style qui répondront pour vous. Meta imagine intégrer l’IA dans toute sa chaîne publicitaire pour permettre à quiconque de générer des publicités et demain, les générer selon les profils : plus personne ne verra la même ! Les usages actuels de l’IA n’ont rien à voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidéo que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent déjà au passé. Le succès et l’intégration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimé des utilisateurs de l’IA de 700 millions en mars à 3,5 milliards en mai 2025.
”Tous les chercheurs interrogés ont affirmé qu’il était impossible d’appréhender les besoins énergétiques futurs en extrapolant simplement l’énergie utilisée par les requêtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent à construire des centrales nucléaires est d’ailleurs le révélateur qu’elles prévoient, elles, une explosion de leurs besoins énergétiques. « Les quelques chiffres dont nous disposons peuvent apporter un éclairage infime sur notre situation actuelle, mais les années à venir sont incertaines », déclare Sasha Luccioni de Hugging Face. « Les outils d’IA générative nous sont imposés de force, et il devient de plus en plus difficile de s’en désengager ou de faire des choix éclairés en matière d’énergie et de climat. »
La prolifération de l’IA fait peser des perspectives très lourdes sur l’avenir de notre consommation énergétique. “Entre 2024 et 2028, la part de l’électricité américaine destinée aux centres de données pourrait tripler, passant de 4,4 % actuellement à 12 %” Toutes les entreprises estiment que l’IA va nous aider à découvrir des solutions, que son efficacité énergétique va s’améliorer… Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est déjà le cas, assure-t-il en vantant les mérites des prochaines génération de puces à venir. Mais sans données, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du département de l’énergie américain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle étude, les particuliers pourraient finir par payer une partie de la facture de cette révolution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysé les accords entre les entreprises de services publics et les géants de la technologie comme Meta, qui régissent le prix de l’électricité dans les nouveaux centres de données gigantesques. Ils ont constaté que les remises accordées par les entreprises de services publics aux géants de la technologie peuvent augmenter les tarifs d’électricité payés par les consommateurs. Les impacts écologiques de l’IA s’apprêtent donc à être maximums, à mesure que ses déploiements s’intègrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le réseau électrique et le monde qui nous entoure”.
L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifères que le magazine dresse, la TechReview rappelle bien sûr que les modèles d’IA vont devenir plus efficaces, moins chers et moins gourmands énergétiquement, par exemple en entraînant des modèles avec des données plus organisées et adaptées à des tâches spécifiques. Des perspectives s’échaffaudent aussi du côté des puces et des capacités de calculs, ou encore par l’amélioration du refroidissement des centres de calculs. Beaucoup d’ingénieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, à mesure que la technologie à l’origine de ces révolutions s’est améliorée, les coûts de l’énergie sont restés plus ou moins stables, malgré l’explosion du nombre d’utilisateurs”. Pas sûr que réitérer ces vieilles promesses suffise.
Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux à venir sont avant toutes coincées dans le présent. Et elles le sont d’autant plus que les mesures de la consommation énergétique de l’IA sont coincées dans les mesures d’hier, sans être capables de prendre en compte l’efficience à venir et que les effets rebonds de la consommation, dans la perspective de systèmes d’IA distribués partout, accessibles partout, voire pire d’une IA qui se substitue à tous les usages numériques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience énergétique va s’améliorer, le rebond des usages par l’intégration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbés voir totalement dépassés avec l’extension et l’accroissement des usages.
-
1:52
Sean Gillies: Bear training week 17 recap
sur Planet OSGeoI didn't do a lot of running in week 17, but none of it was flat. I did a solid uphill treadmill run on Thursday and a hot trail run at Lory State Park on Saturday.
12.8 miles running
10 hours, 40 minutes all training
3,667 ft D+ running
In addition to those two runs, I did a hard elliptical workout and rode a bike three days. I did some weight training at home and at the gym, and did two sauna sessions. I'm trying to do 2-3 20-minute sessions a week in June to get ready for potentially hot weather at Never Summer. Andrew Huberman has a nice long podcast episode about the science of deliberate heat exposure that I found super interesting. If you haven't heard it, it's well worth a listen.
I went out for 2.5 hours in sunny 30 °C conditions yesterday and felt warm, but okay. The modest amount of heat training that I've been doing seems to be working. I'm going to stick with passive heating in the sauna a few times a week and one hot run every week. As much as I enjoy hearing about David Roche's extreme heat traing regimen, I won't be buying a heat suit or core temperature sensor.
Like I said last week, I've found it hard to adapt to downhill running when I'm not doing much downhill running. Today my quads are quite sore after yesterday's three miles of steep descents. I need to do more, that's all there is to it!
A faint 4WD trail through grass and flowers over the top of a small summit under a mostly blue summer sky.
-
11:00
Mappery: Frozen Four
sur Planet OSGeoEnclosure: [download]
Doug shared this “The location of Western Michigan University on the shoulder of their jerseys”
-
8:58
Cartes et complotisme. Quand les cartes de pieuvres déploient leurs nombreuses tentacules
sur Cartographies numériquesSource : Puerta, E., Spivak, S. C., Correll, M. (2025). « The Many Tendrils of the Octopus Map ». CHI '25: Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, n° 970, 1-20, [https:]] (article en accès libre).
Dans cet article, des chercheurs américains explorent le fonctionnement des cartes de pieuvres comme arguments visuels à travers l'analyse d'exemples historiques et une étude participative sur la façon dont les données sous-jacentes et l'utilisation de métaphores visuelles peuvent contribuer à des interprétations négatives ou conspirationnistes. Ils montrent que certaines caractéristiques de données ou de styles visuels peuvent conduire à une pensée « de type pieuvre » dans les visualisations, même sans l'utilisation explicite d'un motif de pieuvre. Ils concluent en appelant à une analyse plus approfondie de la rhétorique visuelle de ces cartes, en soulignant le potentiel des datavisualisations à contribuer à une pensée néfaste ou conspirationniste.
En représentant une entité centrale aux multiples bras tentaculaires, ces cartes-pieuvre suggèrent un contrôle diffus, hostile et souvent dissimulé. L'un des premiers exemples connus de carte de pieuvre a été publié par Fred W. Rose en 1877 pendant la guerre russo-ottomane. La carte représente les pays européens par des figures humaines, tandis que la Russie est représentée par une pieuvre déployant ses tentacules sur les pays voisins. Ce type de cartes est à rattacher au courant de la cartographie persuasive qui s'intéresse au pouvoir rhétorique des cartes. L'une des fonctions de ces cartes sensationnalistes est de présenter l'ennemi comme une menace, ce qui peut être également réalisé à travers l'utilisation de lignes ou de flèches, de la couleur, de l'ombrage ou encore de la projection. On peut retrouver la métaphore visuelle de la pieuvre dans la visualisation des graphes ayant émergé au XIXe siècle avec les organigrammes, et au XXe siècle avec les sociogrammes. Ces sociogrammes ont établi de nombreuses conventions de conception dans les diagrammes de nœuds-liens modernes, telles que l'utilisation de la couleur et de la forme pour désigner les attributs des nœuds et des arêtes.
Les métaphores aident à la compréhension d'un domaine en l'ancrant dans un autre, ce qui est particulièrement le cas avec l'utilisation d'images anthropomorphes et zoomorphes. L'utilisation de monstres ou d'autres animaux en cartographie a une longue histoire, par exemple pour désigner (ou peupler) des régions inconnues du monde sur les cartes européennes depuis au moins la Renaissance. Dans d'autres cas, l'entité elle-même est utilisée comme métonymie pour un pays dans son ensemble, avec des exemples bien connus comme l'Europa Regina du XVIe siècle (où le continent européen est représenté sous la forme d'une reine avec divers pays dessinant ses parties constitutives) ou encore Leo Belgicus (où les Pays-Bas sont représentés sous la forme d'un lion, avec des informations géographiques représentées à l'intérieur de son « corps »). Bien que de nombreux animaux aient été utilisés pour symboliser des empires, des pays, des religions et des entités sociales et politiques, la pieuvre est unique par son utilisation répandue et cohérente à travers les époques, les régions et les cultures. Elle a été utilisée pour susciter la peur, l’indignation, la sympathie, le dégoût et le nationalisme, généralement dans le cadre d’un appel à l’action.
Les cartes de pieuvres peuvent être réparties en différentes sous-catégories. Bien qu'il puisse exister des pieuvres bienveillantes, ces cartes présentent généralement le même argument visuel implicite : un organisme centralisé et néfaste utilise de multiples leviers de contrôle pour envahir ou affaiblir de larges pans d'une région ou d'un système. Il existe occasionnellement des variations ou des exceptions à cette forme générale, par exemple, en établissant un lien entre la pieuvre et la gorgone ou l'hydre, sémiotiquement similaires. L'étude participative qui a été conduite auprès de 256 participants avait pour objectif d'évaluer l'impact rhétorique des composantes visuelles et structurelles d'une carte-pieuvre d'un territoire fictif le Huskiland, à partir de 6 composantes :- Centralité : Huskiland est une puissance militaire centrale dans la région.
- Tentacularité : Huskiland étend sa portée militaire.
- Portée : Huskiland est déjà présent dans de nombreux pays de la région.
- Intentionnalité : le placement des bases de Huskiland fait partie d'une stratégie militaire intentionnelle.
- Saisie : Huskiland utilise ces bases pour exercer un contrôle militaire ou politique sur ses voisins.
- Menace : Huskiland constitue une menace pour la paix et la stabilité de la région.
Les concepteurs de visualisations (notamment académiques) sont tentés de considérer (à tort) leur travail comme « le simple compte rendu ou la structuration de faits objectifs », la persuasion ou les appels rhétoriques étant considérés comme l'apanage exclusif d'acteurs malveillants ou manipulateurs. Les résultats suggèrent cependant que la cartographie et la visualisation ne peuvent être clairement distinguées entre cartes et graphiques sensationnalistes et « persuasifs » et graphiques plus « neutres » sans intention rhétorique manifeste. Les lecteurs, eux aussi, apportent leurs propres attentes et contextes aux cartes et aux graphiques, ce qui rend impossible une dichotomie claire entre visions neutres ou sensationnalistes des données. La bonne intention des concepteurs de visualisations ne suffit pas à éviter la culpabilité morale quant à la manière dont les visualisations peuvent être mal interprétées ou détournées à des fins conspirationnistes. Un exemple est l'utilisation rhétorique des visualisations de données sur la COVID-19, où des activités de littératie des données apparemment bien conduites, comme le questionnement des sources, l'évaluation du positionnement et la réalisation d'analyses alternatives, ont été utilisées pour étayer la pensée conspirationniste.
Articles connexes
Cartes et caricatures. Recension de cartes satiriques et de cartes de propagande
La rhétorique derrière les cartes de propagande sur le coronavirus
Étudier l'expansion de la Chine en Asie du Sud-Est à travers des cartes-caricatures
La carte, objet éminemment politique. Carte-caricature et dispositif narratif
Les nouvelles façons de « faire mentir les cartes » à l'ère numérique
Bouger les lignes de la carte. Une exposition du Leventhal Map & Education Center de Boston
L'histoire par les cartes : les créatures marines monstrueuses d'Olaus Magnus
Les animaux sur les cartes géographiques anciennes (1500-1800)
Utiliser le lion pour politiser la géographie (blog de la Bibliothèque du Congrès)
La carte, objet éminemment politique
-
12:18
Quelles seraient les conséquences d'un effondrement de l'AMOC ?
sur Cartographies numériques
Que se passerait-il si la principale circulation océanique de l’Atlantique, qui régule le climat mondial et européen, venait à s’effondrer ? C'est ce qu'analyse une étude néerlandaise parue en juin 2025 dans la revue Geophysical Research Letters en proposant plusieurs scénarios :René M. van Westen, Michiel L. J. Baatsen (2025). European Temperature Extremes Under Different AMOC Scenarios in the Community Earth System Model, Geophysical Research Letters, vol. 52, 12, 11 June 2025.
La circulation méridienne de retournement Atlantique (en anglais AMOC) est le principal système de courants océaniques de l'Atlantique. Une grande partie du transfert de chaleur dans l'Atlantique est due au Gulf Stream, un courant de surface qui transporte l'eau chaude vers le nord depuis les Caraïbes. Alors que le Gulf Stream dans son ensemble est uniquement entraîné par les vents, son segment le plus septentrional, le courant nord-atlantique tire une grande partie de sa chaleur des échanges thermohalins dans l'AMOC. Ainsi, l'AMOC transporte jusqu'à 25 % de la chaleur totale vers l'hémisphère nord, jouant un rôle majeur dans le climat de l'Europe du nord-ouest.
La circulation méridionale de retournement de l'Atlantique (AMOC) modère le climat européen. Un affaiblissement substantiel de l'AMOC sous l'effet du changement climatique pourrait entraîner une Europe plus froide dans un monde plus chaud. L'objectif dans cet article scientifique est de quantifier l'évolution des températures européennes selon différents scénarios d'AMOC et de changement climatique à l'aide du Modèle Communautaire du Système Terrestre (CESM).
Températures extrêmes en Europe selon différents scénarios d'AMOC à partir du Modèle communautaire du système terrestre (source : van Westen & Baatsen, 2025)
Lorsque l'AMOC s'effondre complètement sans les effets du changement climatique, les extrêmes de température hivernale en Europe du Nord-Ouest s'intensifient (avec une chute pouvant atteindre 15 °C par endroits). L'intensification des extrêmes de froid est liée à la présence de glace de mer près de l'Europe du Nord-Ouest. Si l'on considère un AMOC réduit sous des conditions intermédiaires de réchauffement climatique : la limite de la banquise recule vers le nord et les impacts sur la température sont moindres, mais restent considérables. Outre les variations de température, les tempêtes hivernales devraient s'intensifier et entraîner d'importantes fluctuations de températures quotidiennes dans le cadre d'un AMOC nettement plus faible. Les températures européennes du futur seront déterminées par la force de l'AMOC et l'ampleur du réchauffement climatique.
L'article est accompagné d’une carte interactive qui permet de visualiser les changements avec +2° de réchauffement climatique et un AMOC effondré. Les données de cet outil en ligne sont issues du Modèle Communautaire du Système Terrestre. Les simulations climatiques ont été réalisées sur le supercalculateur national néerlandais Snellius dans le cadre du projet NWO-SURF 2024.013. Les données complètes sont disponibles sur Zenodo.Articles connexes
Vers un affaiblissement du Gulf Stream dans l'Atlantique nord
Rapport du Giec 2021 : le changement climatique actuel est « sans précédent »
Densité du trafic maritime mondial et effets sur le réchauffement climatique
Comment la cartographie animée et l'infographie donne à voir le réchauffement climatique
CLIWOC. Une base de données climatologiques des océans à partir des journaux de bord des navires (1750-1850)
Faut-il relancer les Zones marines d'importance écologique ou biologique (ZIEB) ?
-
11:00
Mappery: Ukrainian Poems
sur Planet OSGeoReinder spotted this in a thrift shop. It’s a book of Ukrainian poems translated into English. We are wondering if the map is Kiev or …? Maybe one of our Ukrainian followers can help us out? Regardless this is a high impact book cover and could become one of my favourites.
-
7:42
Prosecuting Crimes Against Humanity
sur Google Maps ManiaThe Universal Jurisdiction Interactive Map (UJIM), developed by TRIAL International, is a comprehensive and accessible digital tool designed to track and display criminal cases related to serious international crimes such as genocide, war crimes, crimes against humanity, torture, enforced disappearances, and the crime of aggression.Universal Jurisdiction is a legal principle that allows states
-
14:00
Revue de presse du 13 juin 2025
sur GeotribuUne GeoRDP rédigée à 100% par des plumes humaines, comme d'habitude. Au menu : une enquête sur la qualité de vos données géo, de la géo en Romandie, des nouvelles de la galaxie QGIS locale et globale, des tuiles, de l'art, et des vaches.
-
11:00
Mappery: Walking on the World in Valencia
sur Planet OSGeoAngel Arenas sent me this pic of his latest giant interactive map in a square in Valencia. The map is 230 square metres, that’s pretty massive. Maybe the biggest ever?
-
9:12
800K Galaxies - 1 Map
sur Google Maps ManiaThe newly unveiled COSMOS-Web is the largest, most detailed map of the universe ever created. The map plots nearly 800,000 galaxies, and almost spans the entire 13.8-billion-year history of the cosmos.The map is the result of a multinational collaboration led by astrophysicists at UC Santa Barbara and the Rochester Institute of Technology - using data collected by the James Webb Space Telescope.
-
7:54
Rencontres utilisateurs QGIS-fr
sur OslandiaOslandia est un contributeur essentiel de ce SIG open source. Avec une équipe de contributeurs et de « core committers » QGIS, Oslandia s’implique en tant que « pure player », à améliorer le cœur de QGIS, à corriger les bugs et à transmettre son expérience !
Une partie de l’équipe était présente aux Rencontres Utilisateurs QGIS-fr organisées par l’OSGEO du 10 au 12 juin 2025 à Avignon.
Le premier jour était l’occasion d’animer 6 ateliers :
- Traiter un levé topographique avec QGIS/Topaze/Land Survey Codes Import – Loïc Bartoletti et Jean-Marie Arsac
- Comprendre et optimiser les performances de son projet QGIS – Jacky Volpes-Chartoire et Julien Cabieces
- Manipuler des géométries avec SFCGAL – Jean Felder et Florent Fougères
- Apprends à dessiner avec QGIS – Loïc Bartoletti et Jacky Volpes-Chartoire
- QGIS comme ETL – Florent Fougères et Julien Cabieces
- Et si on préparait un projet pour QWC ? – Benoît Blanc et Gwendoline Andres
La deuxième journée était consacrée aux conférences et de retours d’expérience, bravo et merci à nos clients qui ont pris la parole :
- Démarche de la Métropole de Lyon vers l’open source SIG
- Utilisation de QGIS en cellule de crise inondation pour la surveillance des digues. Exercice 2024 sur une crue de la Loire dans le département du Loiret
- Plugin Qgis Géoplateforme
-
4:39
Sean Gillies: Bear training week 16 recap
sur Planet OSGeoWeek 16, the end of the first half of my trail running season. I started out sick, but was able to get back into training pretty quickly. I had a nice gravel ride Wednesday, some tempo treadmill Thursday, a 2.5 hour ride on Saturday with a significant amount of comfortably hard uphill pedaling, and a 90 minute uphill treadmill run on Sunday. I avoided my usual group classes at the gym.
I continued with the therapeutic dose of Naproxen, iced my left Achilles tendon every night, and did no running on pavement or trails. Walking felt better all week, I'm happy to report.
It's seven weeks to Never Summer. It's weird to approach it with a base, a solid base, of cycling, and uphill treadmill and elliptical sessions, without the hundreds of miles of real trail running that I've done in the past.
My fitness level is pretty good. Based on my perceived level of exertion during workouts, my resting heart rate, and my body weight, it seems like I'm back where I was at this point in 2023. That's great, I'm pumped! I'm eager to do some fast downhill running before Never Summer. That's the thing that's hard to simulate in the gym, and I've been feeling soreness after my rare downhill runs this spring.
It'll be interesting to see how I fare on an alpine run like Twin Sisters, for sure. I'm planning that outing now.
-
2:00
FOSSGIS e.V. News: Konferenzorgateam checkt Standort für 2026
sur Planet OSGeoNach dem Motto nach der Konferenz ist vor der Konferenz wollte das Local Team Göttingen zeitnah mit den Konferenz-Vorbereitungen starten.
Janine, Daniel, Maik, Volker und Katja vom Konferenzorgateam und zwei Neumitglieder aus Göttingen trafen sich am 12. und 13. Juni mit den Ansprechpartnern aus der Öffentlichkeitsarbeit und Raumvergabe der Universität Göttingen. Die erste Grobplanung zur Raumnutzung und Positionierung der Catering- und Ausstellerflächen steht nun bereits fest. Beim gemeinsamen Kennlerntreffen an der mitveranstaltenden Fakultät für Geowissenschaften und Geographie wurden Ideen zur Programmgestaltung und zum Rahmenprogramm besprochen.
Die FOSSGIS 2026 wird vom 25.-28.03.2026 in Göttingen stattfinden. Der erste Teil der Konferenz von Mittwoch bis Freitag wird im Zentralen Hörsaalgebäude, welches große Hörsäle und ein großzügiges Foyer bietet, ausgerichtet. Der OSM-Samstag und Codesprint findet voraussichtlich an der Fakultät für Geowissenschaften und Geographie auf dem Nordcampus statt.
Es wird 2026 möglich sein in der Mensa gleich nebenan zu Mittag zu essen.
Unter anderem haben wir mögliche Locations für den Inoffiziellen Start und die Abendveranstaltung erkundet und getestet.
Links: Foyer im ZHG, Mitte: Mensa, rechts: Foyer der Geofakultät am Nordcampus
-
11:28
Nouveautés ArcGIS Monitor 2025.0
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierArcGIS Monitor est la solution qui permet, sur votre déploiement ArcGIS Enterprise, de collecter des indicateurs sur l'état, les performances et l'utilisation de votre SIG d'entreprise. Il est conçu pour aider les administrateurs et les responsables SIG à garantir l'efficacité de leurs déploiements ArcGIS Enterprise en réduisant et en prévenant les temps d'arrêt du système, ce qui se traduit par des économies de coûts opérationnels.
Si votre organisation dispose de plusieurs déploiements ArcGIS Enterprise et/ou utilise différentes versions, ArcGIS Monitor fournit une console unique dans laquelle vous pouvez afficher les indicateurs de performance clés (KPI) sur tous les déploiements ainsi qu'une interface utilisateur/expérience utilisateur unique pour vous aider à gérer et optimiser votre SIG d'entreprise et son infrastructure sous-jacente.
Depuis quelques jours, ArcGIS Monitor version 2025.0 est disponible. Cette mise à jour inclut plusieurs nouvelles fonctionnalités pour aider les administrateurs à mieux gérer leurs déploiements SIG d'entreprise. Parmi les nouveautés, on peut citer :- ArcGIS Monitor peut enregistrer et collecter des métriques sur les services web des organisations ArcGIS Online et des sites ArcGIS Server tiers
- Possibilité de filtrer et d'afficher des plages de dates et d'heures personnalisées
- Les composants de géodatabase enregistrés incluent désormais un inventaire des classes d'entités et des tables
Enregistrer et collecter des métriques sur les services web des organisations ArcGIS Online et des sites ArcGIS Server tiers
De nombreuses organisations utilisant ArcGIS Enterprise exploitent également les services web d'une organisation ArcGIS Online et/ou d'un site ArcGIS Server tiers. Il peut s'agir de services web pour le Living Atlas ArcGIS, pour un site Open Data ou simplement de données géospatiales partagées dans des applications s'adressant à public plus large que votre organisation. Ces services web sont généralement utilisés pour soutenir les applications web déployées depuis le portail d'entreprise de l'organisation. Connaître l'état et la disponibilité de ces services web permet aux administrateurs de garantir le bon fonctionnement de leurs applications web.
Dans la version 2025.0 d'ArcGIS Monitor, les administrateurs peuvent désormais enregistrer une organisation ArcGIS Online et/ou un site ArcGIS Server tiers (alors appelé "ArcGIS Server (remote)") en tant que nouveau composant et collecter des mesures sur certains de leurs services Web publics et sécurisés.
Deux nouvelles options sont disponibles dans la boîte de dialogue "Register component" : ArcGIS Online Organization et ArcGIS Server (remote) .
Après l'enregistrement du nouveau type de composant, la liste des services web pouvant être enregistrés auprès d'ArcGIS Monitor apparaît dans la boîte de dialogue "Edit Inventory". Monitor prend en charge la collecte de métriques pour les services d'images, d'entités et de cartes. Les administrateurs peuvent sélectionner jusqu'à 30 services à enregistrer auprès d'ArcGIS Monitor.La boîte de dialogue "Modifier l’inventaire" répertorie les services web qui peuvent
être enregistrés auprès d’ArcGIS Monitor 2025.0.
Après avoir sélectionné les services web à enregistrer auprès de Monitor, un nouveau type de composant d'organisation ArcGIS Online apparaît dans l'onglet "Monitoring".Une organisation ArcGIS Online enregistrée dans ArcGIS Monitor 2025.0
ArcGIS Monitor fournit 4 indicateurs relatifs à l'organisation ArcGIS Online : connectivité, temps de réponse, code de réponse et taille de la réponse. Ces mêmes indicateurs sont également fournis pour chaque service web enregistré. L'objectif est de fournir des informations sur la disponibilité du service web ; en cas d'indisponibilité, Monitor affiche le code de réponse approprié.Métriques sur les services de l’organisation ArcGIS Online
La sélection du sous-onglet Catalogue pour le composant Organisation ArcGIS Online affichera ses services Web enregistrés.Liste des services web enregistrés auprès de l’organisation ArcGIS Online
La sélection d’un service Web dans la table des composants affichera ses mesures signalées, similaires aux mesures du composant Organisation d’ArcGIS Online.Temps de réponse moyen (secondes) des services Web enregistrés auprès de l'organisation ArcGIS Online
Vous pouvez enregistrer des services web supplémentaires de l'organisation ArcGIS Online auprès d'ArcGIS Monitor en sélectionnant le composant Organisation ArcGIS Online dans la table des composants > Onglet "Observers" puis "Inventory Observer" > Bouton "..." puis "Edit Observer". La boîte de dialogue "Edit Observer : Inventory" s'affiche, permettant d'ajouter ou de supprimer des services web enregistrés auprès d'ArcGIS Monitor.
Remarque: Lors de l'enregistrement d'un site "ArcGIS Server (remote)", Monitor offre la même expérience utilisateur que celle décrite pour l'enregistrement d'une organisation ArcGIS Online. Pour en savoir plus, consultez cette rubrique d'aide.
Remarque sur le site: il est possible d'exploiter l'observateur configuré par l'utilisateur Check-Service pour que Monitor collecte des mesures supplémentaires sur ces services web.
L'objectif de cette fonctionnalité est d'aider les administrateurs à savoir quand les services web (qui sont hors du contrôle de l'organisation) sont disponibles ou non, pour être utilisés à l'appui de leurs applications web déployées.
Possibilité de filtrer et d'afficher les données pour des plages de dates et d'heures personnalisées
Amélioration fréquemment demandée : la possibilité de définir des plages de dates et d'heures personnalisées lors de la visualisation des données a été ajoutée dans cette version. Auparavant, la visualisation des données sur les pages de propriétés des composants et dans les vues d'analyse était limitée à des plages de temps prédéfinies, telles que : les 2 dernières heures, les 24 dernières heures, les 7 derniers jours, etc.
Dans Monitor 2025.0, l'interface utilisateur du sélecteur de date et d'heure a été améliorée pour offrir plus de flexibilité. Les administrateurs peuvent désormais définir des plages de dates et d'heures personnalisées pour l'affichage des données. Cela peut s'avérer particulièrement utile pour analyser des événements à un moment précis.Vue d’analyse avec plage de dates et d’heures spécifiques appliquée
Les composants "Géodatabase" enregistrés incluent désormais un inventaire des classes d'entités et des tables
Les classes d'entités et les tables des Géodatabases enregistrées seront identifiées et enregistrées comme de nouveaux composants de jeu de données. Cela permet aux administrateurs de mieux comprendre le contenu de leurs géodatabases d'entreprise, notamment le nombre de classes d'entités qu'elles contiennent. Sous l'onglet "Monitoring", lorsqu'un composant de géodatabase est sélectionné dans la table des composants > sous-onglet "Catalog", tous ses composants de jeu de données sont affichés.Inventaire des classes d’entités et des tables dans une Géodatabase
Chaque composant de jeu de données possède deux métriques : le nombre total de lignes et l'espace de stockage utilisé . Ces métriques sont similaires à celles rapportées pour les jeux de données des composants ArcGIS Data Store (relationnels) enregistrés.
Une liste complète des mises à jour est répertoriée dans les notes de version d'ArcGIS Monitor 2025.0.
Pour information : un nouveau séminaire de formation d'une heure est désormais disponible (en anglais) sur la plateforme Esri Academy : Introduction à ArcGIS Monitor.
Ce séminaire présente ArcGIS Monitor, notamment ses avantages et sa valeur ajoutée, un aperçu de ses fonctionnalités et capacités, ainsi qu'une présentation de la nouvelle version. Vous apprendrez à utiliser ArcGIS Monitor pour surveiller les bases de données, l'infrastructure et les logiciels ArcGIS Enterprise; détecter et résoudre les problèmes liés à votre SIG d'entreprise; et communiquer l'utilisation et les indicateurs aux parties prenantes.
Pour en savoir plus sur ArcGIS Monitor 2025.0, vous pouvez visiter les ressources suivantes :- Page produit ArcGIS Monitor
- ArcGIS Monitor - Ressources essentielles
- Documentation en ligne d'ArcGIS Monitor
- Réunion du groupe d'utilisateurs ArcGIS Monitor 1 - Vidéo sur les vues d'analyse
- Réunion du groupe d'utilisateurs ArcGIS Monitor 2 - Vidéo sur les vues d'analyse
- Communauté Esri dédiée à ArcGIS Monitor
-
11:00
Mappery: Padlock Map
sur Planet OSGeoReinder sent us this superb map of Amsterdam made out of padlocks. He said ” map of padlocks in the Groenburgwal (canal) in Amsterdam. To commemorate the 750th anniversary of the city. They do this here because many people attach a padlock to the nearby bridge. To kind of ‘seal’ the eternity of their love. Quite a remarkable example of modern art.”
-
9:44
Les Siggies en classe
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLancé il y a bientôt 3 ans, le site de Géo J’aime est totalement remanié. Il fait place à de nouveaux contenus, comme des activités numériques, qui enrichissent les ressources déjà publiées. Surtout, un espace enseignant apparait. Il permet aux professeurs et aux animateurs de disposer d’activités pédagogiques clefs en main, adaptées aux niveaux et programmes scolaires. Le fonds de dotation qui vise à faire connaitre les richesses de l’information géographique propose aussi l’organisation d’ateliers gratuits en classe, comme celui réalisé fin mars auprès de 23 élèves de CMA à l’école élémentaire Delaunay - Kergomard à Laon (photo). En 3h, récréation comprise, l’objectif était de découvrir le dessous des cartes à l’aide de différents supports, dont une application numérique pour construire à partir de Survey123 un formulaire et une Webmap. Un atelier destiné aux 6e adapté à une activité en géographique ou SVT est en cours de préparation, ainsi qu’un ensemble de vidéos et dossier pédagogique autour de la thématique météo et changement climatique.
+ d'infos :
geojaime.org
-
9:41
Atlas conjoncturel de la France en crise
sur Cartographies numériques
L’Atlas conjoncturel de la France en crise, proposé par le géographe Arnaud Brennetot, est disponible sous la forme d’un site Internet en accès libre. L'Atlas propose une analyse critique des transformations géographiques de la France métropolitaine depuis le début du XXIe siècle.Cet atlas conjoncturel a la particularité d’être évolutif car il est appelé à s’enrichir au gré des capacités de l'auteur à l’alimenter, mais aussi du déploiement de la crise elle-même et des retours, critiques et suggestions que les lecteurs intéressés souhaiteraient éventuellement lui adresser. Conçu et lancé dans le cadre d’une démarche itérative sur les réseaux sociaux en juillet 2024, cet atlas assume une position engagée, combinant analyse cartographique et géographie critique, ouverte au dialogue et à la controverse.
Contexte
Face à la polycrise mondiale, dont les ressorts sont autant écologiques, géoéconomiques que géopolitiques, la France, comme la plupart des démocraties libérales, se trouve confrontée à des défis immenses. Or, après plusieurs décennies de néolibéralisation, les instruments de l’action publique ne sont pas nécessairement adaptés à ce nouveau contexte. L'émergence d’une gouvernance multiniveau mobilisant une pluralité d’institutions territoriales s’est traduite par une focalisation collective sur les questions locales et par le délaissement concomitant des enjeux nationaux. Face à l’abandon par l’État d’une véritable stratégie pour le territoire national, les fantasmes et les diagnostics catastrophistes se sont multipliés sans frein dans le débat public, alimentant la crise politique nationale et la délégitimation du régime et des institutions, sans pour autant dégager d'alternatives crédibles.
Objectifs de l'Atlas
Face à la double dérive du laisser-aller de l’État et de l’outrance des débats, cet Atlas de la France en crise vise à proposer une géoscopie des mutations du territoire de la France métropolitaine à travers :- L’analyse des transformations induites par les marchés les plus influents (l’emploi, l’activité productive, le parc immobilier)
- Les moyens mis en œuvre par les pouvoirs publics pour réguler ces mutations spatiales et promouvoir leurs valeurs et leurs objectifs.
Fonctionnement
L’Atlas de la France en crise est construit à partir de données publiques (INSEE, URSSAF, CEREMA, etc.) et mobilise la plateforme Magrit ( [https:]] ) mise à disposition par l’UMR Géographie-Cités. Les cartes et leur commentaire sont enrichis et actualisés de façon progressive.
Les analyses menées pour aboutir à cet Atlas résultent d’une initiative personnelle et n’engagent que leur auteur, lequel reste disponible pour recevoir tous commentaires et questions.
Présentation de l'Atlas
Auteur : Arnaud Brennetot
Introduction
1. La mise en marché du territoire1.1 Le PIB
2. Une régulation publique en crise
1.2 L'évolution de l'emploi
1.3 Une réindustrialisation fragile
1.4 L'ouverture internationale
1.5 Les revenus d'activité
1.6 Le marché immobilier
1.7 La consommation foncière2.1 Les revenus disponibles
Publications associées
2.2 Les ressources des collectivités territoriales
2.3 La présence publique dans les territoires
2.4 La recherche publique
2.5 Le problème de la santé
Articles connexes
Les inégalités femmes-hommes en matière d'emploi en France
La carte de la pauvreté en France en trois dimensions (Observatoire des inégalités)
Atlas de l'Anthropocène : un ensemble de données sur la crise écologique de notre temps
PopFlux, une application pour visualiser les déménagements des Français avant et après la crise Covid-19
Avec la crise du Covid19, les villes moyennes ont-elles bénéficié d’un regain d’attractivité ?
Cartographie de la crise de l'assurance habitation aux États-Unis
-
7:50
Discover the Toxin Polluters Near You
sur Google Maps ManiaToxOnline is an interactive map that allows you to see which facilities are releasing toxins in your area. Simply enter your address into the map to instantly discover where and how toxic chemicals are being released near your home.The map displays markers for all facilities reporting toxic releases and includes a heat map showing the average toxic release in the searched area. By clicking
-
17:00
[Expo] Les cartes du Monde de Malala Andrialavidrazana
sur Carnet (neo)cartographiqueJ’ai découvert récemment le travail de Malala Andrialavidrazana autour et avec les cartes géographiques, au détour de l’exposition FEMMES, organisée par Louise Thurin dans la somptueuse galerie Perrotin, à Paris, en mars 2025. Cette exposition collective présenta 39 œuvres sélectionnées par le célèbre musicien africain-américain, Pharell Williams, pour célébrer les femmes, la féminité, leur nécessaire émancipation ; des femmes de tous âges, mais essentiellement noires, issues d’une diaspora africaine.
Centrée sur des artistes, ces ” – Soldiers of Love – qui transforment le monde par le pouvoir de leurs mains“, l’exposition mit à l’honneur plusieurs artistes pour leurs œuvres remarquables, des installations grandioses, des sculptures telles une revisite de la Venus hottentote, des photographies et des tableaux, parmi lesquels l’un de Malala Andrialavidrazana intitulé Figures 1856. Geological structures 2018. Celui qui m’intéresse aujourd’hui est cependant tout autre. Lisez plutôt.Malala Andrialavidrazana est architecte de formation (formée à l’ENSA de Paris la Villette), artiste peintre et photographe malgache. Née en 1971 à Madagascar, elle réside à Paris depuis 1983 d’où elle sillonne le Monde pour nourrir son intérêt pour l’altérité, les mouvements globaux notamment de la période coloniale et ses conséquences sur les signes et les représentations sociales des différentes populations humaines qui découlent de l’esclavage.
Malala A. s’attache en effet à changer le regard que les Nords portent sur les Suds, en particulier sur l’océan Indien, l’une des premières économies globales du monde. Elle s’intéresse pour cela à l’exploration du Monde de la période impériale et coloniale du XIXe siècle, aux grandes conquêtes qui ont en relation différents mondes, pour montrer leur ancienneté, la pérennité de ces relations et les représentations que nous en avons aujourd’hui. L’un de ses matériaux de prédilection est la carte papier, (apparemment) issue des grands atlas tels ceux de la fin du XIXe-début du XXe siècle qu’elle combine avec d’autres objets.
Dans le projet Figures (qu’elle initie en 2015 et présenta au Palais de Tokyo à Paris en 2024), Malala A. examine les “nombreuses permutations de la mondialisation du XIXe siècle” en usant de cartes géographiques qui superposent différentes réalités historiques et géographiques, parfois contradictoires, pour représenter des relations issues de la colonisation, souvent de domination. Sont ainsi combinées et superposées des cartes, des photographies, des dessins (de dieux ou de temples occidentaux, des toises, par exemple) mais aussi des pagnes à de la peinture mise en scène.
Le tableau ci-dessous est une véritable planche cartographique, repérable par son cadre et sa grille (il s’agit de la Plate III, comme dans les grands atlas de la période coloniale allemande) repérable par ses graticules et ses coordonnées géographiques apparentes. Des motifs évoquant des morceaux de carte choroplèthe sont visibles sur les bords et en arrière-plan, comme pour contextualiser l’ensemble.
Cette planche représente “les principaux pays du monde”, sous la forme d’une mappemonde qui évoque directement (en même temps), un billet de banque. Elle met en scène deux protagonistes : une femme noire, d’apparence ordinaire, et, un homme, sobre, mais il ne s’agit pas de n’importe qui : c’est un homme politique, c’est Nelson Rolihlahla Mandela.
Figures 1867, Principal countries of the World
Les deux cercles de cette mappemonde-billet symbolisent, comme toutes les mappemondes, ses deux hémisphères continentaux : les Amériques, sur la gauche, servent de cadre à la femme et le reste du monde sur la droite, abrite l’homme politique.
La femme est présentée de dos à l’inverse de l’homme, à sa gauche, qui apparaît quasiment de face. Le buste tourné de trois-quart, le regard filant sur la gauche, elle regarde droit devant elle en arborant un grand sourire aux lèvres tandis qu’il esquisse à peine un rictus, le regard comme tourné sur l’avenir. Elle arbore les apparats de beauté de la femme noire africaine authentique, que l’on devine antillaise (ou créole ?) : de larges anneaux dorés aux oreilles (des créoles ?), que l’on suppose en or ; plusieurs rangées de perles, que l’on suppose aussi en verre (ou en plastique recyclé ?), surplombent des vêtements en wax, blouse en pagne et foulard. Le tissu symbole de l’Afrique subsaharienne, héritage flamboyant de la colonisation et de l’esclavage est rehaussé ici par la carte du monde, plus précisément celle du continent américain, placé comme une partie décorative du foulard.
L’homme apparaît au second plan, en mode portrait dans un cadre resserré, en noir et blanc derrière la carte du reste du monde qui lui fait de l’ombre plus qu’elle ne l’abrite. Placé devant la case, il apparaît comme effacé ou en retrait et pour cause, la dite case m’évoque son long emprisonnement à Robben Island. Son revêtement en terre battue décrit les motifs d’un tissu traditionnel, de type Shweshwe, également hérité de la colonisation allemande.
Cette présence monétaire, en référence au capitalisme évoquerait-t’elle le symbole d’une réussite ? Je pose cette question car la partie gauche du tableau m’évoqua en première intention un autre symbole, celui celui des Nana Benz à la réussite éclatante grâce au commerce de ces pagnes, dans les pays du Golfe de Guinée, dès les années 1950. A la réflexion, ce tableau est bien en lien avec la colonisation, l’un des thèmes privilégié d’étude de Malala Andrialavidrazana.
Nombre d’autres œuvres de l’artiste de ce projet Figures articulent en effet les attraits des colonies, les “principales découvertes” (au titre original en français) des premiers explorateurs, comme ci-dessous.
Figures 1862, Le Monde Principales découvertes
Ce qui intéressant dans le travail de Malala Andrialavidrazana réside dans l’usage de la carte du Monde, pour ce qu’elle, le théâtre de l’impérialisme à l’époque des grandes ouvertes, mais aussi son traitement à la fois en tant que support du récit et élément de ce dernier. Architecte et artiste-plasticienne, l’artiste use de représentations cartographiques variées du monde : sur le globe ou sur le plan – voir le tableau intitulé Figures 1876, Planisphère Elémentaire (2018) sur le site du Fonds d’art contemporain, jouant alors avec différents projections cartographiques et centrages des cartes – ci-dessus, sur l’océan Indien dont elle est originaire.
Au final, une belle découverte des travaux de Malala Andrialavidrazana qui reçu par ailleurs le prix HSBC de la Photographie pour sa série “d’Outres-Monde” (1983), focalisant l’attention sur les villes contemporaine.
En savoir plus, sur le site de l’artiste : andrialavidrazana.com
Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
11:00
Mappery: When was Marc-Tobias’ Hat Printed?
sur Planet OSGeoEnclosure: [download]
Marc-Tobias sent me this picture of his new hat. Can you work out when the map was printed and why?
According to Ian Turton this xkcd may help you date the map
-
9:30
Portail Hautes-Alpes rando : nouvelle page d’accueil
sur Makina CorpusInterface revisitée pour valoriser les activités de pleine natureLe site Hautes-Alpes Rando, le portail départemental des sports de nature dans les Hautes-Alpes, bénéficie d’une nouvelle page d’accueil.
-
9:29
The Real-Time 15 City Map
sur Google Maps ManiaThe concept of the '15 Minute City' aims to make urban living more livable and sustainable by ensuring that all essential individual needs can be met without reliance on a car or public transport. It's a very simple idea: ideally, an individual's essential needs should be accessible within a short travel distance.Such a simple concept deserves a suitably simple-to-understand map. CThood
-
8:26
Exposez-vous sur SIG 2025
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLes inscriptions sont ouvertes pour la conférence francophone Esri SIG 2025. Elle se déroulera les 8 et 9 octobre aux Docks de Paris, avec des sessions digitales le 10 octobre. Voilà, une occasion parfaite pour valoriser votre expertise et savoir-faire auprès de vos pairs, un excellent moyen aussi d’échanger avec d’autres utilisateurs qui partagent parfois les mêmes expériences et attentes. L’appel à communication est ouvert jusqu’au 20 juin (les concours jusqu’au 19 ou 20 septembre), sans a priori sur les sujets attendus. En revanche, il est certain que l’IA au service de la Géo sera la tendance forte de cette conférence, comme le SIG au coeur des enjeux climatiques et environnementaux. Des thèmes familiers pour le mathématicien Cédric Villani, aux travaux salués par la médaille Fields en 2010 et engagé en politique depuis 2017, premier grand témoin annoncé au Géoévénement. Le second grand témoin, dévoilé en ce début juin, est Jean Viard, sociologue et directeur de recherche au CNRS. Il intervient chaque week-end sur France Info où il présente l’émission « Question de société ». Un beau programme !
+ d'infos :
geo-evenement.fr
-
7:00
La surveillance au travail s’internationalise
sur Dans les algorithmesLe rapport de Coworker sur le déploiement des « petites technologies de surveillance » – petites, mais omniprésentes (qu’on évoquait dans cet article) – rappelait déjà que c’est un essaim de solutions de surveillance qui se déversent désormais sur les employés (voir également notre article “Réguler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystème des petites technologies intègre la surveillance et le contrôle algorithmique dans le quotidien des travailleurs, souvent à leur insu, sans leur consentement ni leur protection”. L’enquête observe cette extension dans six pays – le Mexique, la Colombie, le Brésil, le Nigéria, le Kenya et l’Inde – “où les cadres juridiques sont obsolètes, mal appliqués, voire inexistants”. Le rapport révèle comment les startups financées par du capital-risque américain exportent des technologies de surveillance vers les pays du Sud, ciblant des régions où la protection de la vie privée et la surveillance réglementaire sont plus faibles. Les premiers à en faire les frais sont les travailleurs de l’économie à la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus déguisée en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus présentée comme un outil de sécurité, de bien-être et de productivité, masquant une surveillance coercitive sous couvert de santé et d’efficacité”.
Pourtant, “des éboueurs en Inde aux chauffeurs de VTC au Nigéria, les travailleurs résistent au contrôle algorithmique en organisant des manifestations, en créant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.
-
11:00
Mappery: Elevator Map
sur Planet OSGeoMark shared this impressive map on the entrance to an elevator (lift in English) at the Chicago Hyatt Place.
-
10:16
Mise à jour du Calcite Design System - Juin 2025
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Calcite Design System est une bibliothèque de composants UI et de styles développée et utilisée par Esri dans toutes les applications web du système ArcGIS. Elle permet aux développeurs de créer des interfaces utilisateur cohérentes, accessibles et alignées avec l’écosystème ArcGIS. Que ce soit pour des applications web personnalisées, des widgets ArcGIS ou des extensions logicielles, Calcite fournit tout le nécessaire pour construire des expériences modernes, intuitives et visuellement homogènes.
Depuis la sortie de la version 3.0 de l'PAI JavaScript ArcGIS, Calcite a franchi une nouvelle étape dans sa maturité avec des évolutions majeures autour de la cohérence visuelle, des interactions utilisateur et des performances. Les versions 3.1 et 3.2, publiées depuis février, poursuivent cet élan avec plusieurs nouveautés notables.
Les principales nouveautés depuis la version 3.0
Voici un aperçu des améliorations les plus marquantes :- Option "Tout sélectionner" dans le composant "Combobox"
- Masque de saisie dans le composant "Input Time Picker"
- Harmonisation des états interactifs
- Ergonomie améliorée pour le redimensionnement
- Nouvelle propriété "expanded" pour les composants "Block" et "List Item"
- Propriété floating pour le composant "Action Bar"
- Amélioration des contrastes de couleur
Pour aller plus loin sur ces évolutions, je vous recommande de consulter cet article du blog CodeTheMap.
-
9:08
Like Google My Maps but Better
sur Google Maps ManiaTasmap is a powerful platform that allows anyone to create personalized, interactive maps - like Google My Maps, but better!To help you build your own custom maps, Tasmap includes built-in AI support. This means you can get started quickly by simply telling Tasmap what you want to include on your map.For example, I gave Tasmap the following prompt:Help me create a map of filming locations in Los
-
6:24
Qui est l’utilisateur des LLM ?
sur Dans les algorithmesLes grands modèles de langage ne sont pas interprétables, rappelle le professeur de droit Jonathan Zittrain dans une tribune pour le New York Times, en préfiguration d’un nouveau livre à paraître. Ils demeurent des boîtes noires, dont on ne parvient pas à comprendre pourquoi ces modèles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent à d’autres moments des erreurs si étranges. Mieux comprendre certains des mécanismes de fonctionnement de ces modèles et utiliser cette compréhension pour les améliorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractéristiques lui permettant de mieux cartographier son modèle. Meta, la société mère de Facebook, a publié des versions toujours plus sophistiquées de son grand modèle linguistique, Llama, avec des paramètres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramètres des modèles). Transluce, un laboratoire de recherche à but non lucratif axé sur la compréhension des systèmes d’IA, a développé une méthode permettant de générer des descriptions automatisées des mécanismes de Llama 3.1. Celles-ci peuvent être explorées à l’aide d’un outil d’observabilité qui montre la nature du modèle et vise à produire une “interprétabilité automatisée” en produisant des descriptions lisibles par l’homme des composants du modèle. L’idée vise à montrer comment les modèles « pensent » lorsqu’ils discutent avec un utilisateur, et à permettre d’ajuster cette pensée en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du département d’informatique de Harvard, dirigé par Fernanda Viégas et Martin Wattenberg, ont exécuté Llama sur leur propre matériel et ont découverts que diverses fonctionnalités s’activent et se désactivent au cours d’une conversation.
Des croyances du modèle sur son interlocuteurViégas est brésilienne. Elle conversait avec ChatGPT en portugais et a remarqué, lors d’une conversation sur sa tenue pour un dîner de travail, que ChatGPT utilisait systématiquement la déclinaison masculine. Cette grammaire, à son tour, semblait correspondre au contenu de la conversation : GPT a suggéré un costume pour le dîner. Lorsqu’elle a indiqué qu’elle envisageait plutôt une robe, le LLM a changé son utilisation du portugais pour la déclinaison féminine. Llama a montré des schémas de conversation similaires. En observant les fonctionnalités internes, les chercheurs ont pu observer des zones du modèle qui s’illuminent lorsqu’il utilise la forme féminine, contrairement à lorsqu’il s’adresse à quelqu’un. en utilisant la forme masculine. Viégas et ses collègues ont constaté des activations corrélées à ce que l’on pourrait anthropomorphiser comme les “croyances du modèle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stéréotypes corrélés selon que le modèle suppose qu’une personne est un homme ou une femme. Ces croyances se répercutent ensuite sur le contenu de la conversation, l’amenant à recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modèles donnent des réponses plus longues à ceux qu’ils croient être des hommes qu’à ceux qu’ils pensent être des femmes. Viégas et Wattenberg ont non seulement trouvé des caractéristiques qui suivaient le sexe de l’utilisateur du modèle, mais aussi qu’elles s’adaptaient aux inférences du modèle selon ce qu’il pensait du statut socio-économique, de son niveau d’éducation ou de l’âge de son interlocuteur. Le LLM cherche à s’adapter en permanence à qui il pense converser, d’où l’importance à saisir ce qu’il infère de son interlocuteur en continue.
Un tableau de bord pour comprendre comment l’IA s’adapte en continue à son interlocuteurLes deux chercheurs ont alors créé un tableau de bord en parallèle à l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothèses que fait le modèle au fil de leurs échanges (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fête prénatale, il suppose que son interlocuteur est jeune, de sexe féminin et de classe moyenne. Il suggère alors des couches et des lingettes, ou un chèque-cadeau. Si on ajoute que la fête a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut économique de son interlocuteur pour qu’il corresponde à la classe supérieure et suggère alors d’acheter des produits de luxe pour bébé de marques haut de gamme.
Un article pour Harvard Magazine de 2023 rappelle comment est né ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spécialiste de visualisation de données. Elle codirige Pair, un laboratoire de Google (voir le blog dédié). En 2009, elle a imaginé Web Seer est un outil de visualisation de données qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour différentes recherches Google, par exemple selon le genre. L’équipe a développé un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modèle de langage BERT compléterait le mot manquant si un mot de cette phrase était supprimé.
Pour Viegas, « l’enjeu de la visualisation consiste à mesurer et exposer le fonctionnement interne des modèles d’IA que nous utilisons ». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs à comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des réponses des modèles d’IA générative. Car selon la façon dont les modèles nous perçoivent, leurs réponses ne sont pas les mêmes. Or, pour comprendre que leurs réponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une compréhension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et Hawaï, les réponses peuvent varier selon la perception de votre statut socio-économique « Il semble donc que ces systèmes aient internalisé une certaine notion de notre monde », explique Viégas. De même, nous voudrions savoir ce qui, dans leurs réponses, s’inspire de la réalité ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’améliorer la compréhension des modèles (par exemple, pour mesurer l’équité d’un modèle ou les biais ou l’optimisation de la diversité – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications à explorer” interactives.
Ce qui est fascinant ici, c’est combien la réponse n’est pas tant corrélée à tout ce que le modèle a avalé, mais combien il tente de s’adapter en permanence à ce qu’il croit deviner de son interlocuteur. On savait déjà, via une étude menée par Valentin Hofmann que, selon la manière dont on leur parle, les grands modèles de langage ne font pas les mêmes réponses.
“Les grands modèles linguistiques ne se contentent pas de décrire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent également des stéréotypes qu’ils recomposent à la volée. On comprend qu’un grand enjeu désormais soit qu’ils se souviennent des conversations passées pour ajuster leur compréhension de leur interlocuteur, comme l’a annoncé OpenAI, suivi de Google et Grok. Le problème n’est peut-être pas qu’ils nous identifient précisément, mais qu’ils puissent adapter leurs propositions, non pas à qui nous sommes, mais bien plus problématiquement, à qui ils pensent s’adresser, selon par exemple ce qu’ils évaluent de notre capacité à payer. Un autre problème consiste à savoir si cette “compréhension” de l’interlocuteur peut-être stabilisée où si elle se modifie sans cesse, comme c’est le cas des étiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modèles nous mécalculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous même le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux données qu’ils infèrent ?
Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-à-dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-à-dire, nous hallucine nous-mêmes).
Les chercheurs de Harvard ont cherché à identifier les évolutions des suppositions des modèles selon l’origine ethnique dans les modèles qu’ils ont étudiés, sans pour l’instant y parvenir. Mais ils espèrent bien pouvoir contraindre leur modèle Llama à commencer à traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idée ici, serait d’orienter les réponses d’un modèle, par exemple, en lui faisant adopter un ton moins caustique ou plus pédagogique lorsqu’il identifie qu’il parle à un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dépendance psychologique à l’égard de ces systèmes. Mais Zittrain en tire une autre conclusion : “Si nous considérons qu’il est moralement et sociétalement important de protéger les échanges entre les avocats et leurs clients, les médecins et leurs patients, les bibliothécaires et leurs usagers, et même les impôts et les contribuables, alors une sphère de protection claire devrait être instaurée entre les LLM et leurs utilisateurs. Une telle sphère ne devrait pas simplement servir à protéger la confidentialité afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident à mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter à exiger des créateurs et des opérateurs de modèles qu’ils s’engagent à être les amis inoffensifs, serviables et honnêtes qu’ils sont si soigneusement conçus pour paraître”.
Inoffensifs, serviables et honnêtes, voilà qui semble pour le moins naïf. Rendre visible les inférences des modèles, faire qu’ils nous reconnectent aux humains plutôt qu’ils ne nous en éloignent, semblerait bien préférable, tant la polyvalence et la puissance remarquables des LLM rendent impératifs de comprendre et d’anticiper la dépendance potentielle des individus à leur égard. En tout cas, obtenir des outils pour nous aider à saisir à qui ils croient s’adresser plutôt que de nous laisser seuls face à leur interface semble une piste riche en promesses.
Hubert Guillaud
-
2:00
GeoServer Team: June 2025 Vulnerability Disclosures
sur Planet OSGeoThe GeoServer community has readied the following CVE vulnerabilities for public disclosure.
-
CVE-2025-30220 XML External Entity (XXE) Processing Vulnerability in GeoServer WFS Service (High)
Fixed: GeoServer 2.27.1 | GeoServer 2.26.3 | GeoServer 2.25.7 -
CVE-2025-30145 Denial-of-service (DoS) Vulnerability in Jiffle process (High)
Fixed: GeoServer 2.27.0 | | GeoServer 2.26.3 | GeoServer 2.25.7 -
CVE-2025-27505 Missing Authorization on REST API Index (Moderate)
Fixed: GeoServer 2.26.3 | GeoServer 2.25.6 -
CVE-2024-38524 GWC Home Page exposes sensitive server information (Moderate)
Fixed: GeoServer 2.26.2 | GeoServer 2.25.6 -
CVE-2024-40625 Coverage REST API Server Side Request Forgery (Moderate)
Fixed: GeoServer 2.26.0 -
CVE-2024-29198 Unauthenticated SSRF via TestWfsPost (High)
CVE-2021-40822 SSRF in TestWfsPost for specific targets, e.g. PHP + Nginx (High)
Fixed: GeoServer 2.25.2 | GeoServer 2.24.4This duplication is due to CVE-2021-40822 being generated prior to our use of CVE records.
-
CVE-2024-34711 Improper ENTITY_RESOLUTION_ALLOWLIST URI validation in XML Processing (SSRF) (High)
Fixed: GeoServer 2.25.0
The release announcements listed above have been updated.
Free software is a participation sport - to create a patch for a prior release volunteer with community development.
Q: How often should I upgrade GeoServer?GeoServer operates with a time boxed release cycle, maintaining “stable” and “maintenance” releases, over the course of a year.
-
Upgrade GeoServer twice a year as new stable releases are made.
-
Once the release you are using has entered “maintenance” it is a good idea to upgrade (before the release is no longer supported).
-
GeoServer security policy provides one year of support. You may also contact our service providers for extended support beyond this timeframe.
Stay up to date:
-
Please monitor release announcements for the heading “Security Considerations”.
Security Considerations
This release addresses several security vulnerabilities, and is a recommended upgrade for production systems.
You can review the release announcement, and decide to update.
-
When everyone has had an opportunity to update the details of the vulnerability are announced.
Security Considerations
This release addresses several security vulnerabilities, and is a recommended upgrade for production systems.
- CVE-2024-29198 Unauthenticated SSRF via TestWfsPost (Moderate)
-
Review the full vulnerability to learn more:
-
Scanning tools also have access to this information when the report is published:
As incoming security reports contain sensitive information they are only shared with representatives of the geoserver-security email list.
Participation in geoserver-security, like commit access, is volunteer based and reflects trust.
Please review GeoServer Security Policy if you are in a position to help out.
-
-
12:38
OSGeo Announcements: [OSGeo-Announce] PROJ 9.6.2 is released
sur Planet OSGeoPROJ 9.6.2 is releasedOn behalf of the PROJ team, we are happy to announce the release of PROJ 9.6.2
The PROJ release includes updates to the the database contents, as well as a number of bug fixes. See the release notes below.
Download the archives here:
[download.osgeo.org]
Updates- Update EPSG to 12.013 Bug Fixes- Database: change ESRI deprecated records back to their deprecated state (#4519)
[download.osgeo.org]- ProjectedCRS::identify(): more robust identification of old ESRI names using _IntlFeet (#4518)
- Fix issue related to D_Unknown_based_on_WGS_84_ellipsoid datum name (#4514)
- proj_trans_bounds(): sample points within the source grid to avoid missing extent such as world-wide coverage from EPSG:4326 to ESRI:54099 (Spilhaus) (#4513)
- proj_trans_bounds(): avoid erroring out, in some cases, when PJ* object is directly constructed from a PROJ pipeline (#4512)
1 post - 1 participant
-
11:30
Représentations des risques d’inondation, adaptation et évacuation en Île-de-France
sur CybergeoL’étude des déterminants des représentations liées aux risques et leurs effets sur les niveaux de préparation des populations exposées conduit à des conclusions souvent contradictoires d’une étude de cas à une autre. De nombreuses théories et hypothèses concurrentes ont été formulées dans des disciplines différentes, mais aucune n’est parvenue à s’imposer empiriquement. La validation croisée des résultats est complexe et le champ des risk perception s’apparente souvent à une collection d’études de cas indépendantes et peu comparables. À partir d’une enquête par questionnaire sur les représentations liées au risque inondation à Paris et en Île-de-France sur un échantillon de grande taille (n=2976), cet article propose une réflexion théorique et méthodologique pour consolider le positionnement de la géographie dans le champ des représentations des risques, pour mieux démêler les facteurs sociaux et territoriaux. Les questions de recherche se structurent autour du rôle de l’exposition ...
-
11:30
Mark Monmonier, 2023, Comment faire mentir les cartes, Paris, Flammarion, 304 p.
sur CybergeoInitialement publié en 1991 et rapidement traduit en français (1993), Comment faire mentir les cartes de Mark Monmonier est un livre dont l’auteur admet lui-même qu’il n’a pas complètement atteint son objectif. Il voulait en faire un ouvrage pour le grand public et surtout pas un manuel étudiant. C’est pourtant, en France du moins, ce qu’il est devenu. La troisième édition, sortie aux États-Unis en 2018, a été traduite dès 2019 dans la collection Autrement de Flammarion. Cinq ans plus tard, le même éditeur ressort aujourd’hui cet ouvrage en format poche dans sa collection Champs/essais. Si les illustrations pâtissent de la réduction du format et de la qualité de la reprographie, le format et le prix le rendent plus accessible. Cela pourrait enfin lui ouvrir les portes du lectorat initialement visé : "Le lecteur intelligent et non-initié qui s’intéresse à la cartographie" (p.14).
Car, il faut le rappeler, et le titre nous le suggère, ce n’est pas d’un traité de cartographie dont il s’...
-
11:30
Les échanges fonciers agricoles, levier pour la transition agroécologique de l’élevage ?
sur CybergeoL’agriculture contribue aux dérèglements climatiques et à l’érosion de la biodiversité autant qu’elle en subit les conséquences Les pratiques agricoles évoluent pour y remédier, notamment à travers la transition agroécologique qui propose de combiner les savoirs de l’agronomie et de l’écologie. La dimension foncière (distribution et droits d’usage des parcelles) de ces pratiques est peu explorée par la recherche, en dépit de son caractère déterminant pour cette transition. Cet article examine les avantages et limites des échanges de foncier agricole pour la diminution des émissions de gaz à effet de serre et pour le maintien d’habitats favorables à la biodiversité, mais aussi pour les conditions de travail des agriculteurs. Il s’appuie sur l’analyse de l’élevage laitier dans la Zone Atelier Armorique, à partir d’entretiens auprès de services (para-)publics en charge du foncier agricole en Ille-et-Vilaine. Combinant des approches en écologie, en géographie et en droit, cette étude pr...
-
11:30
Hervé Théry, 2024, Amazone. Un monde en partage, Paris, CNRS Éditions, 229 p.
sur CybergeoAprès le Congo, le Tigre et l’Euphrate, le Mississippi et la Volga, voici l’Amazone. Ce livre est publié dans la collection Géohistoire d’un fleuve, dirigée par Thierry Sanjuan. Hervé Théry, grand spécialiste du Brésil et de l’Amérique latine, s’attaque à un véritable monument, le plus grand fleuve du monde, par la taille de son bassin, par son débit et par sa longueur même si, chiffres à la clé, il montre que ce dernier record est contesté par le Nil.
C’est un livre de facture classique que nous livre le géographe. Le style est précis, très clair, sans jargon. Hervé Théry expose des faits, donne des chiffres (et les compare avec d’autres avec une volonté didactique affichée), décrit des lieux avant de se livrer à des analyses et de pointer quelques enjeux majeurs. Citons-les tout de suite : le "partage" de cet immense territoire, les incendies, la déforestation, l’accessibilité et les voies de circulation, la mondialisation des problèmes amazoniens, les droits des peuples autochtone...
-
11:30
La passation des marchés publics : une entrée utile pour l’analyse des interactions spatiales dans l’espace français
sur CybergeoL’ouverture récente des données concernant la passation des marchés publics à l’échelle européenne permet d’accéder à des informations sur les acheteurs publics et sur les entreprises prestataires sélectionnées. Le « nettoyage » et géoréférencement de la base de données à l’échelle européenne Tenders Electronic Daily (TED) sur les marchés publics a permis de créer et mettre à disposition de tous une base à l’échelle du territoire français, la base French Open Public Procurement Award Notices (FOPPA). Cette base permet d’explorer de manière inédite les interactions entre des unités spatiales de différentes échelles. Elle offre la possibilité d’identifier les acteurs impliqués dans les marchés, leurs partenaires, ainsi que le type de marché, afin d’analyser et d’expliquer ces relations.
Dans cet article, nous illustrons les possibilités offertes par la base FOPPA, en produisant des analyses essentiellement descriptives des interactions, au prisme de la commande publique, aux échelles r... -
11:30
Searching for Data: Nature and Flow of Information Underlying Urban Wild Boar Management Policies. Bordeaux (France) as a Case Study
sur CybergeoNature in the city harbours a wide range of biodiversity. While some species are welcomed, others have settled in uninvited. This is the case with wild boar. The challenge of managing large urban wildlife is not only ecological but also cultural, political, and ethical. This study, driven by the general uncertainty surrounding the socio-ecological issues of coexistence with urban wild boar and potential solutions, explores and discusses the nature and flow of information underlying the specie’s management policies. Our approach is based on a field survey conducted in Bordeaux Metropolis, aimed at tracking the shared information between local stakeholders. The objectives are twofold: i) to gather and analyse existing data on urban wild boar, the problems generated by their presence in the city, and the management systems; ii) to model information flows between social groups facing the challenges of coexistence with wild boar or involved in their management. The study points to a lack...
-
11:30
Les micropolluants émergents dans les eaux littorales : représentations et enjeux de gestion d’un problème complexe. Le cas du Pays basque français
sur CybergeoLa qualité de l’eau du littoral basque français est un enjeu crucial pour les gestionnaires locaux. Parmi les dégradations qu’elle subit, les micropolluants représentent un défi majeur. Ces substances chimiques, aussi appelées polluants émergents, peuvent nuire à la santé humaine et à l’environnement malgré leur présence en faibles concentrations. Leur gestion est complexe en raison de leur diversité, de leurs origines multiples, d’une absence massive de réglementation et de la nécessité d’une approche globale et multi-niveaux pour réduire leur impact, ce qui en fait un "problème épineux". Cet article a pour objectif d’appréhender les dynamiques et les défis de la gestion de ces polluants en portant la focale sur les acteurs locaux et leurs représentations du problème. La gestion de l’eau implique divers acteurs publics et privés, chacun ayant des intérêts et des responsabilités variés. Pour cette étude, 65 acteurs ont été interrogés sur leurs visions de la situation locale et de la...
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:00
Mappery: Car Park in The Hague
sur Planet OSGeoReinder spotted this beautiful tiled map on the entrance to an underground car park in The Hague.
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:30
EthnoGuessr
sur Google Maps ManiaEthnoGuessr is a geography-based guessing game inspired by GeoGuessr, but instead of identifying real-world locations from street views, players are shown composite facial images representing average features of various ethnic groups. The facial averages (sourced from anthropological website Human Phenotypes) serve as clues. Players must guess the historical geographic origin of the
-
11:00
Mappery: Italian wines
sur Planet OSGeoFancy some Italian wines?
-
21:08
Faut-il relancer les Zones marines d'importance écologique ou biologique (ZIEB) ?
sur Cartographies numériquesSource : Dunn, D.C., Cleary, J., DeLand, S. et al. (2025). What is an ecologically or biologically significant area ? npj Ocean Sustain 4, 28. [https:]] (article en accès libre)
1) Qu'est-ce qu'une Zone marine d'importance écologique ou biologique (ZIEB) ?Les zones d'importance écologique et biologique (ZIEB, en anglais EBSA) sont des zones au sein des eaux océaniques que des évaluations scientifiques officielles ont désignées comme ayant une importance écologique et biologique particulière par rapport à l'écosystème marin environnant. Créées en 2011 par la Convention sur la diversité biologique, ces zones regroupent des milieux variés?: zones côtières (55%), océaniques (17%) et grands fonds (28%). Certains sites abritent des espèces clés comme des tortues, des oiseaux ou des mammifères marins, d'autres des habitats critiques (mangroves, monts sous-marins, zones d’upwelling). Amorcée en 2011, la première vague du processus des ZIEB touche à sa fin. Pendant plus d'une décennie, 15 ateliers régionaux ont été organisés, impliquant plus de 400 participants, couvrant 75,7 % de l'océan et identifiant 338 ZIEB.
Les 336 ZIEB délimitées spatialement (sur 338) décrites dans 15 ateliers régionaux (source : Dunn et al., 2025)
2) Quelles sont les lacunes de ce dispositif ?
La majorité des ZIEB ne bénéficient d’aucune mesure de gestion renforcée. Dans les eaux internationales, seuls 7% d'entre elles incluent une aire protégée. Plus la zone est vaste, dynamique et en haute mer, plus elle échappe à une régulation efficace. Les systèmes côtiers fréquemment regroupés dans les descriptions des ZIEB, présentent différents niveaux de vulnérabilité à divers facteurs de stress. Une différenciation et une délimitation plus poussées sur ces zones côtières seraient probablement nécessaires afin que des mesures de gestion puissent être envisagées. De nombreuses lacunes subsistent : peu de données sur les grands fonds, faible représentation des herbiers ou macroalgues, participation limitée de certains États. Des régions très riches comme les mers de Chine ou les archipels indonésiens restent peu couvertes. Les États-Unis et le Canada ont choisi de ne pas inclure leurs ZEE dans le processus des ZIEB, indiquant qu'ils avaient des processus internes en cours.
3) Pistes pour permettre une gestion amélioréeAttribuer une valeur à un lieu et attirer l'attention sur ce point est une chose, convaincre les autorités réglementaires de mettre en œuvre des mesures significatives pour assurer la pérennité de cette valeur et de prévoir un budget pour financer sa gestion, y compris un suivi de base permettant de comprendre la valeur existante ou perdue, en est une autre. Une reconnaissance internationale est importante pour stimuler et soutenir les initiatives nationales de gestion, en particulier dans les pays aux capacités scientifiques limitées. L'adoption du Traité international pour la protection de la haute mer et de la biodiversité marine (BBNJ), signé par 115 États en 2023, a ouvert la voie à une nouvelle approche pour attribuer une valeur écologique afin d'orienter et de hiérarchiser l'élaboration de mesures de surveillance et de gestion. La société a déployé des efforts considérables pour mieux comprendre (à savoir collecter, analyser et synthétiser les données scientifiques et autres sources de connaissances) et ainsi pouvoir attribuer une valeur à ces lieux en tant que zones d'importance écologique et biologique . « Nous avons accumulé un océan de connaissances grâce au processus ZIEB, mais, comme pour notre océan mondial, la grande majorité reste à comprendre et à protéger adéquatement ».
4) Disponibilité des donnéesLe référentiel ainsi que les informations sur les ZIEB sont disponibles sur le site officiel de la Convention sur la biodiversité biologique (CBD). Leurs périmètres sont à télécharger au format geojson dans la partie description des ZIEB examinées par la Conférence des Parties à la CDB (voir la carte interactive des dépôts).
Les critères scientifiques adopté en 2008 par la 9e Conférence des Parties à la Convention sur la diversité biologique (COP9) pour définir les zones d'importance écologique ou biologique (ZIEB) étaient les suivants. Ils peuvent être vus comme un peu larges, mais ils ont le mérite d'exister :
- Unicité ou rareté de la zone
- Importance particulière pour les stades du cycle biologique des espèces
- Importance pour les espèces et/ou les habitats menacés, en voie de disparition ou en déclin
- Vulnérabilité, fragilité, sensibilité ou rétablissement lent
- Productivité biologique
- Diversité biologique
- Dimension naturelle
Pour aller plus loin
Un indispensable sommet sur l’océan (Le Monde). La troisième Conférence des Nations unies sur l’océan (UNOC-3) se tient à Nice, du 9 au 13 juin, en présence de 60 chefs d’Etat ou de gouvernement, sans les Etats-Unis. Même si les objectifs paraissent modestes, cette conférence doit permettre d’entretenir la mobilisation en faveur d’une cause qui concerne l’humanité tout entière.
Sommet sur les océans à Nice : on vous résume le débat sur les aires marines protégées (TF1). En amont de l'UNOC-3, Emmanuel Macron a annoncé vouloir "limiter l'activité" des chaluts de fond dans certaines zones des aires marines protégées françaises. Le sujet est central pour la protection des océans. Mais l'efficacité de ces zones conçues pour assurer une conservation pérenne des écosystèmes marins fait débat.
Obtenir des aires marines réellement protégées (Bloom). Selon cette association "entièrement dévouée à l’océan et à ceux qui en vivent", la France s’illustre par sa médiocrité en matière de protection de la biodiversité océanique. L'association Bloom préconise 11 règles d'or pour une pêche sociale et écologique. Ce rapport présente les travaux scientifiques d’une trentaine des plus grands spécialistes de l’océan à l’échelle mondiale. L’article scientifique "Repenser la durabilité des pêcheries marines pour une planète en évolution rapide" qui relate leurs travaux a été publié en septembre 2024 dans la revue npj Ocean Sustainability du journal Nature.
Protection des océans : des ONG portent plainte à Bruxelles pour l’arrêt du chalutage de fond dans les aires marines « protégées » (Libération). Cinq collectifs ont saisi la Commission européenne. Elles accusent la France, l’Italie et l’Allemagne de manquer à leur devoir de sauvegarder quinze écosystèmes marins, en violation d’une directive européenne datant de 1992.
Le sommet de l’ONU sur l’océan s’achève à Nice, avec un cap clair sur la haute mer (Le Temps). La ratification du traité sur la haute mer par une cinquantaine de pays, actée lundi à Nice, permet d’espérer une entrée en vigueur rapide de cet accord. Une COP dédiée est prévue dès 2026. Plusieurs pays, de la Colombie aux Samoa, annoncent de nouvelles aires marines protégées (AMP) ou renforcent celles existantes. L’océan passe ainsi de 8,34% à plus de 10% d’AMP. En France, seuls 4% des eaux sont mieux protégés, décevant les ONG. Le sommet pointe les « effets néfastes » du climat sur l’océan mais la déclaration finale ne parle pas d’une sortie des énergies fossiles, principale cause de l’acidification.
Programmes de l’UNESCO pour l’océan (2025). L’UNESCO propose plusieurs programmes pour mieux connaître, préserver et valoriser durablement les milieux océaniques.La mer, un objet hautement politique. La privatisation des territoires et ressources maritimes en acte (VertigO)
Comment l'océan est-il construit socialement ? Cela a été appréhendé à travers les méthodes des sciences sociales par la géographie, le droit, l'économie et l'histoire, mais peu par la sociologie, l'anthropologie ou encore la science politique. Les articles de ce numéro spécial de [VertigO] – La revue électronique en science de l'environnement contribue à combler cette lacune en partant de différentes approches et en mobilisant l'anthropologie, la sociologie politique, le droit et la géopolitique dans l'analyse de l'objet « gouvernance des mers et des océans ».Articles connexes
La carte de protection des océans proposée par Greenpeace pour 2030 : utopie ou réalisme ?
MPAtlas, un atlas de la protection marine pour évaluer les aires marines réellement protégées
Blanchissement des coraux et suivi satellitaire par la NOAA
Global Fishing Watch, un site pour visualiser l'activité des navires de pêche à l'échelle mondiale
Une évaluation mondiale des zones d'accès préférentiel pour la pêche artisanale
Vers de possibles variations dans la répartition des stocks de poissons (dans et hors ZEE) en raison du changement climatique
Une carte réactive de toutes les ZEE et des zones maritimes disputées dans le monde
Données cartographiques sur les énergies marines renouvelables consultables sur le Géoportail
Progression de la cartographie haute résolution des fonds marins (programme Seabed 2030 et GEBCO)
DeltaDTM : un modèle numérique de terrain côtier à l'échelle mondiale
Cartes et données pour alimenter le débat sur les attaques de requins dans le monde
-
17:43
Medieval Murder Maps. Un site de cartographie interactive sur les meurtres en Angleterre à la fin du Moyen Âge
sur Cartographies numériquesLe site Medieval Murder Maps offre un aperçu unique de la violence et de la justice à la fin du Moyen Âge en Angleterre. Son fondateur, Manuel Eisner a repéré des centaines de meurtres à cette époque. En utilisant des registres du XIVe siècle et d'autres sources d'archives, l'historien directeur de l'Institut de criminologie de l'Université de Cambridge, a passé 15 ans à travailler sur des outils interactifs qu'il appelle « cartes de meurtres » avec l'aide d'une équipe. Réunis et analysés dans un article à comité de lecture, leurs résultats offrent un aperçu des dessous sombres de la vie médiévale à Londres, Oxford et York. Ils révèlent également des tendances qui pourraient surprendre les lecteurs d'aujourd'hui : certains des foyers les plus meurtriers se trouvaient dans les quartiers les plus aisés, et les étudiants universitaires figuraient parmi les tueurs les plus fréquents. Les auteurs ont également constaté que les meurtres avaient tendance à se concentrer dans les zones extérieures très fréquentées et que la majorité des tueurs bénéficiaient de l'impunité.
Référence scientifique
Eisner, M., Brown, S.E., Eisner, N. et al. (2025). Spatial dynamics of homicide in medieval English cities: the Medieval Murder Map project [Dynamique spatiale des homicides dans les villes médiévales anglaises : le projet Medieval Murder Map], Criminal Law Forum, [https:]] (article en accès libre).
Cette étude examine les schémas spatiaux des homicides dans trois villes anglaises du XIVe siècle – Londres, York et Oxford – à travers le projet Medieval Murder Map, qui visualise 355 cas d'homicides issus d'enquêtes judiciaires. En intégrant la criminologie historique aux théories contemporaines de la criminalité spatiale, les auteurs esquissent une nouvelle criminologie historique de l'espace, montrant la manière dont les environnements urbains ont façonné les schémas de violence meurtrière du passé. Les résultats révèlent des similitudes entre les trois villes. Les homicides étaient fortement concentrés dans des lieux clés de la vie urbaine tels que les marchés, les places et les voies publiques. Les schémas temporels indiquent que la plupart des homicides se produisaient le soir et le week-end, ce qui concorde avec la théorie des activités routinières. Oxford présentait des taux d'homicides bien plus élevés que Londres et York, ainsi qu'une proportion plus élevée de violences collectives organisées, suggérant des niveaux élevés de désorganisation sociale et d'impunité. Les analyses spatiales révèlent des zones distinctes liées aux conflits entre la ville et l'université et à la violence alimentée par les factions étudiantes. À Londres, les résultats suggèrent des groupes distincts d'homicides reflétant des différences de fonctions économiques et sociales. Dans les trois villes, certains homicides ont été commis dans des espaces à forte visibilité et à forte signification symbolique. Ces résultats mettent en évidence l'influence historique de l'espace public sur la violence urbaine. L'étude soulève également des questions plus larges sur le déclin à long terme des homicides, suggérant que les changements dans la gouvernance urbaine et l'organisation spatiale pourraient avoir joué un rôle crucial dans la réduction de la violence meurtrière.
Le site Medieval Murder Map
Le site Medieval Murder Maps ( [www.medievalmurdermap.co.uk] ) comprend trois villes : Londres, York et Oxford. Les sites ont été sélectionnés selon plusieurs critères : leur importance en tant que centres urbains dans l'Angleterre médiévale ; la disponibilité d'enquêtes de coroners s'étalant sur plusieurs années ; l'accès à des cartes historiques numériques de haute qualité ; et des considérations pratiques telles que l'expertise et les contraintes de temps. Les coroners étaient des fonctionnaires locaux représentant les intérêts de la Couronne, chargés principalement de mener des enquêtes sur les morts violentes ou suspectes. Leur rôle garantissait la protection des intérêts financiers royaux et la présentation des informations pertinentes aux tribunaux pour la mise en accusation lors des procès.Les cartes montrent les lieux d'homicides recensés au XIVe siècle. Le bleu indique les meurtres impliquant des hommes ; le rouge indique une victime ou un agresseur de sexe féminin. Les symboles indiquent les armes utilisées. Il est possible de sélectionner les données en fonction du genre de l'agresseur ou de la victime (homme ou femme), du jour et de l'heure de la semaine, du type d'arme utilisé, du lieu de l'événement.
Interface du site Medieval Murder Maps
L'auteur Manuel Eisner et son équipe
Manuel Eisner a étudié l'histoire à l'Université de Zurich et est titulaire d'un doctorat en sociologie. Il aa publié plusieurs ouvrages, comme auteur ou directeur de publication, ainsi que plus d'une 100e d'articles et chapitres de livres en anglais, allemand, espagnol et français. Ses travaux universitaires portent sur l'explication des causes, des conséquences et de la prévention de la violence interpersonnelle dans les sociétés humaines. ses recherches visent à répondre aux questions suivantes : comment décrire et expliquer les variations des niveaux de violence entre les sociétés et au cours de l'histoire humaine ? Quels mécanismes psychologiques et sociaux expliquent l'évolution et la stabilité des comportements violents au cours de la vie ? Quelle combinaison de prévention, d'intervention et de contrôle est la plus adaptée pour réduire la violence interpersonnelle dans différentes sociétés du monde ?
L'équipe de Murder Maps : Manuel Eisner, Sam Barnes, Dr Stéphanie Emma Brown, Birgitte Bruun, Simone Castello, Dr Nora Eisner, Charlie Inman, Jeremy Ries, Michael Rice, Ruth Schmid, Liam Kelly, Steve Hankey.
Pour aller plus loin
- « Just how bloody was medieval England ? A ‘murder map’ holds some surprises » (The Washington Post)
- « Who Killed the Innkeeper With a Sword in 1315 ? » (The New York Times)
- « Noblewoman may have ordered brazen murder of priest outside St Paul’s in 1337 » (The Guardian)
Numérisée en haute résolution, la carte médiévale de Fra Mauro peut être explorée en détail
La carte médiévale d'Ebstorf en version interactive et en téléchargement
Mapping Narrations, un ouvrage sur la cartographie au Moyen Âge et à l’époque moderne
Cartographie des fusillades de masse aux Etats-Unis : comment étudier et objectiver le phénomène ?
Cartes et données sur les conflits et violences dans le monde
Cartes et atlas historiques
-
11:00
Mappery: Souvenir Shop in Italy
sur Planet OSGeoLegami is a souvenir shop where maps can be found in various forms.
-
8:23
The Future of Street View Has Arrived
sur Google Maps ManiaOdyssey has released a demo of its new AI technology that enables users to explore 3D video environments in real time. Odyssey is similar to Google Maps Street View in that it allows users to visually explore real-world environments. However, instead of navigating through static 360-degree photos, Odyssey uses AI-generated streaming video that responds dynamically to user input. The result
-
7:48
Cartes des taux d'application des pesticides dans l'Union européenne à une résolution spatiale de 250 m
sur Cartographies numériquesSource : Porta, G.M., Casse, L., Manzoni, A. et al. (2025). Pesticides application rate maps in the European Union at a 250?m spatial resolution. Science Data 12, 725 (article en open access), [https:]]
Les auteurs proposent une cartographie des taux d'application de pesticides dans l'Union européenne à une résolution spatiale de 250 mètres pour 53 ingrédients actifs en 2018. Les données sources comprennent des estimations mondiales des apports de pesticides, des cartes de cultures à haute résolution et l'utilisation de pesticides rapportée par les chiffres officiels d'EUROSTAT. Les taux d'application mondiaux de pesticides précédemment publiés dans PEST-CHEMGRIDS sont utilisés comme premières estimations. Ceux-ci sont ensuite ajustés à l'aide d'un ensemble de données d'étalonnage recueillies à partir de l'utilisation des pesticides en agriculture. L'estimation de la masse appliquée par pays et par type de culture est ensuite combinée à des cartes de cultures à haute résolution. La procédure prend explicitement en compte la qualité et l'incertitude des données grâce à une procédure d'estimation du maximum de vraisemblance. Ce produit de données présente des distributions spatiales détaillées des apports de pesticides, facilitant l'évaluation du devenir et du transport des pesticides, des transformations biogéochimiques ainsi que de l'évaluation des risques environnementaux.
Cartes des taux d'application des pesticides dans l'Union européenne à une résolution spatiale de 250 m (source : Porta, Casse, Manzoni et al., 2025).
Les cartes sont fournies au format géoréférencé (geotiff) utilisant les coordonnées projetées EPSG:3035. Pour chaque ingrédient actif les auteurs fournissent une carte d'estimation haute (H), médiane (M) et basse (L). Les données comprennent également une distribution d'indice de précision spatiale, qui indique la fidélité des cartes produites par rapport à l'ensemble de données d'étalonnage. La carte des cultures EUCM-CORINE-250 est également fournie, ainsi que les données sur les taux d'application. Toutes les données sont disponibles sur Figshare (7,8 Go de données à télécharger).Articles connexes
Carte de l'utilisation des pesticides en France et outre-mer
Cartographie des rejets de PFAS par les installations classées pour la protection de l'environnement (ICPE)
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
Connaître l'état des eaux souterraines de l'Union européenne (projet Under the Surface)
Impact de l’exposition à la pollution de l’air ambiant sur la survenue de maladies chroniques
Pollution de l'air et zones urbaines dans le monde
Agroclimat2050, un outil pour prévoir l'impact des événements météorologiques sur la production agricole
Un Atlas de la PAC pour une autre politique agricole commune
-
14:15
Lutra consulting: Crowdfunding QGIS 3D: Support Open Source Digital Twins
sur Planet OSGeoHelp fund QGIS 3D enhancements for digital twins, including glTF export, CityGML, IFC, and performance upgrades. Campaign ends June 30, 2025.