Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
4737 éléments (1 non lus) dans 55 canaux
- Cybergeo
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique
- Mappemonde
- Dans les algorithmes
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée
- Geotribu
- Les cafés géographiques
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (1 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques
- Veille cartographie
- Makina Corpus
- Oslandia
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Toile géomatique francophone (1 non lus)
-
9:00
Rando Vosges du Nord se réinvente avec Geotrek-Rando v3 : nouveau site de randonnée
sur Makina CorpusSi vous êtes un amateur de randonnée, vous serez ravi d’apprendre que le Parc naturel régional des Vosges du Nord a lancé la dernière version de son site de randonnées e
-
14:00
geOcom 2024
sur GeotribuSynthèse de l'édition 2024 des rencontres annuelles de la communauté geOrchestra qui a eu lieu en juin à Lille -
14:00
Olympiades de géométrie : GRASS et SAGA
sur GeotribuTroisième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : GEOS et QGIS, au tableau !
-
9:00
Découvrez notre nouvelle formation Nuxt : créez une application web
sur Makina CorpusAvec la nouvelle formation Nuxt découvrez la création d’une application web à partir de ce framework afin d’appréhender son architecture, ses modes de rendu (SSR/CSR/ESR…) et ses spécificités.
-
8:00
Découvrez les dernières avancées de Geotrek-widget
sur Makina CorpusNous sommes ravis de vous présenter les dernières avancées de Geotrek-Widget, qui a fait l’objet de nombreux développements ces derniers mois pour améliorer son interface et ses fonctionnalités.
-
10:16
Lettre ouverte à la commission Européenne – Défendons le programme NGI
sur OslandiaCette lettre a été publiée initialement par les petites singularités. Si vous souhaitez signer la lettre, vous pouvez la publier sur votre site et compléter le tableau ici.
Le CNLL a également publié une tribune, s’alarmant de la suppression des programmes NGI. Oslandia, en tant que membre du CNLL, soutient aussi ce texte.
Lettre ouverte à la Commission Européenne
Depuis 2020, les programmes Next Generation Internet (NGI), sous-branche du programme Horizon Europe de la Commission Européenne financent en cascade (via les appels de NLNet) le logiciel libre en Europe. Cette année, à la lecture du brouillon du Programme de Travail de Horizon Europe détaillant les programmes de financement de la commission européenne pour 2025, nous nous apercevons que les programmes Next Generation Internet ne sont plus mentionnés dans le Cluster 4.
Les programmes NGI ont démontré leur force et leur importance dans le soutien à l’infrastructure logicielle européenne, formant un instrument générique de financement des communs numériques qui doivent être rendus accessibles dans la durée. Nous sommes dans l’incompréhension face à cette transformation, d’autant plus que le fonctionnement de NGI est efficace et économique puisqu’il soutient l’ensemble des projets de logiciel libre des plus petites initiatives aux mieux assises. La diversité de cet écosystème fait la grande force de l’innovation technologique européenne et le maintien de l’initiative NGI pour former un soutien structurel à ces projets logiciels, qui sont au cœur de l’innovation mondiale, permet de garantir la souveraineté d’une infrastructure européenne. Contrairement à la perception courante, les innovations techniques sont issues des communautés de programmeurs européens plutôt que nord-américains, et le plus souvent issues de structures de taille réduite.
Le Cluster 4 allouait 27.00 millions d’euros au service de :
- « Human centric Internet aligned with values and principles commonly shared in Europe » ;
- « A flourishing internet, based on common building blocks created within NGI, that enables better control of our digital life » ;
- « A structured eco-system of talented contributors driving the creation of new internet commons and the evolution of existing internet common ».
Au nom de ces enjeux, ce sont plus de 500 projets qui ont reçu un financement NGI0 dans les 5 premières années d’exercice, ainsi que plus de 18 organisations collaborant à faire vivre ces consortia européens.
NGI contribue à un vaste écosystème puisque la plupart du budget est dévolue au financement de tierces parties par le biais des appels ouverts (open calls). Ils structurent des communs qui recouvrent l’ensemble de l’Internet, du matériel aux applications d’intégration verticale en passant par la virtualisation, les protocoles, les systèmes d’exploitation, les identités électroniques ou la supervision du trafic de données. Ce financement des tierces parties n’est pas renouvelé dans le programme actuel, ce qui laissera de nombreux projets sans ressources adéquates pour la recherche et l’innovation en Europe.
Par ailleurs, NGI permet des échanges et des collaborations à travers tous les pays de la zone euro et aussi avec ceux des widening countries [1], ce qui est actuellement une réussite tout autant qu’un progrès en cours, comme le fut le programme Erasmus avant nous. NGI0 est aussi une initiative qui participe à l’ouverture et à l’entretien de relation sur un temps plus long que les financements de projets. NGI encourage également à l’implémentation des projets financés par le biais de pilotes, et soutient la collaboration au sein des initiatives, ainsi que l’identification et la réutilisation d’éléments communs au travers des projets, l’interopérabilité notament des systèmes d’identification, et la mise en place de modèles de développement intégrant les autres sources de financements aux différentes échelles en Europe.
Alors que les États-Unis d’Amérique, la Chine ou la Russie déploient des moyens publics et privés colossaux pour développer des logiciels et infrastructures captant massivement les données des consommateurs, l’Union Européenne ne peut pas se permettre ce renoncement. Les logiciels libres et open source tels que soutenus par les projets NGI depuis 2020 sont, par construction, à l’opposée des potentiels vecteurs d’ingérence étrangère. Ils permettent de conserver localement les données et de favoriser une économie et des savoirs-faire à l’échelle communautaire, tout en permettant à la fois une collaboration internationale. Ceci est d’autant plus indispensable dans le contexte géopolitique que nous connaissons actuellement. L’enjeu de la souveraineté technologique y est prépondérant et le logiciel libre permet d’y répondre sans renier la nécessité d’œuvrer pour la paix et la citoyenneté dans l’ensemble du monde numérique.
Dans ces perspectives, nous vous demandons urgemment de réclamer la préservation du programme NGI dans le programme de financement 2025.
[1] Tels que définis par Horizon Europe, les États Membres élargis sont la Bulgarie, la Croatie, Chypre, la République Tchèque, l’Estonie, la Grèce, la Hongrie, la Lettonie, la Lithuanie, Malte, la Pologne, le Portugal, la Roumanie, la Slovaquie et la Slovénie. Les pays associés élargies (sous conditions d’un accord d’association) l’Albanie, l’Arménie, la Bosnie Herzégovine, les Iles Feroé, la Géorgie, le Kosovo, la Moldavie, le Monténégro, le Maroc, la Macédoine du Nord, la Serbie, la Tunisie, la Turquie et l’Ukraine. Les régions élargies d’outre-mer sont : la Guadeloupe, la Guyane Française, la Martinique, La Réunion, Mayotte, Saint-Martin, Les Açores, Madère, les Iles Canaries.Photo de Maximalfocus sur Unsplash
-
14:00
Journée annuelle Prodige 2024
sur GeotribuSynthèse de la journée annuelle Prodige qui s'est tenue en ligne le 3 juin 2024 -
14:00
GEOS au cœur de QGIS
sur GeotribuDeuxième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : GEOS et QGIS, au tableau !
-
9:00
Nouvelle formation MapLibre : création de cartes web interactives
sur Makina CorpusCette formation MapLibre enseigne aux développeurs web à créer et personnaliser des cartes interactives pour leurs applications.
-
6:49
GéoDataDays 2024
sur OslandiaOslandia est cette année encore sponsor des GéoDataDays qui se tiendront les 19 et 20 septembre 2024 à Nantes ! Retrouvez-nous sur notre stand pour découvrir nos solutions et notamment Piero, l’application Web 3D SIG/BIM open source et sur l’espace Démo pour un atelier Métropoles OpenSource !
Venez discuter des dernières avancées de l’open source Geospatial, voir les projets que nous avons réalisés, et découvrir comment nous pouvons répondre à vos problématiques.
Vous y croiserez notamment Bertrand Parpoil, Vincent Picavet, Julien Moura et Vincent Bré !
Inscription : [https:]]
-
8:08
Partez à l'aventure sur les chemins éco-responsables du PNR Loire-Anjou-Touraine
sur Makina CorpusLa mise en place de l’écosystème GeotrekÀ partir de l’année 2022, le Parc naturel régional Loire-Anjou-Tour
-
9:24
CANARI France devient Climadiag Agriculture
sur Makina Corpus
-
6:55
[1’Tech by Oslandia] open data
sur OslandiaDans cette minute Tech, nos collaborateurs vous proposent d’expliquer une technologie, une méthodologie, un concept. Après open source, LiDAR, webGL, réversibilité, TCO et même télétravail, on a brainstormé sur GitLab pour donner notre meilleure définition de l’open data
L’open data ( « Donnée ouverte » ), est la donnée librement accessible. Elle concerne notamment toutes les données publiques accessibles aux usagers : citoyens, entreprises, collectivités, … Elles peuvent être d’origine privée mais sont la plupart du temps mises à disposition par une collectivité ou un établissement public.
L’Open Knowledge Foundation en 2005 donnent les critères essentiels de l’open data : la disponibilité, la réutilisation et la distribution, et la participation universelle. En France, il existe un cadre légal obligeant à l’ouverture de certaines données.
Ces ressources ouvertes accessibles dans des catalogues de données, permettent de construire des outils comme des observatoires pour lesquels la représentation cartographique est utilisée.Oslandia a travaillé sur de nombreux projets mobilisant de l’open data, c’est le cas de Terristory®, un outil partenarial d’aide au pilotage de la transition des territoires ou sur des projets avec Bruxelles Environnement. Nous avons également une connaissance approfondie de la donnée OpenStreetMap.
L’open data permet d’alimenter ces outils numériques avec de la donnée de qualité permettant ainsi des services de qualité.
OpenData et OpenSource forment le combo libre et efficient !
-
15:05
DbToolsBundle : sortie de la version 1.2
sur Makina CorpusDécouvrez les nouveautés de cette nouvelle version ainsi que les fonctionnalités à venir de la prochaine version majeure.
-
14:00
Le constat : les calculs géométriques ne sont pas bons
sur GeotribuDeuxième partie du tour d'horizon des SIG sur la précision des calculs géométriques : analyse des opérations de superposition et de leurs limites. -
14:00
Le constat : les calculs géométriques ne sont pas bons
sur GeotribuPremier chapitre du tour d'horizon des SIG sur la précision des calculs géométriques : analyse des opérations de superposition et de leurs limites.
-
7:30
[Équipe Oslandia] Jean-Marie, développeur C++ / Python
sur OslandiaJean-Marie a toujours aimé l’électronique et tout ce qui touche au traitement du signal. Il rejoint l’INSA Rennes, une école d’ingénieur généraliste en spécialité ESC – Electronique et Systèmes de Communication (aujourd’hui E&T) sur les problématiques télécommunications.
Il réalise son stage de fin d’étude chez Silicom à Rennes sur le sujet « Modélisation de systèmes de communication » sous Matlab avant d’être embauché par la même entreprise mais pour une toute autre mission …le développement d’une application informatique de simulation de réseaux télécom pour la DGA avec QT en C++ !
« Je ne connaissais pas trop l’informatique, quelques notions pendant mes études, mais j’aimais bien, ça me plaisait de pouvoir me lancer là dedans. J’ai acquis des connaissances en pratiquant, c’est comme ça qu’on apprend ! »
Ensuite, Jean-Marie saisit l’opportunité de travailler sur le passage au tout numérique via la TNT. « J’ai travaillé pendant 2 ans et demi au CSA, j’ai réalisé des études sur la planification de fréquences, étudié les couvertures des émetteurs TNT. C’était une super expérience, j’ai travaillé sur un projet qui a impacté les français au quotidien ! »
De retour à Rennes, il reprend le développement en C++ avec QT, notamment pour un projet d’analyse de signaux sismiques du CEA et découvre QGIS. Une nouvelle compétence qu’il mobilise pour la DGA et le développement d’un outil basé sur QGIS pour l’affichage de données relatives à l’aide à la planification de missions satellites.
« 14 ans chez Silicom, il était temps de passer à autre chose »
Jean-Marie rejoint Oslandia en novembre 2021 en tant que développeur C++ / Python où il réalise des missions de développement et DevOps, notamment pour Viamichelin sur la refonte du calcul d’itinéraire de l’outil en ligne ou pour l’IGN pour la mise en place du calcul d’itinéraire sur la nouvelle Géoplateforme.
Projet emblématiqueJean-Marie a produit 80% du code d’OpenLog, un outil de visualisation de données de sondage open source porté par Apeiron (filiale d’Oslandia).
« Ce projet m’a permis de mobiliser mes connaissances sur la représentation de données »
Technologies de prédilectionPython et C++
Ta philosophieLe partage ! Ce qu’on produit peut être utilisé par d’autres, nous partageons nos connaissances et notre travail !
Oslandia en 1 motOuverture par rapport à l’open source et dans le sens où tout est transparent dans l’entreprise, tout le monde peut donner son avis, les décisions sont prises collectivement.
-
13:57
Publication du rapport annuel du CNIG 2023
sur Conseil national de l'information géolocaliséeLe rapport annuel du CNIG est sorti : le CNIG dans toutes ses dimensions
-
14:00
De la tolérance en SIG
sur GeotribuUn tour d'horizon des SIG sur la précision des calculs géométriques. -
14:00
De la tolérance en SIG
sur GeotribuUn tour d'horizon des SIG sur la précision des calculs géométriques.
-
10:27
Une vision multiscalaire des rapports de force politiques
sur Carnet (neo)cartographiqueCamarades cartographes, nous sortons d’une séquence politique inédite. Le pays semble fracturé en trois blocs avec une extrême droite au plus haut. Mais comment rendre compte cartographiquement des clivages géographiques qui fracturent le pays ?
Dans un billet réalisé avec Antoine Beroud et Ronan Ysebaert pour le journal l’Humanité (voir), nous proposons une série de cartes avec des représentations continues à plusieurs échelles. La méthode d’interpolation spatiale utilisée ici est connue sous le nom de potentiel, de potentiel gravitationnel ou d’accessibilité gravitationnelle. Le concept a été développé dans les années 1940 par le physicien John Q. Stewart à partir d’une analogie avec le modèle gravitationnel. Ce potentiel est défini comme un stock – un nombre de voix – pondéré par une distance définie ici par une fonction gaussienne (courbe en cloche). En faisant varier la portée de cette fonction, l’algorithme permet de dessiner des cartes plus ou moins généralisées pour montrer les grandes structures spatiales selon différentes échelles d’analyse, en faisant abstraction des irrégularités du maillage sous-jacent.
In fine, la méthode permet de rendre compte avec différents filtres d’observation, des lignes de force des différents blocs politiques qui structurent géographiquement le pays.
Bloc de gauche
Bloc de droite
Bloc d’extrême droite
Des comparaisons deux à deux sont également possibles.
Article initial et explications méthodologiques : [https:]]
Code source : [https:]] & [https:]]
Ingénieur de recherche CNRS en sciences de l'information géographique.
Membre de l'UMS RIATE et du réseau MIGREUROP / CNRS research engineer in geographical information sciences. Member of UMS RIATE and the MIGREUROP network.
-
9:00
Nouveautés Geotrek : le volet éditorial s'étoffe pour répondre à tous vos besoins
sur Makina CorpusLe Parc National des Écrins a modernisé son portail Rando Pays des Écrins avec de nouvelles fonctionnalités éditoriales et de navigation.
-
7:04
TerriSTORY® – Une histoire de territoires OpenSource
sur OslandiaLorsque nous avons commencé à travailler sur Terristory en 2018, c’était alors un POC (Proof Of Concept) commandé par AURA-EE, Auvergne Rhône-Alpes Énergie Environnement. Le premier sprint devait convaincre de la faisabilité et projeter les ambitions de l’association. 6 ans plus tard, la plateforme devenue publique est un projet OpenSource maintenu de façon autonome directement par AURA-EE.
Le développement de la plateforme s’est déroulé sur plusieurs années. Au départ Oslandia était le prestataire chargé de réaliser et conseiller l’AURA-EE sur le projet, mais il était prévu aussi de former petit à petit les équipes côté association et de transmettre le savoir pour un jour permettre une totale autonomie. En parallèle, il y avait une volonté forte de la part d’Oslandia d’arriver à terme à une ouverture du code source de l’application, ce qui était également une volonté d’AURA-EE dès le départ.
Publier le code source d’une application (ici un site web) n’est pas forcément une tâche difficile en apparence. On pourrait penser qu’il s’agit juste de créer un répertoire gitlab et d’y déposer le code. Dans les faits, c’est ce qui se passe. Néanmoins, une bonne préparation en amont est nécessaire si on souhaite une ouverture de qualité.
De nombreuses questions se bousculent alorsQuand doit-on publier ? Est-ce que la documentation est prête ? Dois-je traduire en anglais ? A-t-on résolu tous les bugs critiques ? Comment va se passer la publicité ? Y-a-t il un formalisme à respecter ? Les aspects juridiques sont-ils couverts ? Est-on prêt à recevoir les retours de la communauté ?
Les étapesLa première chose à faire était de choisir la licence. Dans le cas de Terristory c’est la GNU Affero (ou AGPL) version 3 qui a été sélectionnée, après étude des tenants et des aboutissants. Ici il s’agit d’un outil serveur, sur lequel AURA-EE et les différents partenaires impliqués au sein d’un consortium national voulaient que les modifications faites par les utilisateurs soient reversées.
Un premier travail de documentation et de structuration du code a été entrepris par AURA-EE. Avoir une bonne documentation, des guidelines sont essentiels pour s’assurer que toute personne intéressée par la réutilisation ou par la contribution au code puisse aisément installer, tester et ajouter de nouvelles fonctionnalités.
Le code de Terristory a également connu de nombreuses phases de refactoring, c’est à dire de réécriture de certaines parties parce qu’obsolète, pas assez efficaces ou suite à des changements de librairies utilisées. Outre les évolutions fonctionnelle d’une telle application, le refactoring constitue une partie importante de la vie du logiciel. D’autant plus sur les applications Web où les avancées technologiques sont rapides. Il faut maintenir le code, et suivre l’évolution des librairies sous-jacentes si on veut pouvoir faire évoluer le site plus facilement et par un maximum de personnes. Côté Oslandia, nous anticipons au mieux ces phases de développement pour éviter le jour J de devoir faire une revue totale et potentiellement complexe du code juste avant la publication.
Oslandia a accompagné AURA-EE sur toutes ces années, et a réussi à lui transmettre la culture de l’OpenSource, aussi bien techniquement que dans les méthodes de travail. Ainsi, les collaborateurs d’AURA-EE sont vite devenus des utilisateurs experts de Gitlab, des utilisateurs experts de la solution, puis des développeurs de l’application, pour enfin procéder eux-même à la libération publique du code. En tant qu’ancien développeur principal de l’application pendant plusieurs années, je suis personnellement assez fier du travail accompli et de la manière dont les choses se sont déroulées.
[Témoignage]Pierrick Yalamas, Directeur intelligence territoriale et observatoires à Auvergne-Rhône-Alpes Énergie Environnement :
Notre vision
« Oslandia a su nous accompagner durant les premières années du projet TerriSTORY® : des premiers développements à l’appui juridique (choix de la licence) pour l’ouverture du code. L’équipe est maintenant complètement autonome. L’ouverture du code début 2023 a déjà donné lieu (mi-2024) à plusieurs réutilisations, qui permettent d’enrichir les fonctionnalités de TerriSTORY®. »Le projet TerriSTORY® et la manière dont il s’est déroulé correspond à la vision d’Oslandia de la relation client : notre objectif est de fournir les outils et les méthodes permettant aux organisations que nous accompagnons d’être le plus efficace et le plus autonome possible. Et ce, sur tous les aspects d’un projet logiciel : technique, mais aussi organisationnel, juridique, sur l’infrastructure de développement et les process mis en place. Voir des solutions que nous avons ébauchées prendre leur propre autonomie, dans le respect de l’esprit du logiciel libre est une satisfaction et une fierté pour toute l’équipe, et nous sommes reconnaissants à l’AURA-EE de nous avoir fait confiance pour cela.
-
18:55
Premiers MNT LidarHD
sur Séries temporelles (CESBIO)Pièce jointe: [télécharger]
L’IGN communique actuellement sur la mise à disposition des premiers MNT dérivés des nuages de points LiDAR HD.
[Thread LiDAR HD ] Vous les attendiez Les premiers modèles numériques #LiDARHD sont maintenant disponibles et accessibles à tous en #opendata
La Charente-Maritime (bloc FK), le Nord (KA) et le Pas-de-Calais (JA) sont les premiers… pic.twitter.com/1UFOZabImE
— IGN France (@IGNFrance) July 10, 2024
A mon avis, cet exemple est mal choisi puisqu’un MNT de la citadelle de Gravelines de qualité équivalente était déjà disponible dans le RGE ALTI® 1m en libre accès depuis le 1er janvier 2021. Sur ce secteur les métadonnées du RGE ALTI® indiquent que la source est un LiDAR de densité d’acquisition à 1 points au m². On pouvait donc déjà voir ces fortifications dans mon interface de visualisation du RGEALTI.
Comparaison des MNT RGE ALTI® 1m et LiDAR HD sur le fort de GravelinesEn effet, le RGE ALTI® est un composite de plusieurs sources de données… La qualité du produit final est très variable ! En l’occurrence Gravelines était déjà couvert en lidar comme le reste du littoral.
Sources du RGE ALTI® (oui sans la légende) : corrélation (en général), lidar (littoral, rivières et villes) ou radar (montagnes). Pour en savoir plus consulter l’annexe B de ce document [https:]]Pour le littoral, le nouveau MNT LiDAR HD présente un intérêt plus marquant là où la surface terrestre a changé récemment. On peut ainsi comparer les MNT RGE ALTI® et LiDAR HD pour observer l’évolution des dunes de la Slack près de Wimereux. Malheureusement je ne connais pas les dates d’acquisition de ces deux produits.
document.createElement('video'); [https:]]Mais le véritable intérêt du MNT LiDAR HD se situe plutôt dans les zones où la source des données pour construire le RGE ALTI® n’était pas du lidar. Par exemple dans le département du Pas-de-Calais se trouve la plus grande carrière de France, les Carrières du Boulonnais.
Comparaison des MNT RGE ALTI® 1m et LiDAR HD sur les Carrières du BoulonnaisVivement la mise à disposition des autres régions de France !
Photo en-tête : Zoom sur la partie centrale de la carrière de Ferques (Pas de Calais) par Pierre Thomas. Source : Planet Terre [https:]]
-
18:55
Premiers MNT LiDAR HD
sur Séries temporelles (CESBIO)Pièce jointe: [télécharger]
L’IGN communique actuellement sur la mise à disposition des premiers MNT dérivés des nuages de points LiDAR HD. A mon avis, cet exemple est mal choisi puisqu’un MNT de la citadelle de Gravelines de qualité équivalente était déjà disponible dans le RGE ALTI® 1m en libre accès depuis le 1er janvier 2021. Sur ce secteur […] -
2:27
Crue du Vénéon : que nous apprennent les images satellites ?
sur Séries temporelles (CESBIO)Pièce jointe: [télécharger]
Le 21 juin 2024, la crue torrentielle du Vénéon et de son affluent le torrent des Étançons a dévasté le hameau de la Bérarde dans le massif des Écrins. Cette crue a résulté des fortes pluies et de la fonte de la neige, et a peut-être été aggravée par la vidange d’un petit lac supra-glaciaire.
L’année en cours est particulièrement excédentaire en neige dans les Alpes, en particulier à haute altitude. Le stock de neige dans le bassin du Rhône au printemps 2024 est bien supérieur à la normale des trente dernière années mais proche de celle des années 1961-1990. Or une telle crue ne s’est pas produite depuis la moitié du 20e siècle au moins à la Bérarde. Que s’est-il passé ?
Le secteur est bien instrumenté avec une station hydrométrique sur le Vénéon à 3 km en aval de la Bérarde (1581 m) et une station météorologique située à 6 km de route près du bourg de Saint-Christophe-en-Oisans (1564 m).
Séries horaires de précipitations et de débit entre le 19 juin 00h et le 21 juin 18h TU.Le cumul de précipitation mesuré entre le 19 et le 21 juin est considérable, précisément 100 mm en 34 heures. J’ai calculé le bassin versant du Vénéon à cette station hydrométrique Saint-Christophe-en-Oisans à partir du modèle numérique de terrain RGE ALTI® 5m fourni par l’IGN. Sa superficie est de 104 km², le volume d’eau reçu pendant ces 34 heures est donc 10 millions de mètres cube, soit 84 m³/s. On constate que le débit de crue s’approchait de 80 m³/s avant que l’enregistrement ne cesse. Il est probable que ces 100 mm de pluie intense expliquent l’essentiel de la crue. Malheureusement la série de débit est interrompue et à ce jour il est impossible de fermer le bilan hydrologique. Peut-on en savoir plus sur la contribution du manteau neigeux à partir des images satellitaires ?
Bassin versant du Vénéon à la station hydrométrique de St-Christophe-en-Oisans (marqueur rouge) et la station météorologique associée (marqueur bleu).Ce bassin draine des zones de haute montagne dont l’antécime de la Barre des Ecrins qui culmine à plus de 4000 m d’altitude. Les fluctuations diurnes de débit indiquent que la fonte des neiges avait commencé à alimenter le Vénéon depuis le début du mois de juin (la taux de fonte est en grande partie contrôlé par l’énergie solaire donc il suit le rythme des journées).
Série journalière des précipitations et série horaire du débit du Vénéon à St-Christophe-en-Oisans. La série de débit est interrompue à partir du 21 juin sans doute à cause des dégâts causés par la crue.Les images Sentinel-2 avant et après la crue montrent que le manteau neigeux a bien réduit entre les deux dates car sa limite basse remonte en altitude. Un autre détail intéressant est le changement de couleur : les zones enneigées blanches de haute altitude ont disparu, ce qui suggère que la fonte a eu lieu jusqu’aux plus hauts sommets du bassin versant. En effet, les poussières sahariennes ont été déposées à la fin du mois de mars 2024.
[https:]]On peut analyser l’évolution de l’enneigement à partir des cartes de neige Theia ou Copernicus. Voici par exemple celle du 2 juillet 2024.
Une façon de résumer l’enneigement et de s’affranchir des nuages est de calculer la « ligne de neige », c’est-à-dire l’altitude qui délimite en moyenne la partie basse de l’enneigement. Pour la calculer j’utilise l’algorithme de Kraj?í et al. (2014) qui minimise la somme de la surface enneigée sous la ligne de neige et de la surface non-enneigée au dessus de la ligne de neige. Dans cet exemple on obtient 2740 m.
Les cartes de neige sont disponibles depuis 2015 (Landsat 8, Sentinel-2). La série complète sur le bassin versant du Vénéon à St Christophe permet de voir la remontée de la ligne de neige entre avril (01/04 = jour 91) et août (01/08 = jour 213).
L’année 2024 se distingue par une limite d’enneigement plus basse que les huit années précédentes.
Si on superpose cette ligne de neige avec l’isotherme 0°C donnée par ERA5 on constate que l’intégralité du bassin versant était sous l’iso 0°C quelques jours avant la crue, ce qui suggère (1) qu’il a plu à très haute altitude (2) qu’il y a eu un apport de fonte, d’autant que le manteau neigeux avait déjà été bien réchauffé au début du mois de juin.
Des images satellites à très haute résolution (Pléiades Neo) ont été acquises dans le cadre de la CIEST2. Ces images permettent de voir les traces des pluies abondantes sur la neige lessivée et des avalanches de neige humide autour du glacier de Bonne Pierre.
Image satellite du manteau neigeux sur le glacier de Bonne Pierre (Pléiades Neo 04 juillet 2024, composition colorée)En conclusion, les données disponibles montrent cette crue est une crue de pluie sur neige (Rain-On-Snow). On trouve tous les ingrédients favorables à ce type de crue :
- une pluie intense ;
- un manteau neigeux particulièrement étendu avec une ligne de neige basse pour la saison ;
- un manteau neigeux déjà en régime de fonte ou proche (isothermal, ripe snowpack) ;
- un apport de chaleur pendant l’évènement, ici une atmosphère chaude et humide qui a dû émettre de forte quantités de rayonnement thermique.
Les taux de fonte peuvent dépasser 20 mm/jour dans les zones de montagne. Cet apport de fonte doit être pondéré par la fraction enneigée du bassin. Le 17 juin 60% de la surface du bassin était enneigée donc on peut estimer une contribution potentiellement de l’ordre de 15 mm/jour pendant la crue à comparer aux 100 mm de pluie mesurés à St-Christophe pendant l’épisode. Donc le manteau neigeux a pu augmenter significativement l’apport d’eau liquide dans ce bassin versant. Néanmoins, d’autres facteurs aggravants sont à considérer :
- une augmentation du taux de précipitation par effet orographique : les précipitations mesurés à St-Christophe à 1564 m sont probablement sous-estimées à l’échelle du bassin versant de la Bérarde qui s’étend jusqu’à 4086 m (Pic Lory) ;
- la saturation des sols et des nappes d’eau souterraines (y compris le thermokarst glaciaire) suite à un printemps bien arrosé et une fonte des neiges en cours depuis plusieurs semaines.
Ces évènements Rain-On-Snow sont bien étudiés aux USA où ils sont connus pour déclencher des crues dévastatrices (comme le débordement du lac Oroville en Californie). Plusieurs études montrent que le changement climatique augmente le risque de crue Rain-On-Snow en haute montagne [1, 2].
Les images Pléiades Neo étant des prises stéréo, elles devraient également permettre aux géomorphologues de calculer les volume de sédiments charriés lors de cette crue exceptionnelle.
Mise à jour 15/07/2024. Le SYMBHI nous apprend que « Le débit du Vénéon a atteint 200 m3/s (source EDF) à plan du Lac (St Christophe en Oisans) ». Cela ferait une lame d’eau horaire de 7 mm, ce qui reste compatible avec les mesures du pluviomètres de St Christophe (on observe 3h avec des taux supérieurs à 8 mm/h).
-
2:27
Crue du Vénéon : que nous apprennent les images satellites ?
sur Séries temporelles (CESBIO)Pièce jointe: [télécharger]
Le 21 juin 2024, la crue torrentielle du Vénéon et de son affluent le torrent des Étançons a dévasté le hameau de la Bérarde dans le massif des Écrins. Cette crue a résulté des fortes pluies et de la fonte de la neige, et a peut-être été aggravée par la vidange d’un petit lac supra-glaciaire. […]
-
19:42
Typologie communale de l'accessibilité aux soins de premier recours en France (IRDES)
sur Cartographies numériques
L'Institut de recherche et documentation en économie de la santé (IRDES) propose une typologie communale de l'accessibilité aux soins de premier recours en France.Dans un contexte de raréfaction et de répartition inégale des médecins généralistes sur le territoire, il apparaît nécessaire de renouveler la description de l'accessibilité aux soins de premier recours en considérant la présence d'un ensemble de professionnels de santé aux côtés du médecin généraliste.
Cette typologie à l'échelle de la commune décrit ainsi l'accessibilité aux soins de premier recours en tenant compte du médecin généraliste, de ses partenaires du quotidien (infirmier?ière?s, kinésithérapeutes, pharmacies), de ceux servant d'appui au diagnostic (laboratoires et radiologues) et des services d'urgence. Elle s'appuie sur un classement des communes selon leur niveau d'accessibilité, son évolution récente et les besoins potentiels de soins.
La typologie repose sur trois critères principaux :
- le classement des communes selon leur niveau d'accessibilité à partir d'une matrice de distance (temps d'accès moyen en voiture)
- l'évolution récente de l'offre en densité de soins (en fonction du type de soins)
- les besoins potentiels en fonction du type de population (âge et revenu), ce qui permet de définir une accessibilité potentielle localisée (APL).
La méthode utilisée est la classification ascendante hiérarchique (CAH) qui permet de classer les communes en catégories selon les différentes dimensions (groupes de professions, offre dynamique et besoins de soins). Elle permet de dégager 7 niveaux d'accessibilité :
- Classe 1 : communes avec la moins bonne accessibilité aux soins tous services confondus
- Classe 2 : communes avec une faible accessibilité aux soins, en désertification médicale et avec de forts besoins
- Classe 3 : communes avec une faible accessibilité aux soins de proximité et favorisées aux plans socio-économique et sanitaire
- Classe 4 : communes maintenant une bonne accessibilité aux médecins généralistes mais avec une faible accessibilité aux autres soins
- Classe 5 : communes avec une accessibilité aux soins relativement bonne qui se raréfie et avec de forts besoins
- Classe 6 : communes favorisées sur le plan socio-sanitaire avec une bonne accessibilité aux soins
- Classe 7 : communes avec l’accessibilité aux soins la plus élevée pour tous les types de soins
La répartition des clusters dessine principalement deux types de structures spatiales : un gradient urbain-rural et des contrastes régionaux nord/sud pour la France métropolitaine. Tout d’abord, cette classification fait apparaître un gradient urbain/rural classique pour les services d’urgence et les partenaires diagnostiques intermédiaires avec une meilleure accessibilité au centre urbain (clusters 7 et 5), puis une bonne accessibilité en première couronne (cluster 6), pour se déplacer progressivement vers les banlieues plus éloignées avec une accessibilité moyenne (cluster 3) et enfin une plus faible accessibilité dans les marges rurales (clusters 4, 1 et 2). Cependant, ce gradient n’est pas le même pour les services de proximité les plus proches comme les médecins généralistes, les infirmières, les kinésithérapeutes et les pharmacies. Au-delà de l’opposition classique urbain/rural, c’est l’importance des petites centralités dans l’accessibilité aux services de proximité qui est soulignée. Le cluster 4, bien que situé dans des zones rurales isolées, présente un niveau d’accessibilité aux médecins généralistes aussi élevé que les clusters 5 et 6, voire meilleur que le cluster 3, plus proche des grands centres urbains. Cela tient au fait que le cluster 4 est structuré en petites villes qui jouent le rôle de centralités locales et leur permettent d’être bien desservies par les services de proximité. Cela illustre le rôle des petites villes dans l’offre de soins en milieu rural. L'accessibilité ne dépend plus de l'éloignement des grandes villes mais de l'éloignement des centres de services et d'équipements locaux.
Cette typologie de l'IRDES permet de nuancer la notion de "déserts médicaux". Construite à l'échelle des communes, elle est plus précise que celle établie à l'échelle des départements ou des bassins de vie.
Ce travail a été réalisé dans le cadre du projet prOmoting evidence-bASed rEformS on medical deserts (OASES), financé par la Commission européenne (Programme 2020 du 3e Programme sur la santé). Il a donné lieu à une publication :
Bonal M., Padilla C., Chevillard G., Lucas-Gabrielli V. (2024). A French classification to describe medical deserts: A multi-professional approach based on the first contact with the healthcare system. International Journal of Health Geographics, vol.23, 5.
Articles connexes
Cartes et données sur les « déserts médicaux » en France
Géodes, la plateforme cartographique pour accéder aux données de santé
La pollution de l'air est la première menace mondiale pour la santé humaine (rapport de l'EPIC, août 2023)
Surmortalité attribuée à la chaleur et au froid : étude d'impact sur la santé dans 854 villes européennes
La santé des Franciliens. Diagnostic pour le projet régional de santé 2023-2027 (ORS)
Géographie du moustique Aedes (aegypti et albopictus) en France et dans le monde
Consommation d’alcool en France : des variations en fonction des régions, de l'âge ou du sexe
Comment expliquer les disparités de vaccination Covid-19 en France ?
-
14:00
Revue de presse du 12 juillet 2024
sur GeotribuLe train de la GeoRDP entre en gare !
-
12:09
Exposition “Cartes et cartographie du bas-Limousin et de la Corrèze”, Tulle, 8 juillet-31 décembre 2024
sur Cartes et figures du mondeExposition aux Archives départementales de Corrèze, 4 rue du Touron à Tulle, 8 juillet-31 décembre 2024 Catalogue d’exposition : Cartes et cartographie du Bas-Limousin et de la Corrèze, d’une province méconnue aux contours d’un département, par Julien MENDES, sous la dir. de Justine BERLIÈRE, Tulle, 2024, 148 p.Fruit d’un patient et minutieux travail, cette exposition des Archives départementales de la Corrèze retrace l’histoire de la représentation géographique d’un territoire particulièrement important dans l’histoire de la cartographie française qui s’y illustra dès le XVIe siècle. Elle évoque ainsi l’histoire de la cartographie à la lueur de l’exemple corrézien.
Au fil des documents présentés et des pages du catalogue qui accompagne l’exposition, on voit peu à peu se dessiner un ensemble, le Bas-Limousin, constitué de diverses strates de seigneuries, juridictions, paroisses… La Révolution reconnaît ensuite son identité propre en créant le département de la Corrèze, dont le découpage devait permettre d’accéder au chef-lieu en une journée de cheval.
Il faut se plonger dans la lecture de ce catalogue richement illustré, qui invite à voyager dans le temps, depuis les premières représentations cartographiques du Limousin à la fin du Moyen Âge jusqu’aux Systèmes d’information géographique actuels, en passant par la carte de Cassini et celle de l’état-major aux XVIIIe et XIXe siècles.
Autant de supports, conservés dans différents dépôts d’archives et bibliothèques, qui sont un régal pour les yeux et font voir sous un jour nouveau les contours de ce beau département et l’évolution de la cartographie.
-
9:52
Fin de la phase d’acquisitions d’images de VENµS
sur Séries temporelles (CESBIO)C’est avec une certaine tristesse mais aussi beaucoup de fierté que je vous rappelle que la phase opérationnelle de VENµS se terminera fin juillet après 7 ans de bon travail. La phase d’acquisition actuelle (VM5) s’arrêtera le 12 juillet. Les semaines restantes seront consacrées à quelques expériences techniques (les acquisitions au-dessus d’Israël se poursuivront jusqu’à fin juillet), puis, nos collègues israéliens videront les réservoirs en abaissant l’orbite, « passiveront » le satellite, puis laisseront les hautes couches de l’atmosphère réduire sa vitesse et abaisser son altitude avant de brûler dans l’atmosphère dans quelques années.
Les agences spatiales de France (CNES) et d’Israêl (ISA) ont lancé le micro-satellite VENµS en août 2017, et pour un micro-satellite, il a eu une vie assez particulière ! VENµS a d’abord été injecté en orbite à 720 km d’altitude. Il y est resté 3 ans (phase 1 de la mission VENµS, VM1), puis son orbite a été abaissée à 400 km (VM2), il y a été maintenu quelques mois (VM3), avant d’être remonté (VM4) à 560 km (VM5) où il est resté deux ans et demi.
VENµS avait en effet deux missions :
- tester un moteur à propulsion ionique et démontrer qu’il était capable de changer d’orbite et même de maintenir le satellite à 400 km d’altitude et de compenser le freinage atmosphérique dû aux couches les plus élevées de l’atmosphère terrestre
- prendre des images répétitives de sites sélectionnés à haute résolution (4 à 5 m), avec des revisites fréquentes (1 ou 2 jours), avec 12 bandes spectrales fines, et un instrument de haute qualité.
Les deux phases VM1 et VM5 ont été utilisées pour observer environ 100 sites (différents sites pour chaque phase), avec une revisite de deux jours pendant VM1, et d’un jour pour certains sites pendant VM5. Toutes les images ont été traitées au niveau 1C et au niveau 2A. En ce qui concerne VM5, un retraitement complet sera effectué fin 2024 afin d’avoir un jeu de données cohérent, avec les derniers paramètres de correction géométrique et radiométrique mis à jour, et les mêmes versions des chaines de traitement, pendant toute la durée de vie du VENµS. le même retraitement avait été effectué après la fin de VM1 en 2022.
Tableau de bord actuel du site web de distribution du CNES, avec le nombre de produits disponibles. Seules les images avec une proportion suffisante de pixels sans nuages sont fournies, et les statistiques ne tiennent pas compte des produits sur Israël distribués par l’université Ben Gurion du Neguev.Bien que l’impact scientifique de VENµS n’ait pas été à la hauteur des espérances initiales en raison de son lancement tardif (VENµS devait démontrer la puissance des observations optiques multitemporelles, mais a finalement été lancé après Sentinel-2), il nous a néanmoins incités à préparer intensivement l’arrivée des observations de Sentinel-2. Le développement de nombreuses méthodes telles que celles des processeurs MAJA, WASP,et Iota2 ont été motivées par l’existence du projet VENµS.
De plus, les données acquises par VENµS vont rester disponibles [https:] et nous espérons que sa combinaison unique de résolution (4m) et de revisite (1 jour) avec 12 bandes, sera encore utile pour plusieurs années à venir. Notre petit satellite est de plus en plus connu dans la communauté de l’apprentissage profond, puisqu’il a été utilisé pour construire le jeu de données Sen2VENµS afin d’apprendre à améliorer la résolution de Sentinel-2, ou pour tester les méthodes de fusion de données entre Sentinel-2 et VENµS.
Par ce billet, nous souhaitons remercier toutes les équipes en France et en Israël qui ont contribué à la décision, au financement, à la construction, à l’exploitation et au traitement des données de ce satellite. La liste des personnes ayant apporté une contribution significative serait trop longue (des centaines), et le risque d’oublier quelqu’un serait trop élevé, aussi nous ne citerons que Gerard Dedieu and Arnon Karnieli, les PI français et israélien initiaux (Arnon est toujours PI), qui ont consacré de nombreuses années de leur carrière à la réussite de ce petit satellite.
Rédigé par Olivier Hagolle (CNES/CESBIO) avec l’aide d’Arnon Karnieli (BGU)
PS : La fin du VM5 a été une période difficile avec un satellite vieillissant qui a largement dépassé sa durée de vie nominale de 3 ans avec un objectif fixé à 5 ans. Une proportion non négligeable des tentatives d’acquisition a échoué, et certains sites n’ont pas produit les séries temporelles attendues. Nous nous excusons si la collecte de données n’a pas été à la hauteur de vos attentes. Cependant, notre collection de données comprend plus de 82 000 produits, 56 000 pour VM1 et 26 000 pour VM5, ce qui nous permet de disposer de nombreuses et belles séries de produits prêts à l’emploi (Analysis Ready Data).
-
9:52
Fin de la phase d’acquisitions d’images de VENµS
sur Séries temporelles (CESBIO)=> C’est avec une certaine tristesse mais aussi beaucoup de fierté que je vous rappelle que la phase opérationnelle de VENµS se terminera fin juillet après 7 ans de bon travail. La phase d’acquisition actuelle (VM5) s’arrêtera le 12 juillet. Les semaines restantes seront consacrées à quelques expériences techniques (les acquisitions au-dessus d’Israël se poursuivront […] -
12:05
The end of VENµS imaging phase
sur Séries temporelles (CESBIO)It is with some sadness but also a lot of pride that I remind you that the VENµS operational phase will end at the end of July after 7 years of good work. The current acquisition phase (VM5) will stop on the 12th of July. The remaining weeks will be devoted to a few technical experiments (acquisitions over Israel will go on until end of July), and then, our Israeli colleagues will empty the tanks by lowering the orbit, passivate the satellite, and then let the higher layers of the atmosphere reduce its speed and lower its altitude before burning in the atmosphere in a few years.
The French and Israeli space agencies (CNES and ISA) launched the VENµS micro-satellite in August 2017, and for a micro-satellite, it has had quite a special life ! VENµS was first injected into orbit at 720 km altitude. It stayed there for 3 years (VENµS Mission 1 phase, VM1), then its orbit was lowered to 400 km (VM2), it was maintained there for a few months (VM3), before being raised again (VM4) to 560 km (VM5) where it stayed for two and a half years.
VENµS indeed had two missions :
- test a ionic propulsion engine and verify it was able to change orbits and even maintain the satellite at 400 km altitude with all the atmospheric drag due to the highest levels of the earth atmosphere
- take repetitive images of selected sites at a high resolution (4 to 5 m), frequent revisit (1 or 2 days), with 12 thin spectral bands, and a high-quality instrument
The two phases VM1 and VM5 were used to observe around 100 sites (different sites for each phase), with a revisit of two days during VM1, and one day for some sites during VM5. All the images have been processed to Level 1C and Level 2A. Regarding VM5, a full reprocessing will be done at the end of 2024 to have a consistent data set with the latest updated geometric and radiometric correction parameters, and the same updated versions of software during the whole life of VENµS. The same reprocessing had been done after the end of VM1 in 2022.
Current dashboard of CNES distribution website, with the number of available products. Only images with a sufficient proportion of cloud free pixels are produced, and the statistics do not account for the products over Israel distributed at BGU.Although VENµS’ scientific impact was not as high as expected due to its late launch (VENµS was meant to demonstrate the power of multi-temporal optical observations, but was finally launched after Sentinel-2), it nevertheless incited us to prepare the arrival of Sentinel-2 observations intensively. The development of many methods such as those in MAJA, WASP, Iota2 or LIS processors were motivated by the existence of the VENµS project.
Moreover, the data acquired by VENµS are here to stay ( [https:]] ), and we hope its unique combination of resolution (4m) and revisit (1 day) with 12 bands, will still be useful for several years to come. Our little satellite is getting very well known in the deep learning community, as it has been used to build the Sen2VENµS data set for learning to improve the resolution of Sentinel-2, or to test data fusion methods between Sentinel-2 and VENµS.
With this post, we would like to thank all the teams in France and Israel who contributed to the decision, funding, building, exploitation and data processing of this satellite. The list of persons who brought a meaningful contribution would be too long (hundreds), and the risk of forgetting someone will to too high, so we will only cite Gerard Dedieu and Arnon Karnieli, the initial French and Israeli PIs (Arnon is still PI), who devoted many years of their career to the success of this little satellite.
Written by VENµS PI: Olivier Hagolle (CNES/CESBIO) with the help of Arnon Karnieli (BGU)
PS : The end of VM5 was a difficult period with an aging satellite that was well over its nominal life of 3 tears with a goal set to 5 years. A non-negligible proportion of the attempted acquisitions failed, and some sites did not yield the expected time series. We apologize if the data collection was not as good as your expectations. However, our data collection includes more than 82,000 products, 56,000 for VM1, and 26,000 for VM5, bringing much analysis-ready data
-
12:05
The end of VENµS imaging phase
sur Séries temporelles (CESBIO)=> It is with some sadness but also a lot of pride that I remind you that the VENµS operational phase will end at the end of July after 7 years of good work. The current acquisition phase (VM5) will stop on the 12th of July. The remaining weeks will be devoted to a few […]
-
3:44
Les lignes de force du vote RN en 2024 : une cartographie lissée avec la grille H3
sur Icem7Les résultats des dernières élections françaises sont maintenant disponibles à un niveau fin, à la commune et même jusqu’au bureau de vote. Mais comment produire une cartographie lisible et synthétique à partir de données si détaillées ?
Ce travail récent de Karim Douïeb, largement repris, illustre bien le dilemme : il dénonce le caractère trompeur de la carte (choroplèthe) de gauche et propose à la place la variante (à symboles) de droite.
Les cartes choroplèthes sont faciles à lire avec leur coloration continue de tout le territoire. Mais l’œil voit seulement des surfaces, il ne peut faire le tri entre les territoires plus peuplés et les moins peuplés.
Les cartes à pastilles proportionnelles rendent mieux compte des populations en présence, mais les petits ronds se voient peu, ou alors coagulent en amas artificiels là où le maillage communal est très serré (par exemple dans les Hautes-Pyrénées, voisines des Landes où c’est l’inverse). Les cartogrammes qui distordent la géographie pour prévenir les superpositions accentuent souvent ces artefacts.
Une autre voie respecte la géographie, préserve la continuité de l’image et prend en compte les différences de population : celle où le résultat d’un candidat (part en %) est lissé par disques mobiles.
Les spécialistes des études locales la connaissent depuis longtemps – je la pratique depuis 35 ans. Certes, les calculs requis par le lissage en limitent l’usage, même avec des librairies spécialisées. Il est toutefois possible en 2024 de construire simplement de solides cartes lissées, sans logiciel lourd.
Voyons comment faire avec 3 petits bijoux d’efficacité : un moteur SQL autonome (DBeaver/DuckDB), une grille hexagonale (H3) et un outil de cartographie web (Mapshaper).
A - Lissage appliqué aux résultats communaux des européennes de 2024Comparons ci-dessous les résultats bruts des élections européennes et la représentation lissée par disque mobile. Le lissage améliore spectaculairement la lisibilité de l’image.
Européennes 2024 – Part des votes RN et Reconquête (%)
Lissé BrutLes grandes agglomérations éloignent le vote RNR, mais cet effet est moins visible dans un grand Nord-Est ou sur le littoral méditerranéen. Quelques contrastes locaux sont frappants, par exemple entre le Lot et Tarn-et-Garonne, ou l’agglomération bordelaise et sa frange nord.
Note : les petits points gris signalent les capitales régionales.Comme le pinceau de l’archéologue dépoussière un bas-relief, ou la restauratrice révèle sous les vernis et les taches le tableau originel, le lissage dégage les lignes de force qui traversent les territoires – et bien souvent celles qui résistent au temps et aux soubresauts politiques.
Je vais décrire la méthode, car en saisir le principe, c’est mieux comprendre les limites et les avantages de cette technique. Le lissage n’est pas une moyenne locale des valeurs communales (ici la part de telle liste). Il repose sur une agrégation de deux grandeurs que l’on va ensuite diviser pour recalculer le taux « ambiant ». Cette agrégation se fait sur une étendue plus ou moins large, le rayon du disque de lissage.
En un endroit donné, on additionne par exemple le nombre de votants RNR au sein d’un rayon de 20 km, et l’on procède de même pour l’ensemble des votants ; le nouveau taux se calcule sur ces deux grandeurs étendues. Ainsi, d’une commune à sa voisine, les taux ambiants vont faiblement varier. Les aléas locaux sont lissés, et les territoires localement plus peuplés contribuent davantage à la représentation.
B - La méthode en imagesConsidérons les deux cartographies traditionnelles du résultat d’une liste, dans notre exemple la part du vote RN et Reconquête (en abrégé, RNR). Sur une carte zoomée, la technique des ronds coloriés a bien des avantages, car les symboles sont tous visibles, leur couleur aussi. Ce mode présente à la fois une grandeur absolue (les votants), et la part du vote RNR.
Ronds ChoroComme on le constate dans cette vue de la périphérie toulousaine, les communes sont de taille fort variable. Le découpage communal influence fortement la morphologie de l’image. C’est la raison pour laquelle certains politiques s’échinent à redéfinir les maillages électoraux, pour tourner l’addition locale des votes à leur avantage.
Passer d’un maillage hétérogène à une grille régulière donnera une assise plus solide à la méthode de lissage.
La grille H3, conçue d’abord pour les besoins d’Uber, maille l’ensemble de la planète avec des hexagones. En voici une représentation au niveau de précision 7 (sur une échelle allant de 0 à 15).
38 hexagones de niveau 7 recouvrent la commune de Toulouse. Une première idée consiste à répartir le total des votants à Toulouse de façon égale sur ces 38 hexagones. Je pourrais affiner cette répartition sur les hexagones frontières, par un prorata de la surface intersectée. Mais ce serait me compliquer la vie inutilement, car en définitive, je vais lisser !
Toulouse et les hexagones H3
Grille H3 de niveau 7, intersectant Toulouse Votants à Toulouse répartis fictivement en 38 pointsLes hexagones sur les frontières communales vont ainsi recevoir des votants venus de deux, parfois trois communes limitrophes. Cela produit déjà, de fait, un premier microlissage.
En voici le résultat cartographié, après recalcul du taux pour chaque hexagone.
H3 BrutLe principe du lissage par fenêtre mobile est toutefois bien plus puissant. H3 permet très facilement (c’est aussi une librairie avec quantité de fonctions utilitaires) de lister les hexagones voisins, avec un pas variable – de 1 à 10 dans cet exemple :
Avec ce rayon de lissage de 10 (soit un peu plus de 20 km), je m’emploie à additionner, en un centre donné, les votants et les votants RNR sur l’ensemble de ce disque. Je prends garde à donner de moins en moins d’importance aux hexagones qui s’éloignent, par une pondération inverse de la distance au centre.
Mon lissage intègre ainsi deux paramètres d’ajustement : le rayon du disque mobile (en fait un grand hexagone mobile), et la fonction de pondération (quelle importance j’accorde aux hexagones les plus éloignés pour calculer le taux ambiant).
Voici deux cartes, avec des rayons de lissage différents : 5 (soit environ 12 km) et 10 (20-25 km).
++ + C - Comment lisser, en pratique ?Je conduis les calculs en SQL, avec le moteur DuckDB et son extension H3, dans l’interface DBeaver. DBeaver donne un premier aperçu du résultat des requêtes spatiales, ce qui s’avère très pratique.
Pour la cartographie thématique, Mapshaper, utilisable en ligne, dessine et colorie avec une vélocité remarquable.
Cette démarche procède d’un principe pédagogique auquel je suis attaché : ouvrir des portes pour le plus grand nombre, privilégier les outils les plus simples, les plus accessibles, les mieux conçus.
Commençons par récupérer les résultats des européennes 2024, à partir de la base électorale consolidée par l’équipe data.gouv au format parquet :
-- source : [https:] CREATE OR replace TABLE s_com_europ2024 as WITH t1 AS ( FROM 'candidats_results.parquet' SELECT "Code du département" || "Code de la commune" codgeo, nuance, sum(voix) tvoix, sum(tvoix) over(PARTITION BY "Code du département" || "Code de la commune") exprimes, WHERE id_election = '2024_euro_t1' GROUP BY codgeo, nuance ), t2 AS ( PIVOT t1 ON nuance USING(sum(tvoix)) ) FROM t2 SELECT codgeo,exprimes,LREC+LRN RN,LENS,LFI+LUG+LVEC+LCOM LNFP ORDER BY codgeo ;
J’utilise DuckDB dans sa version la plus récente (dev 1.0.1), qui simplifie davantage encore les écritures.
Deux extensions vont me servir, SPATIAL pour les requêtes géographiques, H3 pour créer et manipuler le maillage hexagonal.
INSTALL H3 FROM COMMUNITY ; LOAD H3 ; -- pour récupérer, si besoin, la version de dev : -- FORCE INSTALL spatial FROM 'http://nightly-extensions.duckdb.org'; LOAD SPATIAL ;
À partir du contour de la France métropolitaine, je crée une enveloppe, et je peux la voir immédiatement dans DBeaver.
CREATE OR REPLACE VIEW e_fra AS FROM st_read('a_frametro.json') SELECT st_convexHull(geom).st_buffer(0.1) AS geom ;
Notre première fonction H3, l’une des plus puissantes, est en mesure de mailler ce polygone avec plein de petits hexagones de niveau 7. Ils sont 182 000. DBeaver ne m’en montre qu’un échantillon, mais c’est déjà impressionnant !
FROM e_fra SELECT h3_polygon_wkt_to_cells(geom, 7) -- ids .unnest() .h3_cell_to_boundary_wkt() .st_geomfromtext() ; -- géométries
h3_polygon_wkt_to_cells() renvoie une valeur qui est en fait une liste d’identifiants d’hexagones. unnest() permet de déplier cette valeur/liste en autant de lignes de la table résultante.
h3_cell_to_boundary_wkt(), autre fonction très utile, génère la géométrie hexagonale d’un identifiant.
On peut ainsi fabriquer un grillage spatial sans écrire soi-même aucun calcul mathématique.
Pour remplir une forme plus complexe que le simple POLYGON précédent, la France par exemple, il faut la décomposer en formes plus élémentaires, et assembler le résultat pour constituer une table homogène.
CREATE OR REPLACE TABLE fra_h3_res7 AS WITH france_polys AS ( FROM st_read('a_frametro.json') -- décomposition MULTIPOLYGON -> POLYGON SELECT st_dump(geom).unnest(recursive := true) AS geom ), h3_ids AS ( FROM france_polys SELECT list(h3_polygon_wkt_to_cells(geom, 7)) .flatten().unnest() AS id -- concaténation des ids d'hexagones ) FROM h3_ids SELECT id, -- conversion en géométries h3_cell_to_boundary_wkt(id).st_geomfromtext() AS geom ;
Voici un aperçu des 115 000 hexagones du niveau 7 qui recouvrent la France métropolitaine.
Passons dans MapshaperLes fonctions cartographiques de DBeaver sont pratiques, mais limitées. L’outil Mapshaper affiche sans aucune difficulté l’ensemble de la couche.
Au préalable, on aura procédé, dans DBeaver, à un export Geojson.
COPY fra_h3_res7 TO 'fra_h3_res7.json' WITH (format GDAL, driver GeoJSON) ;
Il suffit ensuite de faire glisser ce fichier dans l’interface de Mapshaper. La console de cet outil permet d’écrire de puissantes instructions de manipulation, dont je vais profiter.
Je souhaite enrichir cette grille par jointure spatiale avec deux autres couches géographiques. Je vais ainsi relier chaque hexagone aux département, région et commune(s) qui le recouvrent ou l’intersectent.
target fra_h3_res7 \ join a-depmetro calc='reg=first(reg), dep=first(dep)' largest-overlap \ join a-com2022 calc='com2022=first(codgeo), coms2022=collect(codgeo)' largest-overlap \ join a-com2022 calc='coms2022=collect(codgeo)'
Ces opérations complexes prennent moins de 10 secondes dans mon navigateur.
J’utilise ce fond de carte communal.
L’identifiant d’un hexagone est un entier de grande taille. Mapshaper l’interprète plutôt comme une string, on y sera attentif par la suite.
Je stocke ma couche hexagonale enrichie sous la forme d’un fichier geoparquet, ce que permet très simplement la version 1.0.1 de DuckDB. Le fichier produit pèse à peine 9 Mo.
COPY ( FROM st_read('fra_h3_res7_v2.json') SELECT * REPLACE(id::ubigint AS id), ORDER BY reg,id ) TO 'fra_h3_res7_v2.parquet' (compression ZSTD) ;
Je ne les avais jamais utilisées, je découvre avec bonheur les fonctions de coloriage de Mapshaper !
La surface des hexagones n’est pas constante dans H3, car ces hexagones résultent de la projection sur la sphère terrestre d’une forme géométrique complexe, un icosaèdre. De plus, leur surface apparente dépendra de la projection cartographique finale.
Pour autant, cette surface projetée varie peu d’un hexagone à l’autre. Voici ce que donne le rapport à la surface moyenne :
classify field=coeff_area colors='#fff5eb,#fee7cf,#fdd4ab,#fdb97e' classes=4 \ style stroke='d.fill'
Conscient de ces petites variations, je considère tout de même que le lissage à venir s’appliquera de façon globalement homogène – en tous cas bien plus homogène que si j’en étais resté au maillage communal.
J’ai pu agrémenter ma carte de limites départementales et régionales précisément superposables, par fusion de la couche détaillée : Mapshaper excelle dans ces traitements topologiques, et je vais 10 fois plus vite qu’avec un logiciel spécialisé comme QGIS !
target fra_h3_res7_v2 \ dissolve dep,reg
Je dispose donc d’un excellent référentiel cartographique, avec des hexagones enrichis d’informations communales : elles vont me permettre de faire le lien avec la table des résultats électoraux.
Dans une table intermédiaire, je stocke le nombre d’hexagones couvrant chaque commune.
CREATE OR replace VIEW n_com_h3_res7 as WITH t1 AS ( FROM 'fra_h3_res7_v2.parquet' SELECT UNNEST(coms2022) codgeo, id ) FROM t1 SELECT codgeo, count() AS nb_h3_res7 GROUP BY codgeo ORDER BY codgeo ; FROM n_com_h3_res7 WHERE codgeo = '31555'; -- 38 hexagones intersectent Toulouse
Grâce à cela et par jointure, je ventile la table communale du vote à l’hexagone.
CREATE OR REPLACE table s_h3_res7_europ2024 AS FROM s_com_europ2024 p -- jointures sur le code commune JOIN n_com_h3_res7 n using(codgeo) JOIN (FROM 'fra_h3_res7_v2.parquet' SELECT UNNEST(coms2022) codgeo, id) h3 ON h3.codgeo = p.codgeo SELECT id, round(sum(RN/n.nb_h3_res7),1) RN, -- ventilation des votants sur chaque hexagone round(sum(exprimes/n.nb_h3_res7),1) exprimes GROUP BY id ORDER BY id ;
Il ne me reste plus qu’à injecter cette information dans la couche spatiale des hexagones, que j’exporte vers Mapshaper :
COPY ( FROM 'fra_h3_res7_v2.parquet' m JOIN s_h3_res7_europ2024 l USING(id) SELECT RN, exprimes, round(100*RN/exprimes, 1) part_rn, st_geomfromwkb(geom) geom ) TO 'a_h3_7_europ2024_fra_brut.json' WITH (format GDAL, driver GeoJSON) ;
J’essaie deux variantes de coloration, en quantiles, et avec des seuils explicites (pour faciliter les comparaisons à venir entre carte brute et cartes lissées) :
classify field=part_rn quantile classes=5 colors=Oranges \ style stroke='d.fill' classify field=part_rn breaks=35,40,45,50 colors=Oranges \ style stroke='d.fill'
Européennes 2024 – Part des votes RN et Reconquête (%) – par hexagone de niveau 7
Le lissage finalPour lisser les données par fenêtre spatiale mobile, il me faut faire le lien entre un hexagone donné, et l’ensemble des hexagones voisins, de premier niveau jusqu’au niveau 10.
h3_grid_disk_distances() me donne cette liste d’anneaux successifs en un seul appel. C’est un autre atout majeur du système H3.
CREATE OR replace VIEW corresp_h3_res7_dist10 AS WITH t1 AS ( FROM 'fra_h3_res7_v2.parquet' SELECT id, list_transform(h3_grid_disk_distances(id, 10), (c,i) -> {ids:c, distance:i}) .unnest(recursive := true) ) FROM t1 SELECT id, unnest(ids) id2, distance ;
L’opération de lissage résulte d’un appariement de cette table de correspondance et des données de vote à l’hexagone. Je définis une fonction de pondération inverse de la distance, et je me réserve la possibilité d’ajuster le rayon de lissage.
CREATE OR REPLACE VIEW s_h3_res7_europ2024_liss as FROM corresp_h3_res7_dist10 c JOIN s_h3_res7_europ2024 p ON c.id2 = p.id SELECT c.id, sum( RN /(1 + pow(distance-1,1.5)) ) RN, -- 1.5 (pondération) ajustable sum(exprimes/(1 + pow(distance-1,1.5)) ) exprimes WHERE distance
Pour rappel, la méthode commence par agréger séparément le numérateur et le dénominateur, le taux « ambiant » est calculé dans un second temps, avant export vers Mapshaper :
COPY ( FROM 'fra_h3_res7_v2.parquet' JOIN s_h3_res7_europ2024_liss USING(id) SELECT RN, exprimes, round(100*RN/exprimes,1) part_rn, geom ) TO 'a_h3_res7_europ2024_fra_liss_l5_p15.json' WITH (format GDAL, driver GeoJSON) ;
classify field=part_rn breaks=35,40,45,50 colors=Oranges \ style stroke='d.fill'
Voici le résultat, avec en prime une comparaison avec le vote le Pen lors de l’élection présidentielle de 2022.
Européennes 2024 – part des votes RN et Reconquête (%) et présidentielle 2022 – Part du vote le Pen (%)
2024 2022Ces deux cartes présentent de grandes similitudes. Même si les seuils ne sont pas comparables (le vote RN était supérieur, en %, en 2002, mais il s’agissait du 2d tour, avec donc seulement 2 candidats en présence).
D - À vous de jouer !Ci-dessous figure l’accès à ce kit de lissage : la couverture H3 de la France au niveau 7, et la table de correspondance entre chaque hexagone et leurs voisins. Les préparer a demandé un peu de temps, comme on l’a vu ci-dessus.
Leur application à toute base de données communales est toutefois simple et rapide, deux requêtes suffisent, et tournent en moins de 10 secondes : ventilation des valeurs additives sur la grille H3, et lissage par fenêtre mobile. Avec Mapshaper, vous en voyez très rapidement le résultat. Lisser ne demande qu’un éditeur SQL (ou le client léger DuckDB) et le navigateur web.
Pour en savoir plus- H3 : Hexagonal hierarchical geospatial indexing system
- Manuel d’analyse spatiale – Insee Méthodes
- Prendre en compte l’hétérogénéité spatiale avec le lissage – diaporama Insee
- Lissages interactifs sur l’élection présidentielle 2022
- Kit de lissage H3 France sur data.gouv
- Installer la version de dév de DuckDB
- Bindings for H3 to DuckDB
L’article Les lignes de force du vote RN en 2024 : une cartographie lissée avec la grille H3 est apparu en premier sur Icem7.
-
19:46
Journée d’étude du CFC “CARTOGRAPHIE ET CINÉMA”, 6 décembre 2024
sur Cartes et figures du mondeInstitut national d’histoire de l’art, 2 rue Vivienne Paris (salle Vasari)
Dans le prolongement de la rencontre organisée le 25 novembre 2023 autour des croisements entre art et cartographie, la Commission Histoire du Comité Français de Cartographie présente le 6 décembre 2024 une Journée d’études intitulée « Cartographie et cinéma ». Comme chacun le sait, le cinéma, principal média de fiction développé au cours du XXe siècle, a été dès son origine tourné vers la représentation des espaces et des paysages les plus divers à la surface de la planète. La cartographie, sous toutes ses formes, a été mobilisée pour transformer les lieux et les espaces géographiques en un ensemble de supports et de foyers narratifs. La Journée d’études a pour ambition d’explorer quelques-unes des modalités de la présence de la cartographie dans l’histoire du cinéma de fiction ainsi que dans les opérations cinématographiques.
Avec le soutien de l’EPHE-PSL (Histara), du CNRS (Lamop) et de la Bibliothèque nationale de France
Carto-cinema-afficheTélécharger PROGRAMME9h : Accueil et introduction par Jean-Marc Besse (CNRS-EHESS) et Catherine Hofmann (BnF, Cartes et plans)
Première session : Les imaginaires cartographiques du/au cinéma
9h30 : Teresa Castro, Les imaginaires cartographiques du cinéma
10h : Robin Hopquin, Une France imaginaire : cartographie des films français à succès (2015-2024)
10h30-10h45 : Pause-café
Deuxième session : La carte au cinéma, entre quête, enquête et errance
10h45 : Marcello Tanca, Cartographier l’errance, l’inattendu, l’étonnement et les choses : Perfect days de Wim Wenders.
11h15 : Mathieu Combes, « La smetta con queste geometrie! ». La cartographie comme enquête chez Francesco Rosi
11h45 : Thierry Joliveau, Une analyse du rôle de la carte et d’autres géodispositifs dans deux films de quête et de voyage
12h15-14h : Déjeuner
Troisième session : La carte au cinéma, entre pouvoir, oppressions et résistances
14h : Guillaume Monsaingeon, Dansons avant qu’il n’explose : Le Dictateur de Charlie Chaplin
14h30 : Alice Letoulat, “Non identifié”. Oppressions et résistances cartographiques dans Bacurau (Kleber Mendonça Filho et Juliano Dornelles, 2019)
15h-15h15 : Pause-café
Quatrième session : Carte et cinéma dans la France de l’entre-deux-guerres
15h15 : Nadège Mariotti / Jitka de Préval, Du Tour de la France par deux enfants (1923) à la France imaginée, filmée et cartographiée des premiers temps du cinéma à la fin des années 1920
15h45 : Mathieu Panoryia, Usages et significations de la carte dans les films sur la Première Guerre mondiale
16h15-16h30 : Pause-café
Ouvertures et conclusion
16h30 : Jasmine Desclaux-Salachas, Les Cafés – carto et le cinéma
16h45 : Marina Duféal, Du festival Géocinéma au film d’animation « Astérix, le secret de la potion magique », retour en carte sur des expériences de décryptages géo-cinématographiques
17h : Conclusion générale de la journée
Contact : catherine.hofmann@bnf.fr
Carto-cinema-programmeTélécharger
-
9:00
RODolPh : visualisez et optimisez l’occupation du domaine public (RODP)
sur Makina CorpusCollectivité : vous cherchez la meilleure façon de stabiliser vos recettes et d’optimiser l’occupation de votre domaine public, découvrez RODolPh?!
-
8:38
Naviguer dans l’Ère des Tuiles Vectorielles : Techniques et Applications
sur Neogeo TechnologiesC’est quoi une tuile ?Pour diffuser des données spatiales sur une carte, il existe différents formats de données dont celui de la tuile vectorielle qui apporte de nouvelles possibilités d’affichage de données (rapidité d’accès à la donnée, facilité de modification du style, interaction directe des utilisateurs avec les objets).
En effet, une carte numérique peut théoriquement afficher des données à n’importe quelle échelle et à n’importe quel endroit, mais cette flexibilité peut poser des problèmes de performance.
La mosaïque de tuiles améliore la vitesse et l’efficacité d’affichage :
- En limitant les échelles disponibles. Chaque échelle est deux fois plus détaillée que la précédente.
- En utilisant une grille fixe. Les zones que l’on souhaite afficher sont composées de collections de tuiles appropriées.
La plupart des systèmes de tuiles commencent avec une seule tuile englobant le monde entier, appelée « niveau de zoom 0 », et chaque niveau de zoom suivant augmente le nombre de tuiles par un facteur de 4, en doublant verticalement et horizontalement.
Coordonnées des tuilesChaque tuile d’une carte en mosaïque est référencée par son niveau de zoom, sa position horizontale et sa position verticale. Le schéma d’adressage couramment utilisé est XYZ.
Voici un exemple au zoom 2 :
On va récupérer la tuile à l’aide de l’adressage XYZ suivant :
http://server/{z}/{x}/{y}.format
Par exemple, vous pourrez voir la tuile image de l’Australie à l’adresse suivante, c’est le même principe pour les tuiles vectorielles : [https:]]
Principe d’une tuile vectorielleLes tuiles vectorielles ressemblent aux tuiles raster, mais à la place d’une image, elles contiennent des données permettant de décrire les éléments qui la composent avec des tracés vectoriels. Au lieu d’avoir des ensembles de pixels, il y a donc des ensembles de coordonnées de points, auxquels on peut associer plusieurs informations attributaires.
Comme leurs cousines raster, les tuiles vectorielles peuvent être mises en cache, côté serveur et côté navigateur, et permettent de naviguer dans des cartes immenses rapidement, même sur des terminaux légers.
Comment l’utilise-t-on ? Produire des tuiles vectorielles à la volée depuis PostGISIl existe différentes briques pour publier des données à la volée depuis PostGIS, voici notre sélection :
- pg_tileserv => [https:]] : c’est un serveur de tuile codé en GO et produit par Crunchy Data. On va préférer utiliser la version dockerisée dans nos applications => [https:]]
- Martin => [https:]] : très similaire à pg_tileserv, codé en RUST et produit par MapLibre.
- GeoServer : permet également de générer des tuiles vectorielles
Dans le cadre de ce blog, nous resterons sur l’utilisation de pg_tileserv.
pg_tileservPar défaut, pg_tileserv permet de produire des tuiles vectorielles à partir des tables géographiques qui sont dans la base de données.
Tout l’intérêt d’utiliser un outil comme pg_tileserv réside dans la génération de tuiles produites à partir d’une analyse plus fine.
Voici un exemple de requête que l’on peut utiliser pour afficher une donnée cartographique. Cette requête va permettre de simplifier la géométrie en fonction du seuil de zoom et filtrer la donnée en fonction de l’opérateur et de la techno.
CREATE OR REPLACE FUNCTION generate_couvertures_tiles( z integer, x integer, y integer, in_operateur bigint, in_techno character varying) RETURNS bytea LANGUAGE 'plpgsql' COST 100 VOLATILE PARALLEL UNSAFE AS $BODY$ #variable_conflict use_variable begin return ( WITH bounds AS ( SELECT ST_TileEnvelope(z, x, y) AS geom, (CASE when z >= 12 then 0 when z = 11 then 0 when z = 10 then 10 when z = 9 then 100 when z = 8 then 300 when z = 7 then 900 when z = 6 then 1500 when z <= 5 then 3000 ELSE 1 END ) as simplify_tolerance ), mvtgeom AS ( SELECT fid, operateur, date, techno, usage, niveau, dept, filename, ST_AsMVTGeom( ST_Simplify(t.geom,simplify_tolerance), bounds.geom) AS geom FROM couverture_theorique t, bounds WHERE ST_Intersects(t.geom, bounds.geom ) and operateur = in_operateur and techno = in_techno ) SELECT ST_AsMVT(mvtgeom) FROM mvtgeom ); end; $BODY$;
Pour appeler cette fonction, on va utiliser l’url formatée de la manière suivante :
https://hostname/tileserv/public.generate_couvertures_tiles/{Z}/{X}/{Y}.pbf?in_operateur=28020&in_techno=3G
Vous voilà en mesure de faire parler votre imagination pour récupérer les données que vous souhaitez et répondre aux besoins de votre carte.
On peut penser à la création de Cluster, d’analyse thématique, d’agrégation de couche ou que sais-je.
Et la performance dans tout ça ?Toute cette liberté acquise va nous plonger dans des requêtes de plus en plus complexes et donc nous apporter une performance dégradée. Si chaque tuile prend 10 secondes à se générer, l’expérience utilisateur sera mauvaise.
Pour remédier à ce contretemps, rappelons-nous que la tuile vectorielle repose sur une grille fixe. Il est donc possible de générer du cache (mise en cache). Cool ! mais comment fait-on cela ?
C’est parti :
1 – Créer une table de cache de tuiles
CREATE TABLE IF NOT EXISTS tiles_cache ( z integer NOT NULL, x integer NOT NULL, y integer NOT NULL, operateur bigint NOT NULL, techno character varying COLLATE pg_catalog."default" NOT NULL, mvt bytea NOT NULL, CONSTRAINT tiles_pkey PRIMARY KEY (z, x, y, operateur, techno) )
2 – Générer le cache
Pour générer le cache, dans un premier temps on récupère les grilles sur lesquelles on a des données. Le seuil de zoom maximum (max_zoom) peut être défini dans la fonction suivante.
CREATE OR REPLACE FUNCTION gettilesintersectinglayer( liste_operateur bigint, liste_techno character varying) RETURNS TABLE(x integer, y integer, z integer) LANGUAGE 'plpgsql' COST 100 VOLATILE PARALLEL UNSAFE ROWS 1000 AS $BODY$ DECLARE tile_bounds public.GEOMETRY; max_zoom INTEGER := 7; BEGIN FOR current_zoom IN 1..max_zoom LOOP FOR _x IN 0..(2 ^ current_zoom - 1) LOOP FOR _y IN 0..(2 ^ current_zoom - 1) LOOP tile_bounds := ST_TileEnvelope(current_zoom, _x, _y); IF EXISTS ( SELECT 1 FROM couverture_theorique WHERE ST_Intersects(geom, tile_bounds) AND operateur = liste_operateur AND techno = liste_techno ) THEN RAISE NOTICE 'Traitement %', current_zoom || ', ' || _x || ', ' || _y; z := current_zoom; x := _x; y := _y; RETURN NEXT; END IF; END LOOP; END LOOP; END LOOP; END; $BODY$;
À l’aide de ce tableau de grilles, on va générer l’ensemble des tuiles et les injecter dans la table de cache.
with oper as ( SELECT distinct operateur from couverture_theorique ), techno as ( SELECT distinct techno from couverture_theorique ) insert into tiles_cache_couverture(z, x, y, operateur, techno, mvt) select tile.z, tile.x, tile.y, oper.operateur, techno.techno, generate_couvertures_tiles(tile.z, tile.x, tile.y, oper.operateur, techno.techno) from techno, oper, GetTilesIntersectingLayer(operateur, techno) as tile;
3 – Le rendu mixte cache ou requête
Une fois que les tuiles sont insérées dans la table de cache, lorsque l’on va vouloir récupérer la tuile, il va falloir aiguiller la recherche pour que la fonction aille soit récupérer la tuile dans la table de cache ou la générer à la volée.
CREATE FUNCTION couvertures(z integer, x integer, y integer, liste_operateur integer[], liste_techno character varying[]) RETURNS bytea LANGUAGE plpgsql AS $$ #variable_conflict use_variable begin if (z <= 7 and array_length(liste_operateur,1) = 1) then return ( SELECT mvt from tiles_cache_couverture Where tiles_cache_couverture.x=x AND tiles_cache_couverture.y=y AND tiles_cache_couverture.z=z and operateur = any(liste_operateur) and techno = any(liste_techno) ); else return ( WITH bounds AS ( SELECTST_TileEnvelope(z, x, y) AS geom, (CASE when z >= 12 then 0 when z = 11 then 0 when z = 10 then 10 when z = 9 then 100 when z = 8 then 300 when z = 7 then 900 when z = 6 then 1500 when z <= 5 then 3000 ELSE 1 END ) as simplify_tolerance ), mvtgeom AS ( SELECT fid, operateur, date, techno, usage, niveau, dept, filename, public.ST_AsMVTGeom( ST_Simplify(t.geom,simplify_tolerance), bounds.geom) AS geom FROM couverture_theorique t, bounds WHEREST_Intersects(t.geom, bounds.geom ) and operateur = any(liste_operateur) and techno = any(liste_techno) ) SELECTST_AsMVT(mvtgeom) FROM mvtgeom ); end if; end; $$;
Maintenant en appelant la couche « couvertures » dans pg_tileserv, sur les zooms les plus petits (inférieur à 8), et donc les plus gourmands pour calculer la simplification géométrique, nous allons utiliser le cache de tuiles. Cependant, lorsque l’on sera relativement proche, on va utiliser la génération des tuiles à la volée car les performances sont bonnes.
Pour les plus ardus, je vous mets un petit bonus. Un exemple de couche cluster générée coté base de données. Le cluster va s’adapter au seuil de zoom, pour clustériser au niveau départemental, puis communal, puis sous forme de cluster naturel (St_ClusterDBSCAN) avec un espacement dynamique pour chaque seuil de zoom, et enfin un affichage par objet quand on est très proche. On aurait pu imaginer un cluster en nid d’abeille que je trouve plus efficace car le problème du cluster de PostGIS, c’est qu’il va être calculé dans l’emprise de chaque tuile. Cela signifie qu’il découpe des clusters de façon arbitraire quand on a une densité importante entre 2 tuiles.
Finalement quels avantages ? Fond de planCREATE FUNCTION cluster_filtres(z integer, x integer, y integer, filtres text[]) RETURNS bytea LANGUAGE plpgsql AS $_$ #variable_conflict use_variable DECLARE query text; result bytea; begin --MISE EN PLACE DES FILTRES if ( z < 9) then --Vue par departement query := ' WITH bounds AS ( SELECT ST_TileEnvelope($1, $2, $3) AS geom ), item_fitler AS ( --On récupère nos données filtrées SELECT distinct t.id FROM table t WHERE ' || filtres || ' ), tot_dept AS ( select code_departement, count(1) as tot_item from departement d INNER JOIN table t ON ST_Intersects(d.geom, t.geom ) INNER JOIN item_fitler ON item_fitler.id = t.id group by code_departement ), mvtgeom AS ( SELECT tot_dept.code_departement, tot_dept.tot_item, ST_AsMVTGeom(ST_PointOnSurface(tot_dept.geom), bounds.geom) AS geom FROM tot_dept INNER JOIN bounds ON ST_Intersects(tot_dept.geom, bounds.geom ) WHERE tot_item is not null ) SELECT ST_AsMVT(mvtgeom) FROM mvtgeom '; --RAISE NOTICE 'Calling query (%)', query; EXECUTE query INTO result USING z, x, y, filtres; return result; elsif ( z <= 10) then --Vue par commune, On ajoute un buffer pour récupérer les items autour de la tuile sans devoir le faire sur la France entière query := ' WITH bounds AS ( SELECT ST_TileEnvelope($1, $2, $3) AS geom ), item_fitler AS ( --On récupère nos données filtrées SELECT distinct t.id FROM table t INNER JOIN bounds ON ST_Intersects(t.geom, ST_Buffer(bounds.geom, 10000) ) WHERE ' || filtres || ' ), tot_com AS ( select insee_com, count(1) as tot_item from commune c INNER JOIN table t ON ST_Intersects(c.geom, t.geom ) INNER JOIN item_fitler ON item_fitler.id = t.id group by insee_com having count(1) > 0 ), mvtgeom AS ( SELECT tot_com.insee_com, tot_com.tot_item, ST_AsMVTGeom(ST_PointOnSurface(tot_com.geom), bounds.geom) AS geom FROM tot_com INNER JOIN bounds ON ST_Intersects(tot_com.geom, bounds.geom ) WHERE tot_item is not null ) SELECT ST_AsMVT(mvtgeom) FROM mvtgeom '; --RAISE NOTICE 'Calling query (%)', query; EXECUTE query INTO result USING z, x, y, filtres; return result; elsif ( z <= 15) then --Vue par cluster query := ' WITH bounds AS ( SELECT ST_TileEnvelope($1, $2, $3) AS geom ), item_fitler AS ( --On récupère nos données filtrées SELECT distinct t.id FROM table t INNER JOIN bounds ON ST_Intersects(t.geom, bounds.geom ) WHERE ' || filtres || ' ), clustered_points AS ( SELECT ST_ClusterDBSCAN(t.geom, eps := (CASE when $1 = 11 then 500 when $1 = 12 then 385 when $1 = 13 then 280 when $1 = 14 then 150 when $1 = 15 then 75 ELSE 1 END ) , minpoints := 1) over() AS cid, t.fid, t.geom FROM table t INNER JOIN item_fitler s ON s.id = t.id group by t.id, t.geom ), mvtgeom AS ( SELECT cid, array_agg(id) as ids, count(1) as tot_item, ST_AsMVTGeom(ST_PointOnSurface(ST_Collect(c.geom)), bounds.geom) AS geom FROM clustered_points c, bounds WHERE ST_Intersects(c.geom, bounds.geom ) group by cid, bounds.geom ) SELECT public.ST_AsMVT(mvtgeom) FROM mvtgeom '; RAISE NOTICE 'Calling query (%)', query; EXECUTE query INTO result USING z, x, y, filtres; return result; else --vue par objet query := ' WITH bounds AS ( SELECT ST_TileEnvelope($1, $2, $3) AS geom ), item_fitler AS ( --On récupère nos données filtrées SELECT distinct t.id FROM table t INNER JOIN bounds ON ST_Intersects(t.geom, bounds.geom ) WHERE ' || filtres || ' ), mvtgeom as ( SELECT ST_AsMVTGeom(t.geom, bounds.geom) AS geom, t.id FROM item_fitler t , bounds WHERE ST_Intersects(t.geom, bounds.geom ) ) SELECT ST_AsMVT(mvtgeom) FROM mvtgeom '; EXECUTE query INTO result USING z, x, y, filtres; return result; end if; end; $_$;
Dans les choix des fonds de plan, les avantages sont multiples.
On peut assez facilement personnaliser un fond de plan en modifiant les paramètres d’affichage que l’on souhaite utiliser pour chaque élément. Pour faire cela, on peut s’appuyer sur des fichiers de style comme ceux proposés par Etalab : [https:]] .
Si l’on héberge soit même les fichiers de style, on peut les modifier pour choisir le style des éléments. Voici à quoi ressemble le paramétrage d’un élément issu d’une tuile vectorielle :
{ "id": "landuse-commercial", "type": "fill", "source": "openmaptiles", "source-layer": "landuse", "filter": [ "all", ["==", "$type", "Polygon"], ["==", "class", "commercial"] ], "layout": { "visibility": "visible" }, "paint": { "fill-color": "hsla(0, 60%, 87%, 0.23)" } },
Il est par exemple possible d’extruder les bâtiments si on souhaite obtenir un rendu 3D
L’affichage vectorielle permet également d’afficher les libellés / icônes toujours dans le bon sens de lecture.
Choix de l’ordre d’affichage des couchesEnsuite il est intéressant de rappeler qu’il est possible de modifier l’ordre d’affichage des couches qui sont issues du fond de plan et des couches métiers, ce qui n’est pas possible avec les fonds de plan de type WTMS. On peut donc faire ressortir les libellés des communes sur une couche métier.
Couche vectorielleLa couche étant vectorielle, il est également possible de récupérer des attributs de celle-ci.
Outil de d’édition du styleIl existe plusieurs outils permettant de modifier le style des données vectorielles. Cependant je vous conseille maputnik qui est très complet et accessible => [https:]]
ConclusionEn conclusion, les tuiles vectorielles représentent une avancée significative dans la diffusion et l’affichage de données spatiales, et permettent de créer des applications cartographiques avancées. Encore faut-il les intégrer dans des outils robustes et des méthodologies performantes, afin de répondre aux besoins croissants de précision et de réactivité. La technologie des tuiles vectorielles est essentielle pour le futur de la cartographie numérique, offrant un équilibre entre performance, flexibilité et interactivité.
Pistes futures ?L’authentification et les rôles à travers pg_tileserv. On pourrait imaginer dans un futur blog, comment fusionner l’authentification via un token, le service pg_tileserv et la sécurité de PostgreSQL avec le Row Level Sécurity. Cela permettrait de gérer les droits au niveau de l’objet et nativement dans PostgreSQL.
Rédacteur : Matthieu Etourneau
-
20:09
Analyser les cartes et les données des élections législatives de 2024 en France
sur Cartographies numériques
Les élections législatives anticipées des 30 juin et 7 juillet sont les dix-septièmes élections législatives sous la Cinquième République. À bien des égards, elles apparaissent comme un scrutin exceptionnel : décision surprise de la dissolution de l’Assemblée nationale par le président de la République au soir des élections européennes du 9 juin, perspective d’une alternance gouvernementale à l’issue du second tour du scrutin, formation de nouvelles coalitions électorales à gauche comme à droite du système partisan pendant la campagne, contexte politique particulièrement anxiogène.L'objectif de ce billet est de fournir une approche critique des cartes et des graphiques que l'on peut trouver dans les médias. Il s'agit de donner accès aux données et à la fabrique de l'information, mais aussi de comparer les choix opérés par les médias en regard des cartes et analyses proposées par des géographes, des sociologues ou des politistes.
I) Analyser les cartes et les données du 1er tour des législatives (30 juin 2024)
1) Accès aux données
Le taux de participation a été de 66,7% au 1er tour, soit nettement au dessus du taux de participation aux législatives de 2022 qui était de 48,5%. A lui seul, le Rassemblement national a rassemblé 29,25% des voix au 1er tour. En deuxième position, le Nouveau Front populaire obtient 27,99% des suffrages. Le camp présidentiel n'arrive, lui, qu'en troisième place, avec 20,04% des voix. Loin derrière, avec leurs alliés Divers droite, Les Républicains qui ont refusé de suivre Eric Ciotti dans une alliance avec le RN, obtiennent 10,23% des suffrages.
Seulement 76 candidats ont été élus au premier tour. C’est le Rassemblement National et la France insoumise qui ont le plus de candidats élus au premier tour le 30 juin 2024.
Liste des candidats au 1er tour avec leur parti et leur profession (Data.gouv.fr)
Résultats définitifs du 1er tour des élections législatives du 30 juin 2024 (Data.gouv.fr)2) Cartes des résultats dans les médias
- La carte des résultats des législatives au premier tour et le tableau des candidats qualifiés (Le Monde)
- Législatives 2024 : voici les résultats définitifs du premier tour, parti par parti (Le Parisien)
- Les résultats du premier tour des législatives 2024 dans chaque circonscription (Libération)
- Résultats du 1er tour des législatives 2024 : découvrez les scores des candidats et les députés qualifiés (France Info)
- Législatives 2024 : la carte des résultats du premier tour (Les Echos)
- Élections législatives 2024: découvrez les résultats définitifs dans votre circonscription et dans votre ville (Le Figaro)
- Législatives : le Rassemblement National aurait la majorité absolue au deuxième tour sans désistement généralisé ou front républicain - projection exclusive (Le Grand Continent)
- Cartographie électorale et symbolisme des couleurs. Le choix du bleu marine (au lieu du brun) pour représenter le RN et ses alliés n'est pas anodin. On le retrouve par exemple pour l'AFP, France Info ou Le Parisien. Au contraire, Libération et Les Echos font le choix de représenter le RN en noir, Le Monde et Mediapart en brun. Le Figaro n'est pas très clair dans ses choix sémiologiques (violet pour le candidat RN en tête et bleu lorsqu'il est élu). Voir cet article de Wikipedia sur le symbolisme des couleurs en politique.
- Triangulaires : le désistement de la gauche change la donne dans 160 circonscriptions. Quels scénarios pour le second tour ? (Le Grand Continent)
- Outre les triangulaires qui devraient se réduire avec certains désistements, le site Contexte identifie les points chauds où l'écart de points est faible entre le 1er et le 2e candidat (cela ne présage pas des reports de voix en provenance d'autres candidats).
- Législatives : et revoilà les fragiles projections de sièges. Les grandes chaînes continuent d'afficher des diagrammes qui n'ont aucune valeur (Arrêt sur Images)
3) Piste d'analyses pour approfondir
- Décryptage des résultats au lendemain du 30 juin 2024 par Pierre-Henri Bono (Cevipof - SciencesPo)
- Sociologie des électorats et profil des abstentionnistes (sondage IPSOS - 30 juin 2024)
- Quelles circonscriptions peuvent faire basculer les élections ? (The Conversation). Accès à l'outil de cartographie interactive proposé par Claude Grasland
- Votes aux législatives : explorations géographiques (Olivier Bouba-Olga)
- « Ce qui explique vraiment les différences de vote RN entre les villes et les campagnes » par Olivier Bouba-Olga et Vincent Grimault (Alternatives économiques)
- Législatives 2024 : vote des champs et vote des villes, une question de diplômes plus que de géographie (Le Monde)
- Eric Charmes, géographe : « Face à l’extrême droite, les autres forces politiques devront imposer une lecture différente de la France périphérique » (Le Monde)
- Carte des résultats du premier tour des élections législatives 2024 par bureau de vote (Julien Gaffuri)
- Tendances politiques des quartiers de Nantes Métropole selon les résultats des législatives du 30 juin 2024 (Martin Vanier)
- « Entre foyers pauvres et modestes, une classe d'écart mais des votes aux antipodes » (Charivari). Hervé Mondon croise les résultats du premier tour des législatives avec le niveau de vie de chaque circonscription (données issues du portrait statistique des circonscriptions législatives de l’Insee de 2022)
4) Réflexion sur le mode de scrutin
Outre les effets pervers du scrutin majoritaire, pour les législatives se pose le problème du découpage et de la forte disparité des circonscriptions électorales :
- « Législatives : le maillage des circonscriptions » (Les Cartes en mouvement)
- « Législatives : les fortes disparités entre les 577 circonscriptions sur le nombre d’habitants ou d’inscrits, le taux de chômage, l’âge moyen... » (Le Monde - Les Décodeurs)
- « Quel est votre poids électoral ? » par Cédric Rossi (Visionscarto)
- « Faut-il que ces élections législatives soient les dernières au scrutin majoritaire à deux tours ? » (France Inter)
II) Analyser les cartes et les données du 2nd tour des législatives (7 juillet 2024)
La participation finale s'élève à 66,63%, soit une hausse de 20,4 points par rapport à 2022 où elle avait été l’une des plus faibles sous la Ve République : seulement 46,23% des inscrits s'étaient rendu aux urnes pour le second tour. 1094 candidats (656 hommes, 438 femmes) dans 409 duels, 89 triangulaires et 2 quadrangulaires étaient en lice dans les 501 circonscriptions pour lesquelles un second tour était organisé le dimanche 7 juillet 2024.
Le Front Populaire arrive en tête du 2nd tour avec 170 sièges, Ensemble en 2e position avec 150 sièges, le Rassemblement et ses alliés en 3e position avec 143 sièges suivis par Les Républicains et apparentés avec 66 sièges. Les désistements ont profité au Nouveau Front Populaire (NFP), mais aussi à l'ancienne majorité. C'est le Rassemblement National (RN) qui réunit le plus de suffrages exprimés (8,7 millions de voix), suivi par le Nouveau Front populaire (7 millions de voix) et Ensemble (6,3 millions). Du point de vue de la répartition géographique, le NFP réalise de gros scores à Paris et en petite couronne. Ensemble est très implanté dans le centre et l'ouest, tandis que le RN et ses alliés s'implantent durablement dans le sud-est et dans une grande partie du nord-est de la France.
1) Accès aux données
Résultats officiels publiés par le Ministère de l'Intérieur
Liste des candidats au 2e tour avec leur parti et leur profession (Data.gouv.fr). Selon les premières analyses de la sociologie des député(e)s de la nouvelle Assemblée nationale, on observe en moyenne trois fois plus de députés parmi les professions cadres supérieurs et professions intellectuelles supérieures que dans la population active (Cevipof). On compte 36% de femmes parmi les élu.e.s (contre 37,3% en 2022). Sur 577, on dénombre 423 sortants (soit 73 %). Sur les 154 nouveaux députés, 141 n’ont jamais siégé à l’Assemblée nationale.2) Cartes des résultats dans les médias
- La carte des résultats des législatives 2024 au second tour : la composition de l’Assemblée et le tableau des candidats élus (Le Monde). 155 circonscriptions changent de couleur politique (Le Monde-Les Décodeurs)
- Les résultats du second tour des élections législatives 2024 par commune (Libération)
- Législatives 2024 : la carte de France des résultats du second tour des élections (Le Parisien)
- Législatives : comment la mécanique du barrage a fonctionné ? 6 leçons clefs (Le Grand Continent). Quelle efficacité pour le "front républicain” ?" (mesure de l'écart entre le candidat RN ou alliés et le candidat qui lui était opposé dans les duels du second tour)
- Législatives : formation politique arrivée en tête des élections, par circonscription (Les Echos). Résultats des législatives : 3 cartes pour comprendre la géographie du vote au second tour (Les Echos)
- Résultats Législatives : la carte complète des députés élus par parti (Le Figaro)
- La carte des résultats circonscription par circonscription (Ouest France)
- Résultats des élections législatives 2024 : une circonscription sur quatre a changé de couleur politique, la vôtre est-elle concernée ? (France Info)
- Résultats des législatives : tentez de composer une majorité absolue avec un simulateur de coalitions (Le Figaro)
- Quelle coalition ? Composez votre majorité absolue avec un simulateur de coalitions (Le Grand Continent)
- « Décryptage des résultats au lendemain du 7 juillet 2024 » (Cevipof). Huit chercheurs proposent une analyse des résultats du second tour des législatives 2024.
- « NFP, Ensemble, LR : qui sont les électeurs qui ont le plus fait barrage au RN ? » (CheckNews-Libération)
- « France de l’abstention, France de gauche, France de droite ou d’extrême droite : une radiographie politique du pays » (L'Humanité). L’éclairage des cartographes Nicolas Lambert, Antoine Beroud et Ronan Ysebaert à partir de cartes par interpolation (UAR RIATE). Avec méthodologie et code source disponibles sur Observable.
- « Quelles cartes pour comprendre les élections de 2024 en France ? » (Géoconfluences)
- Alexandre Blin, étudiant du master SIGAT, propose une datavisualisation donnant une vision générale de la répartition géographique des trois blocs accompagnée de deux histogrammes (nombre de voix et transformation au 2nd tour).
- « Vents contraires de la politique française. Evolution du vote entre les élections de 2024 et celles de 2022 » par Sylvain Lesage.
- « On est peut-être à l’aube d’une révision constitutionnelle majeure ». En l’absence de majorité absolue, les parlementaires élus vont devoir inventer un chemin non prévu par la Constitution de la Ve République, estime la constitutionnaliste Charlotte Girard (Politis).
- « Législatives 2024. Qu'a voté la France des villes moyennes ? » par Ivan Glita et Achille Warnant (Fondation Jean Jaurès).
- Comprendre la géographie du vote RN en 2024 » par Jérôme Fourquet et Sylvain Manternach (Institut Terram)
Articles connexesAnalyser les cartes et les données des élections législatives de juin 2022 en France
Cartes et graphiques sur les élections européennes de 2024
Portraits des circonscriptions législatives en France (2022)
Analyser les cartes et les données des élections présidentielles d'avril 2022 en France
La carte, objet éminemment politique : exemple des élections européennes
Dis-moi où tu vis, je te dirai ce que tu votes ? (Géographie à la carte, France Culture)
S'initier à la cartographie électorale à travers l'exemple des élections présidentielles de novembre 2020 aux Etats-Unis
-
12:48
Cartographie d’un duel électoral NFP-ENS : le cas de la 10e circonscription des Français de l’étranger
sur Carnet (neo)cartographiqueCe travail a été réalisé avec la collaboration de Kalliopi ANGO ELA, professeure de Géographie et ancienne sénatrice des Français à l’étranger pour Europe Écologie Les Verts, Directrice de Fondation Paul Ango Ela de géopolitique en Afrique centrale et de Muriel SAMÉ EKOBO, professeure de Géographie et chercheure à la Fondation Paul Ango Ela de géopolitique en Afrique centrale.
Le Nouveau Front Populaire (NFP) représenté par Elsa DI MÉO (NFP-PS) est arrivé en tête du premier tour des élections législatives dans 34 des 48 pôles électoraux de la circonscription n°10 des Français établis hors de France. Ensemble (ENS) représenté par Amal Amélia LAKRAFI (ENS-Renaissance) arrive en seconde position, avec 12 de ces pôles. Les Républicains (LR) et les Divers-Gauche (DIV-G) n’arrivant en tête, chacun, que dans un seul bureau de vote.
Cette circonscription n°10, qui enregistre environ 155 000 électeurs répartis sur 49 pays du Moyen-Orient et de l’Afrique, a montré un taux de participation beaucoup plus élevé qu’à l’habitude (32,06 %) même s’il peut sembler relativement faible au regard de la moyenne nationale (66,7 %).
Les résultats du premier tour des élections législatives du 30 juin 2024 révèlent deux blocs politiques. Celui du NFP, correspondant à deux Afriques : la première couvre une large bande, depuis l’Afrique sub-saharienne jusqu’à l’Afrique Orientale,de N’Djaména à Maputo, en incluant la côtière (Cotonou, Lomé, Accra). La seconde bande s’étend de l’Afrique orientale au Proche Orient, depuis Djibouti et Alexandrie (en Égypte) jusqu’à Erbi au nord et Manama au nord-est. Le bloc d’ENS apparaît surtout dans les circonscriptions périphériques de ce territoire. Est-ce à dire que le NFP serait en passe de l’emporter au second tour de ces législatives ?
– Carte n°1 –
En regardant de plus près la distribution des votes, on observe que ce sont les pôles électoraux importants, en termes de nombre d’inscrit.es, par conséquent de votant.es, qui ont remporté la mise. Si les trois-quarts des circonscriptions consulaires ont mis en avant le NFP, il ne dispose cependant que de 253 voix d’écarts avec ENS, respectivement 11 651 et 11 398 voix pour chacune des deux candidates.
– Carte n°2 –
Les gros pôles électoraux tels Beyrouth au Liban, Dubaï, Abou-Dabi, Koweït et Mascate dans la péninsule arabique, Port-Louis à Maurice ou Tananarive à Madagascar ont donné plus de voix à ENS.
On peut observer trois anomalies dans la répartition générale des voix qui résulte d’un effet de proximité, ce qui signifie que les électeurs ont d’abord voté pour le ou la candidate la plus proche d’eux. Cet effet de proximité, que l’on peut interpréter sur la cartographie du nombre de voix d’écart entre les deux premiers canditat.es, se manifeste de deux manières : sur le plan politique et au niveau géographique.
– Carte n°3 –
La première anomalie résulte d’un effet de proximité politique au profit de LR à Beyrouth au Liban (voir Carte n°2). Ce gros pôle électoral (18 751 inscrit.es) a placé le LR en tête (avec 1415 voix), mais avec une très courte avance de 16 voix (voir Carte n°3) sur le NFP arrivé en seconde position (1399 voix). Les électeurs ont manifestement voté pour un Français du Liban, Lucas LAMAH, qui leur est proche ; la casquette LR devenant alors secondaire.
La seconde anomalie concerne le pôle de Douala au Cameroun, qui bénéficie d’un effet de proximité géographique au profit du NFP (voir Carte n°2). Alors que ce fief électoral de la « Droite française à l’étranger » n’avait jamais voté majoritairement à gauche, il arrive en tête sous les couleurs du NFP et avec 48 voix d’avance. Douala a favorisé la proximité de Elsa DI MÉO, qui a rappelé au cours de sa campagne qu’elle est résidente à Yaoundé. Le NFP est aussi arrivé en tête à Yaoundé (43% des votes), avec 98 voix d’avance sur ENS (voir Carte n°3).
Une anomalie similaire s’observe à Amman en Jordanie où le NFP est arrivé largement en tête (63% des votes) en obtenant 240 voix, soit 150 voix de plus que ENS arrivé en seconde position (voir Carte n°3). Ce pôle situé dans la capitale de la Jordanie a également bénéficié d’un effet de proximité géographique : Anne-Claire YAEESH, la suppléante de Elsa DI MÉO résidant sur place.
Enfin une anomalie à Sanaa, au Yémen, plaçant Nathalie MAZOT (DIV-gauche) en tête, ne peut pas être considérée comme significative dans la mesure où il n’y a eut qu’une seule voix exprimée.
L’enjeu du Liban dans la victoire du NFP
L’enjeu électoral entre les deux blocs politiques en présence dans cette circonscription n°10 des Français établis hors de France est au Liban, où les deux candidates sont finalement assez proches en nombre de voix, avec une courte avance pour ENS dans un duel qui l’oppose au NFP.
Deux éléments vont par ailleurs jouer dans le duel du second tour entre Elsa DI MÉO, la candidate la plus représentée et la plus représentative sur l’ensemble du territoire et Amal Amélia LAKRAFI, la candidate sortante en mandat depuis 2017.
Le premier est le report des voix de l’extrême droite qui n’est arrivée en première ou en deuxième position dans aucune des circonscriptions des Français de l’étranger. Le second élément tient à la bascule des électeurs français du Liban pour ENS, alors qu’ils avaient placé LFI en tête aux élections européennes de 2024 (trois semaines auparavant). Majoritairement favorables à la cause palestinienne, leur vote au second tour traduira aussi leurs inquiétudes face à une extension du conflit Gaza-Israël sur leur territoire.
Ces élections législatives françaises étant très politiques, en raison de la position de l’extrême droite Française à la porte de Matignon, il serait vraiment dommage que les Français qui sont largement établis en Afrique et dans la péninsule arabique ne permettent pas au NFP, déjà en tête avec 48 circonscriptions et 253 voix d’avance, de l’emporter.
Au-delà des résultats de ce premier tour des législatives anticipées dans la 10ème circonscription, la singularité du vote des Français de l’étranger paraît remarquable dans un contexte national qui semble porter l’extrême droite Française aux portes de Matignon. La remise en cause de la binationalité et de l’immigration rendent particulièrement vulnérables les 3,5 millions de concitoyens et leurs familles, tout en remettant en lumière les valeurs défendues par la gauche.
À vos votes !
Citation suggérée par les autrices :
Françoise Bahoken, Kalliopi Ango Ela et Muriel Samé Ekobo (05 juillet 2024), Cartographie d’un duel électoral NFP-ENS : le cas de la 10e circonscription des Français de l’étranger, Carnet (neo)cartographique. Mis en ligne le 05 juillet 2024 à l’adresse [https:]Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
7:22
Déplacements dans Paris x JO et Para 2024
sur OslandiaL’organisation des Jeux Olympiques et Paralympiques à Paris cet été pose la question des déplacements parisiens. Chez Oslandia, le mot d’ordre est très clair : aucun déplacement dans Paris ! Et si la rencontre « physique » est indispensable, nous pouvons proposer à nos clients et partenaires d’utiliser des locaux dans d’autres villes, Lyon par exemple.
Ensuite, il s’agit de bien cerner ce qui est indispensable ou pas … Pour rappel, Oslandia fonctionne en full remote et cela depuis près de 15 ans ! L’équipe est répartie dans la France entière, tout comme nos clients, et cela ne nous a jamais empêché de livrer de beaux projets
En parlant d’ailleurs de beau projet et de JO, la plateforme JOPTIMIZ, composée de plusieurs applications, va prochainement permettre de fournir des services de calcul d’itinéraires adaptés aux contraintes réglementaires mises en place par la Préfecture pendant l’été et effervescence des JO et Para JO.
Oslandia a plus spécifiquement collaboré sur l’outil Itineriz en partenariat avec ALLOHOUSTON, notre partenaire qui a également travaillé sur CirQliz, un outil qui permet aux entreprises de faire valider leurs véhicules avant les JO, délivrant un QR code par véhicule pour faciliter les contrôles de police en zone bleue.
Itineriz permet de son côté d’adapter son trajet en fonction des restrictions et dérogations liées aux Jeux 2024 et à la ZFE de votre ville.
Voilà des applications qui seront bien utiles cet été
-
6:43
Oslandia x Open Source Experts
sur OslandiaOpen Source Experts est un guichet unique fédérant les acteurs de l’open source en France dans un objectif de développement de l’écosystème et d’accès à de nouveaux marchés.
OSE centralise les experts open source, offrant ainsi un interlocuteur unique pour les donneurs d’ordres.
Ce regroupement des acteurs open source a déjà montré ses capacités avant même l’officialisation OSE, par exemple pour le marché de support open source de la CNAM
Oslandia est fière de faire partie des experts « partenaires qualifiés » open source avec OSE, pour accompagner toutes les organisations à leurs usages et migrations vers des SIG libres !
Bravo pour cette initiative portée par nos confrères Arawa, BlueMind, FactorFX, Inno3 et Worteks
-
22:09
GeoJSON dans QGIS : ouvrir, visualiser et exporter un fichier
sur GeomatickLe format GeoJSON est un format d’encodage de données géospatiales basé sur JavaScript Object Notation (JSON). Pour rappel, c’est un format standardisé par l’Internet Engineering Task Force (IETF) qui a publié le référentiel RFC7946. Le GeoJSON est largement utilisé pour représenter des objets géographiques vectoriels avec leurs données attributaires. A… Continuer à lire →
L’article GeoJSON dans QGIS : ouvrir, visualiser et exporter un fichier est apparu en premier sur GEOMATICK.
-
16:45
Neogeo est ravie d’annoncer la date de ...
sur Neogeo TechnologiesNeogeo est ravie d’annoncer la date de son tout premier séminaire dédié à OneGeo Suite, la solution web open source permettant de partager, diffuser et valoriser les données cartographiques d’un territoire.
Il s’agit d’une opportunité unique aussi bien pour les utilisateurs, que pour ceux qui contribuent aux développements mais aussi les passionnés qui veulent découvrir la solution, les dernières fonctionnalités mises en œuvre, d’approfondir leurs connaissances, et de se connecter avec les différents membres de la communauté.
Cet événement promet d’être un véritable catalyseur pour ceux qui souhaitent exploiter tout le potentiel OneGeo Suite.
Ce séminaire a pour but de :- Présenter les nouvelles fonctionnalités : Découvrez les innovations et mises à jour récentes de OneGeo Suite,
- Favoriser les échanges : Échangez avec les autres utilisateurs, les développeurs, et experts du domaine,
- Inspirer et motiver : Bénéficier et partager de retours d’expériences des utilisateurs et des cas d’utilisation inspirants,
- Fournir des échanges approfondis : Au travers d’ateliers sur les nouveaux usages, services, connecteurs, la visualisation des données, les performances et limites actuelles des plateformes OGS…
Participer à ce séminaire vous permettra de :
- Accéder à des informations exclusives : Soyez parmi les premiers à découvrir les dernières fonctionnalités et la road map de la solution,
- Améliorer vos connaissances : Grâce aux présentations et aux ateliers,
- Réseauter avec les membres de la communauté du secteur : Élargissez votre réseau et partagez des idées avec d’autres utilisateurs et experts.
- Obtenir des réponses à vos questions : Interagissez directement avec les développeurs et les formateurs de la solution.
Pour participer à ce séminaire exceptionnel, inscrivez-vous dès maintenant –> lien.
Les inscriptions sont gratuites et obligatoires, ne tardez pas à réserver votre place.
En conclusionNe manquez pas cette occasion, en amont des Géodatadays 2024, afin de consolider vos connaissances et de renforcer votre utilisation de OneGeo Suite. Rejoignez-nous pour une journée riche en apprentissage, en échanges et en inspiration.
Nous sommes impatients de vous accueillir et de partager ce premier séminaire OneGeo Suite à vos côtés.
L’équipe OneGeo Suite
-
7:11
Comparaison des solutions de collecte de terrain : QField et LandSurveyCodesImport (LSCI)
sur OslandiaIntroductionChez Oslandia, nous offrons des services pour la gestion des réseaux, les collectivités et la production de plans de corps de rue simplifiés (PCRS). Parmi ceux-ci, nous proposons des assistances et développements pour les solutions de collecte de terrain. Dans le billet précédent, nous faisions état de ces solutions. Cet article explique les différences entre deux solutions de collecte : QFIELD et LandSurveyCodesImport (LSCI). Nous sommes, en même temps, partenaires d’OpenGIS.ch, éditeur de QField, et les développeurs de LandSurveyCodesImport (LSCI). Pourquoi proposer deux outils ?
QField : Modification directe des donnéesQField est une application mobile développée autour de QGIS. Conçue pour une utilisation intuitive sur le terrain, elle permet aux utilisateurs de :
- Modifier les données SIG en temps réel : les relevés et modifications peuvent être effectués directement sur le terrain et synchronisés immédiatement avec la base de données principale.
- Accès facile aux informations : les utilisateurs ont un accès direct aux cartes et aux données géospatiales, ce qui permet une prise de décision rapide et informée.
- Cartographie environnementale : des naturalistes peuvent utiliser QField pour relever des données sur la faune et la flore, mettant à jour instantanément la base de données.
- Gestion des infrastructures : les techniciens des services publics peuvent enregistrer et modifier les informations sur les infrastructures directement sur le terrain.
LandSurveyCodesImport (LSCI) est un plugin QGIS destiné principalement aux topographes. Il permet la saisie de points et de codes à partir de carnets de terrain, suivi d’un traitement et d’une intégration dans QGIS. Ce processus est particulièrement utile pour :
- La saisie structurée des données : les topographes peuvent enregistrer des points précis et des codes descriptifs, facilitant ainsi le traitement ultérieur des données.
- Intégration avec les outils de topographie traditionnels : compatible avec les stations totales et les appareils GNSS, LSCI facilite la transition des données de terrain vers le SIG.
- Topographie urbaine : les équipes de topographie peuvent collecter des données détaillées sur les structures urbaines et les intégrer facilement dans QGIS pour une analyse approfondie.
- Géodésie et levés cadastraux : les géomètres et topographes peuvent utiliser LSCI pour traiter les relevés topographiques et produire des cartes précises 3D.
LSCI s’intègre dans une suite d’outils spécialisés :
- TotalOpenStation : Utilisé pour la conversion des carnets de terrain en données numériques.
- Topaze : Outil de calcul topométrique pour une analyse détaillée des relevés.
Leurs utilisations conjointes permettent de créer une chaîne de traitement des données efficaces pour intégrer les données capteur GPS à la base de données.
Complémentarité des outilsBien que QField et LSCI semblent répondre à des besoins différents, ils peuvent être utilisés dans le même service pour une gestion complète des données de terrain. QField permet une mise à jour immédiate et directe des données, tandis que LSCI offre une solution structurée pour les relevés topographiques.
Contrôle qualité avec QompliGISEnfin, n’oublions pas de vérifier la donnée ! Pour cela, nous poussons QompliGIS qui est un outil pour le contrôle qualité des données SIG. Il permet de s’assurer que les plans produits sont conformes aux normes requises, garantissant ainsi la fiabilité et la précision des informations géospatiales.
ConclusionQField et LandSurveyCodesImport (LSCI) répondent à des besoins spécifiques pour la saisie terrain. Chez Oslandia, nous proposons notre expertise et nos services de développement pour intégrer ces solutions dans vos processus et répondre à vos exigences spécifiques.
Vous avez envie d’intégrer ces outils à vos SI ? Vous souhaitez co-développer de nouvelles fonctionnalités ? Contactez-nous !
-
15:48
Méfiez-vous des cartes … électorales
sur Carnet (neo)cartographiqueBillet à retrouver également sur l’humanité.fr.
Au lendemain des élections européennes de 2024 et de l’annonce de la dissolution de l’Assemblée Nationale par le président de la République française, le pays fut plongé dans une période d’instabilité politique profonde. Le Rassemblement National (RN) est en effet arrivé en tête dans plus de 32 000 communes sur 35 000. C’est le fameux chiffre de 93 % qui n’a cessé d’être martelé dans de nombreux média pour illustrer la victoire objective et éclatante du RN aux européennes, ainsi que son ancrage dans la population française. Les cartes produites furent, elles aussi, explicites : des images teintées de bleu ou de brun1 qui semblent démontrer que l’arrivée de Jordan Bardella à Matignon n’est plus qu’une question de temps.
Ces images cartographiques reflètent-elles vraiment le rapport de force qui s’instaura entre les formations politiques françaises, dans la perspective des élections législatives ?
Pour analyser cela, nous proposons d’examiner la répartition des voies obtenues par le Rassemblement National à ces élections européennes, en les projetant dans les 577 circonscriptions électorales. Nous les mettons ensuite en regard des forces de gauche rassemblées aujourd’hui dans le Nouveau Front Populaire (NFP).
Les données
Les données consultées correspondent aux résultats électoraux finalisés de la France aux élections européennes de 2024. Communiquées par le Ministère de l’Intérieur français, le détail de ces résultats est librement accessible sur le site data.gouv.fr2. Les variables que nous avons mobilisées sont celles qui portent sur le nombre d’inscrits et sur le nombre de votants par circonscription électorale, à l’échelle géographique des circonscriptions.Souhaitant par ailleurs cartographier les votes obtenus par le RN en les mettant en regard avec cette nouvelle construction politique qu’est le Nouveau Front Populaire (NFP), qui n’existait certes pas au moment des élections européennes, nous avons construit une nouvelle variable (NFP) à l’échelle des circonscriptions. Cette variable NFP correspond logiquement à la somme du nombre d’inscrits et du nombre de voix obtenus par les partis Europe Écologie les verts (EELV), Parti communiste français (PCF), Parti socialiste (PS) et La France insoumise (LFI).
À noter que le même regroupement n’a pas été fait entre les partis de l’extrême droite française, car ces derniers n’ont pas fait l’objet, à notre connaissance, d’une alliance générale et au niveau national comparable à celle mise en place par la gauche, pour former le NFP. Compte tenu de ces choix, l’analyse cartographique proposée focalise l’attention sur le vote RN appréhendée comme l’une des deux grosses forces politiques actuellement en présence, la seconde étant le NFP ; les autres partis, formations et groupements politiques français étant regroupées dans une catégorie « Autres ».
Sur la première carte, nous colorons en bleu marine les circonscriptions dans lesquelles le RN est arrivé en tête. Cette image décrit factuellement la large victoire du RN, effectivement arrivé en première position dans 457 circonscriptions (soit 79 % de l’ensemble), contre 120 circonscriptions (soit 21%) pour l’ensemble des autres forces politiques. Si l’on considère la surface des territoires ainsi représentés, le RN est arrivé en tête dans 85 % du territoire national. Un véritable raz de marée…
Cette carte n’est pas sans rappeler une autre carte célèbre brandie par Donald Trump le 1er octobre 2019 sur le réseau social Twitter. Alors en plein procédure d’impeachment suite à l’affaire ukrainienne, Trump brandit cet argument cartographique pour revendiquer une légitimité populaire, celle de l’Amérique profonde et des arrière-pays. Mais il y a un hic.
Si la carte était recouverte de rouge, la couleur du parti Républicain de Donald Trump, les grandes villes, elles, ne votèrent pas pour lui. Trump fut en réalité élu avec 3 millions de voix de moins qu’Hillary Clinton et cela, malgré une carte totalement bardée de rouge. Cette carte représenta donc l’illusion d’une victoire. Qu’en est-t-il de celle présentée ci-dessus ?
Depuis les élections européennes, la situation politique en France a changé. Les forces de gauche se sont unies dans le Nouveau Front Populaire (NFP), seul moyen de contester la suprématie du RN dans nombre de circonscriptions électorales.
C’est pourquoi nous proposons une seconde carte considérant cette nouvelle force politique inédite, élaborée au lendemain des élections européennes. Comme sur la carte précédente, les circonscriptions où le RN est arrivé en tête sont teintées de bleu marine ; les circonscriptions gagnées par le NFP sont maintenant représentées en rouge, tandis que celles des autres forces politiques françaises sont toujours représentées en gris.
Il est intéressant de pouvoir visualiser la manière dont les résultats cartographiques se contrastent lorsque la gauche est unie au sein du NFP. Si la victoire du RN demeure indéniable, celui-ci arrive en tête dans (seulement) 313 circonscriptions (55 % de l’ensemble), comme indiqué sur le diagramme. Le NFP remporte, quant à lui, et à lui seul, 259 circonscriptions (45 % de l’ensemble) ; les autres formations politiques sont arrivées en tête dans seulement 8 circonscriptions. L’union fait la force. Deux blocs se font face.
Mais, parce qu’il y a un mais, cette représentation cartographique n’est pas non plus sans poser quelques problèmes de perception. En effet, le découpage des circonscriptions électorales est réalisé de telle sorte que chacune d’elles rassemble un nombre comparable de votants. Ainsi, en zone urbaine dense, les circonscriptions présentent de très petites tailles à l’inverse des zones rurales où elles peuvent s’étendre sur des kilomètres. Leurs formes géographiques et leurs surfaces sont donc nécessairement hétérogènes. En utilisant ce découpage électoral comme support de la représentation cartographique, la carte survalorise donc, par construction, la perception des résultats obtenus dans les territoires peu denses qui sont caractérisés par leur grande taille, créant un effet d’absorption visuelle. Autrement dit, on ne voit qu’elles.
Pour y remédier, nous proposons d’assimiler chaque circonscription à un cercle dont la surface est proportionnelle au nombre d’inscrits. Pour des questions de lisibilité, les cercles sont écartés les uns des autres afin d’éviter leurs superpositions puis sont teintés, comme précédemment, en fonction du bloc politique arrivé en tête. Le résultat obtenu s’éloigne nettement de la carte de départ, puisqu’on obtient ici une carte beaucoup plus réaliste où la perception des couleurs de chacune des circonscriptions exprime fidèlement le rapport des forces RN et NFP.
Si le RN reste malgré tout en tête dans 55 % des circonscriptions et semble bien placé pour remporter les élections législatives qui se profilent, c’est sans compter sur le fait que les résultats électoraux sont le reflet de dynamiques politiques et sociales et non un simple bilan comptable.
Aussi proposons-nous une variante de la carte précédente où nous représentons en jaune les circonscriptions dans lesquelles l’écart de voix entre le NFP et son principal adversaire est de moins de 5 %. En d’autres termes, les circonscriptions électorales où rien n’est joué.
Dans cette configuration, 18 % des circonscriptions semblent très indécises et le RN ne semble plus en position de force que dans 45 % des cas – ce qui est déjà beaucoup trop. Rien n’est cependant joué. S’il ne nous est pas possible de prévoir à ce stade la manière dont vont se dérouler les élections législatives, dans ce contexte politique inédit, nous pouvons cependant affirmer que le combat n’est pas perdu, comme le laissait envisager la carte initiale qui était, disons-le, désespérante. La participation au scrutin tout comme le jeu complexe des reports de voix au second tour seront en effet déterminants.
Alors méfiez-vous des représentations cartographiques qui vous plongent dans l’apathie et rappelez-vous que les cartes ne sont jamais neutres. Mobilisons-nous, toutes et tous ensemble les 30 juin et 7 juillet prochain, pour faire gagner le Nouveau Front Populaire.
Données et code source : [https:]]
Ils en parlent …
Géoconfluence (5 juillet 2024) Quelles cartes pour comprendre les élections de 2024 en France ?
Maps Mania (8 juillet 2024) France Defeats the Far-Right
-
20:43
Connaître l'état des eaux souterraines de l'Union européenne (projet Under the Surface)
sur Cartographies numériquesUn groupe de journalistes de toute l'Europe a travaillé pour collecter, analyser et présenter des informations sur l'état de la ressource en eau. Le projet Under the Surface est basé sur les données que chaque État membre doit communiquer à l'Union européenne sur l'état qualitatif et quantitatif de ses eaux souterraines. Le projet a été initié par Arena for Journalism in Europe et Datadista. Inspiré par les précédentes enquêtes de Datadista sur les eaux souterraines en Espagne, Arena a invité un groupe de journalistes européens à sa conférence Climate Arena en novembre 2023, pour partager des idées et discuter de la faisabilité du projet. Après avoir choisi les partenaires et les méthodes, cette nouvelle équipe de 14 journalistes a démarré ses travaux en janvier 2024.
Le projet "Under the Surface" trouve, en l'absence de données de tous les pays, que l'Europe manque d'eau : plus de 15% des aquifères sont en mauvais état. L'UE exige en principe que tous les États membres, ainsi que l'Islande et la Norvège, fournissent des données sur l'état de leurs aquifères. Sur ces 29 pays, 16 ont soumis des données complètes et accessibles au public, celles de l'Allemagne et du Portugal n'étant que partiellement accessibles. Onze pays ne figurent pas du tout sur la carte : dix n’ont fourni aucune information à l’UE et un, l’Autriche, a choisi de cacher des parties clés de ses données qui empêchent leur cartographie. Les experts scientifiques, informés des résultats du projet Under the Surface, ont averti que sans données complètes, ils ne pouvaient pas connaître l'étendue réelle des dégâts causés aux eaux souterraines du continent.
Carte interactive montrant l'état des nappes phréatiques pour 17 pays européens (Source : Under the Surface)
La carte interactive montre la qualité et la quantité des eaux souterraines dans 18 pays (pour 17 membres de l’UE + la Norvège). Il couvre les nitrates et une gamme limitée de pesticides et de métaux. Les substances problématiques telles que les PFAS – connues sous le nom de « produits chimiques éternels » – et les produits pharmaceutiques ne sont pas inclus car l'UE n'exige pas de tests.
La carte révèle que 15 % des masses d’eau incluses dans la carte sont en « mauvais état », ce qui représente 26 % des aquifères par zone de couverture. Un épuisement ou une pollution importante des aquifères est susceptible d’avoir un impact très large, car celles-ci desservent souvent une région plus vaste et une population plus importante. En République tchèque et en Belgique, le nombre d’aquifères qualifiés de « pauvres » dépasse celui des aquifères sains. Ils sont suivis de près par l'Espagne, la France et l'Italie. La Bretagne fait partie des régions particulièrement touchées par la pollution de ses nappes phréatiques.
Les données sont disponibles à travers un formulaire à remplir.
Pour compléter
« Explorez la carte inédite de la pollution des eaux souterraines en France ». Le Monde a agrégé les mesures correspondant à 300 contaminants (pesticides, métaux, médicaments...) dans 24 700 stations de surveillance. La carte des contaminations des eaux souterraines en France a été conçue par Le Monde, dans le cadre du projet « Under the surface », mené avec six médias partenaires, initié par le média espagnol Datadista et coordonné par Arena for Journalism in Europe.
La carte des contaminations des eaux souterraines (source : Le Monde-Les Décodeurs)
Articles connexes
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
Nappes d'eau souterraine : bilan de l’évolution des niveaux en 2022-2023 (BRGM)
Un atlas mondial pour estimer les volumes d’eau des glaciers
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Conflits liés à l'eau : les prévisions du site Water, Peace and Security
L'évaporation des lacs dans le monde : une tendance à la hausse
Cartes et données SIG sur les petits et moyens réservoirs d'eau artificiels dans le monde
Cartes et données sur la canicule et les incendies de forêt en France et en Europe
La France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
-
10:00
Récolt'Ô, la valorisation de l'eau de pluie 2/2
sur Makina CorpusNé d’une initiative locale en Occitanie, le projet Récolt’Ô pour la valorisation de l’eau de pluie répond aux défis d’adaptation au changement climatique à l’échelle nationale.
-
7:07
[Témoignage client] Sylvain Petiteau, géologue expert en contrôle géologique chez Orano
sur OslandiaSylvain Petiteau est géologue de formation et géologue expert en contrôle géologique chez Orano. Après des missions au Kazakhstan, en Mongolie et au Niger, il travaille aujourd’hui sur l’estimation des ressources géologiques et le contrôle qualité des mineurs. Dans ce contexte Sylvain Petiteau collabore avec Oslandia sur le projet CanOP permettant d’identifier la teneur en uranium des minerais sur un site d’extraction au Niger.
Retour sur la collaboration :Il y a quelques années, nous avons initié un projet d’innovation CanOP qui s’est converti en projet d’industrialisation. Il s’agissait de remplacer une technologie ancienne sur un site minier de plus de 50 ans d’existence par un nouveau concept technologique. L’objectif était de nous aider à améliorer la sélectivité minière (notre capacité à séparer les roches minéralisées chargées en Uranium des roches stériles) notamment en ajoutant la géolocalisation aux mesures.
Le dispositif technique consiste en une perche métallique équipée de trois composants : deux cristaux qui effectuent des mesures de la radioactivité et un GPS différentiel avec une précision de l’ordre du millimètre.
Cette canne est connectée à une tablette en bluetooth qui envoie des informations géolocalisées de la mesure de la radioactivité. Les informations reçues par la tablette sont traitées par l’application CtrlCraft développée par Oslandia. Plusieurs cannes peuvent opérer en parallèle à différents endroits. Les données acquises sont ensuite regroupées et enregistrées dans une base de données centrale afin de suivre la production. Le croisement de ces données avec nos prévisions de production nous permet également d’améliorer nos modèles 3D de la teneur.
CanOP participe à la diminution de la co-activité. Une fois les mesures réalisées par les aides prospecteurs, ils peuvent se mettre en retrait de l’activité d’extraction pour guider à distance le travail de la pelle en suivant l’exploitation sur l’application CtrlCraft. On gagne énormément en sécurité.
Oslandia est disponible, à l’écoute et s’est bien adapté à nos demandes en conciliant les possibilités de développement, notamment de l’outil QGIS, aux besoins qu’on leur décrit. Le projet s’est monté en mode agile, la solution évoluant avec nos besoins. Nous avons de bonnes interactions avec Jacky notre interlocuteur principal sur le développement.
-
14:00
LiDAR HD brut - Distinguer sol et sursol avec pdal
sur GeotribuLes données LiDAR HD brut ont été traitées avec PDAL pour coloriser le nuage de points et distinguer le sol et le sursol.
-
11:35
Corpo d’été !
sur OslandiaOslandia se veut une structure atypique, avec des valeurs affirmées basées sur l’autonomie, la confiance et l’ouverture.
Nous avons misé depuis la création d’Oslandia sur un fonctionnement en 100% télétravail avec des collaborateurs répartis dans la France entière. Pour une organisation libre des missions et de la journée de travail !
On a d’ailleurs évoqué le sujet du télétravail récemment dans un billet.Mais nous avons aussi grand plaisir à nous retrouver, c’était le cas en juin pour notre Corpo d’été :
Les Corpos sont l’occasion de partager des moments privilégiés et d’échanger sur des sujets de fonds. Pendant ces journées où nous avons de nouveau été magnifiquement accueillis à la Tour d’Oncin, nous avons plus spécialement travaillé sur notre offre de formation, fait des ateliers DuckDB, Dagster, PostGIS 3D, discuté de notre utilisation de l’IA ou des participations aux conférences …
Sans oublier les moments de partage autour d’une dégustation de vin AOC Bugey, une activité Escape Game ou encore le sauna du lieu !
-
18:24
Latitudes et longitudes géographiques dans l’Encyclopédie de Diderot et d'Alembert
sur Cartographies numériquesLe dossier de Colette Le Lay sur le site ENCCRE se propose d'étudier les latitudes et longitudes fournies par les articles de géographie de l’Encyclopédie de Diderot et d'Alembert. Il s'agit d'en déterminer les contributeurs et les sources à partir d'un important corpus. Librement accessible, l’Édition Numérique, Collaborative et CRitique de l’Encyclopédie (ENCCRE) met à disposition les connaissances des chercheurs d’hier et d’aujourd’hui sur l’Encyclopédie, en s’appuyant sur un exemplaire original et complet de l’ouvrage conservé à la Bibliothèque Mazarine, intégralement numérisé pour l’occasion (soit 17 volumes de textes et 11 volumes de planches). Le dossier s'ouvre par une très belle projection de Jacques Cassini (1696) figurant la Terre vue du pôle Nord avec l'ensemble des méridiens disposés tout autour.
Planisphère Terrestre où sont marquées les Longitudes de divers Lieux de la Terre par Mr. de Cassini (1696)
Source : Gallica
Heinrich Scherer, Geographia Artificialis Sive Globi Terraquei Geographice Repraesentandi Artificium, 1703(source : Bibliothèque numérique de Munich)
Le choix de cette projection azimuthale polaire de Jacques Cassini est l'occasion d'aller découvrir la très belle représentation du périple de Magellan autour du monde par le cartographe Scherer (1702). Heinrich Scherer (1628-1704), à la fois mathématicien et cartographe, a développé une œuvre colossale qui a influencé la cartographie européenne du XVIIIe siècle. Plusieurs de ses atlas sont à découvrir sur le site de la Bibliothèque numérique de Munich. Au XVIIe siècle, les parallèles et les méridiens apparaissent comme les lignes remarquables pour se repérer à la surface du globe. Mais les coordonnées géographiques restent encore assez imprécises. Déterminer la longitude va devenir un grand enjeu au XVIIIe siècle.La longitude et la latitude tendent à s’imposer de plus en plus fréquemment dans les dictionnaires et encyclopédies à partir de la seconde moitié du XVIIIe siècle comme en atteste l'étude conduite par Denis Vigier, Ludovic Moncla, Isabelle Lefort, Thierry Joliveau et Katherine McDonough : « Les articles de géographie dans le Dictionnaire Universel de Trévoux et l’Encyclopédie de Diderot et d’Alembert » (Revue Langue française, 2022/2, n° 214). Selon les auteurs, c'est avec F. L. Vosgien (1747 et éditions suivantes) que l’on trouve la mention quasi-systématique de longitude et de latitude, modèle que réutilise D. Diderot dans l’Encyclopédie.
Dictionnaire géographique portatif ou Description de tous les royaumes, provinces, villes, patriarchats, éveschés, duchés, comtés, marquisats des quatre parties du monde par M. Vosgien (1757). Source : Gallica
Pour Paris par exemple, l'Encyclopédie de Diderot et d'Alembert indique une latitude de 48° 51' 20''. On y voit la mention de deux longitudes différentes, l'une notée Long. orient. 20° 21' 30", l'autre dite Long. de Paris à l'observatoire de Paris suivant Cassini 19° 51' 30'' : preuve qu'il y avait plusieurs manières d'indiquer la longitude à l'époque. Dans les deux cas, on observe que le point d'origine reste l'île de Fer qui servait encore de référence au cours du XVIIIe siècle.Comme l'explique le dossier de Colette Le Lay sur le site de l'ENCCRE, déterminer la longitude constitue un enjeu considérable au XVIIIe siècle. Le méridien de Paris comme méridien d'origine va s'imposer progressivement en France à partir des Cassini, sans qu'il s'agisse d'une référence unique. Pour la longitude, l'Encyclopédie prend comme origine l'île de Fer dans l'Atlantique (estimée à l'époque à environ 20° ouest de Paris) sans pour autant mentionner explicitement un méridien origine.
Méridien de l'île de Fer dans l'Atlantique
Outre le Dictionnaire géographique portatif de Vosgien, Jaucourt qui a rédigé avec Diderot les articles de géographie de l'Encyclopédie s'est inspiré vraisemblablement du Dictionnaire de Trévoux (1752). Celui-ci comporte à la fin de l'ouvrage un tableau des coordonnées géographiques de tous les lieux et auteurs cités. La longitude y est indiquée en degrés, minutes, secondes (D. M. S.) par rapport à l'île de Fer ainsi que par rapport au méridien de Paris en heures, minutes, secondes (H.M.S.).Tableau des coordonnées géographiques des noms de lieux (source : Dictionnaire de Trévoux, 1752)
Il fallut attendre la fin du XVIIIe siècle pour stabiliser les mesures de longitude. En 1789, l'expédition de Verdun, Borda et Pingré plaça définitivement l'île de Fer à 20°2’31" de Paris. Au XIXème siècle, la carte d'état major ne se réfère plus qu'au méridien de Paris et les cartes topographiques des autres États à leur observatoire national. C'est le développement des transports et la nécessité d'adopter une heure universelle et des fuseaux horaires avec des décalages d'heures rondes pour les heures locales qui vont aboutir au choix du méridien international de Greenwich en 1884. La France résistera jusqu'en 1911 (source : « Quelle est la différence entre le méridien de Greenwich et le méridien de Paris ? », IGN)
Articles connexes
L'histoire par les cartes : il a fallu plus de 25 ans à la France pour fixer les coordonnées géographiques et relever les premières cartes des Seychelles au XVIIIe siècle
Derrière chaque carte, une histoire. La cartographie du détroit de Magellan entre science et imaginaire
La projection Equal Earth, un bon compromis ?
Projections cartographiques
Cartes et atlas historiques
-
6:24
Question du mois chez Oslandia : Quel est mon intérêt à financer de l’open source ?
sur OslandiaChez Oslandia, nous croyons fermement aux multiples avantages du financement de l’open source. Voici quelques éléments clés qui mettent en lumière les raisons pour lesquelles cela constitue une stratégie judicieuse pour toute organisation :
Orienter la roadmapEn finançant des projets open source (développement de fonctionnalités, corrections de bugs…), vous avez la possibilité d’influencer la feuille de route du développement. Vos besoins spécifiques sont mieux pris en compte, assurant ainsi que les évolutions du projet répondent à vos attentes.
Maintenance optimiséeL’un des grands avantages de l’open source est que la maintenance et les améliorations futures sont prises en charge par l’ensemble des contributeurs de façon mutualisée. Cela réduit la charge de travail globale, et particulièrement la charge de maintenance interne du code produit par votre financement, et assure ainsi une évolution continue du logiciel en respectant le niveau de qualité attendu.
Visibilité et communicationEn contribuant financièrement à l’open source, vous bénéficiez d’une visibilité accrue. Les contributions sont relayées au sein des communautés, offrant ainsi une publicité positive et renforçant votre image de marque, tant auprès de la communauté qu’auprès des autres organisations utilisatrices. Cette communication produit également un effet « boule de neige » où d’autres organisations suivront votre exemple, et vous bénéficierez de leurs financements dans le futur.
Reconnaissance communautaireLa reconnaissance par la communauté open source est un atout majeur. Être perçu comme un acteur clé et un soutien de l’open source peut renforcer votre crédibilité et votre influence, solidifiant l’écosystème de votre socle technologique. Cette reconnaissance facilite par la suite les échanges avec la communauté et les réponses que celle-ci pourra apporter à vos problématiques.
Avantages RHEnfin, investir dans l’open source est un levier important pour attirer et retenir les talents. Les développeurs sont attirés par des entreprises engagées dans l’open source, perçues comme innovantes, tournées vers l’avenir et porteuses de sens dans le travail.
En conclusion, financer l’open source n’est pas seulement une question de philanthropie technologique, c’est aussi une stratégie d’entreprise solide qui apporte de nombreux bénéfices tangibles. Chez Oslandia, nous sommes fiers de promouvoir et de soutenir l’open source, car nous croyons en son potentiel à transformer positivement les pratiques et les technologies. C’est aussi le cas de nos clients et partenaires, et ensemble nous faisons progresser les technologies du libre, le bien commun, le tout avec une raison d’être au travail que nous fournissons.
-
13:17
Le programme CHOROS de Tobler (1973)
sur Carnet (neo)cartographiquePréambule : L’un des objectifs du programme Tribute to Tobler (TTT) consiste à permettre de remobiliser des méthodes d’analyse spatiale et de cartographie proposées par Waldo Tobler, en s’appuyant sur ses textes, ses notes, ses programmes informatiques et ses images.
Les différentes propositions théoriques, méthodologiques, algorithmiques et j’en passe que Tobler a légué à la communauté ont souvent été illustrés par des données analysées et illustrées à l’aide d’outils et de programmes confectionnés par l’auteur lui-même.
Tobler a par ailleurs mis à notre disposition dans une extraordinaire démarche d’ouverture de ses programmes, ses données et ses images, qu’il est dès lors possible de remobiliser aujourd’hui.
Atteindre cet objectif de reproductibilité d’analyses spatiales anciennes parfois enterrées, souvent complexes dans leur exposé et dans leur mise en œuvre suppose, d’une part, une relecture des textes (articles, notes de recherches …) concernés et d’autre part, une reprise en main (une refactorisation) ou plutôt le re développement des programmes et outils mobilisés dans le ou les textes en question, dans les langages contemporains les plus usuels. Sans cela, il ne sera pas possible de diffuser son travail ni de progresser dans le développement de méthodes de l’analyse géographique pourtant très utiles à d’autres pans de la connaissance qui utilisent des données localisées.
Tobler m’avait dit qu’en appui de propositions théoriques ou méthodologiques que l’on pouvait faire (c’était à l’époque dans le cadre de ma thèse), il était nécessaire d’une part, de les formaliser mathématiquement et d’autre part, de proposer des programmes permettant de les mettre en œuvre. En l’absence de compétences dans l’un ou l’autre domaine de son champs de compétences, il fallait collaborer avec ceux qui savent, ceux qui possèdent les dites compétences. Je m’égare. Revenons à nos moutons.
Pour pouvoir (re)mobiliser des méthodes et outils d’analyse qui nous apparaissent fondaentaux, il convient au préalable de comprendre de quoi il en retourne, en commençant par les déconstruire pour pouvoir mieux les reconstruire ailleurs, j’entends dans d’autres contextes.
C’est le cas du programme CHOROS de Tobler, un outil permettant de réaliser des cartes chroplèthes sans intervalles – dont il a déjà été question.
CHOROSTobler a en effet proposé en 1973 – lire la traduction française réalisée par Laurent Jégou dans le cadre de TTT – de construire des cartes choroplètes sans partitions des données numériques (selon les quantiles, standardisation, etc.). Attention : cela ne signifie pas pour autant qu’il ne fallait pas discrétiser les données avant de les représenter – puisqu’elles sont continues -, mais plutôt que la discrétisation devrait s’appuyer non pas sur des paramètres de la série (moyenne, médiane, …), mais sur une valeur unique d’intensité de teinte pour chaque valeur numérique, sur un “ombrage” unique comme l’indique Peterson (1999). C’est ce que l’on fait aujourd’hui intuitivement lorsqu’on nuance une teinte en fonction de la quantité de noir qu’on ajuste en fonction de l’intervalle de classe.
Le résultat produit des motifs spatiaux qui apparaissent plus ou moins perceptibles en fonction du nombre de valeurs, mais malgré son intérêt opérationnel, ils n’ont pas d’emblée convaincue la communauté de l’époque.
Comment ça marche ?
Dobson est arrivé à la conclusion selon laquelle le résultat d’une choroplèthe sans classe était trop chargé, et donc peu lisible. Peterson et Müller ont quant à eux testé cette méthode en 1979, après son introduction par Tobler, avant d’en développer des versions adaptées pour d’autres environnement.Le programme CHOROS mobilise un opérateur linéaire de voisinage pour créer des cartes choroplèthes (Application of linear Neighborhood Operator to Choropleth Maps), en utilisant la méthode de réagrégation définie par Tobler. Le lissage des contours dépend des masses utilisées dans un autre outil : le programme HAVE (je n’en sais pas plus à ce stade).
Le programme a été développé en Fortran par Tobler lui-même, alors qu’il était à l’Université du Michigan (Ann Arbor). Il a ensuite été redéveloppé à partir de l’automne 1985 par Michael P. Peterson, bien connu pour ses travaux sur la cartographie animée, pour l’adapter à l’environnement Macintosh.
MacCHOROLa première version du MacChoro de Peterson est publiée en 1986 et apparaît être le tout premier programme de cartographie thématique pour Mac.
L’outil permettait de réaliser des cartes choroplèthes fondées sur les discrétisations usuelles ainsi que des non classées (numériquement) en seize classes ou nuances de teintes (de niveaux de gris, faut-il le préciser ?), là ou les autres méthodes de discrétisation plus classiques – également proposées dans l’outil – autorisaient une partition de deux à seize classes (à des fins de comparaison).
A partir de 1989, MacChoro II v1, proposée sur un “Big Mac” (512 K avec deux lecteurs de disquettes et aucun disque dur), fut doté d’une partie animée, suivant la proposition de Tobler. Rappelons que l’animation était à l’époque l’un des trois paradigmes de la cartographie définis par l’auteur, aux côtés des approches discrètes et continues. A noter que cette v.1 fut fournie avec des données et le fond de carte des États-Unis d’Amérique pour une cartographie à réaliser en noir et blanc.
L’outil innove en plusieurs aspects. L’environnement propose huit menus (voir figure 1), quatre sous menus : Map file, Convert, poly Extract et Classify (écart-type, intervalles égaux, quantiles et seuils naturels) et quatre fenêtres utiles : une fenêtre graphique principale et une autre proposant une vue globale et réduite ; une troisième fenêtre pour visualiser les données et une quatrième fenêtre de sortie des statistiques sous la forme de texte
Figure 1. Interface utilisateur de MacChoro II.
Source : MacChoro II overview.
MacChoro II v.2 créa une nouvelle surprise en ajoutant des icônes à son interface, pour :
– symboliser les méthodes de discrétisation proposées qui passent au nombre de cinq, auxquelles s’ajoutent la “discrétisation non classée” ;
– choisir un nombre de classe entre 2 et 16 ;
– dessiner la carteFigure 2. Interface de discrétisation de MacChoro II v2.
D’après Peterson (1999), l’interface de Mac Choro II se distingua en outre à l’époque pour les aspects liés à l’interactivité de la cartographie ou de l’utilisateur avec la carte : la présence de “légendes actives permettait” à l’utilisateur de “contrôler la méthode de classification” utilisée pour discrétiser non seulement une mais plusieurs variables.
Figure 3. Interfaces de,discrétisation et de sélection des variables d’intérêt
Source : Michael Peterson (1999)
La carte réalisé est ensuite transférable via le Presse papier (Clipboard) à d’autres programmes pour Macinstosh de l’époque (MacDraw II, Super Paint II, MacWrite II, Word and PageMager) pour voir sa conception finalisée avant d’être diffusée.
Si vous êtes intéressé.e d’en savoir plus sur MacChoro, une review fut proposée par Gene Turner dans Cartographica en 1991.
Enfin, last but not least, Laurent Jégou a porté en 2022, dans un carnet Observable intitulé Quantiles vs continuous choropleths maps, la méthode des choroplèthes sans classe de Tobler (1993), en la comparant au passage avec la méthode des quantiles – c’est d’ailleurs la seule application de ces cartographies choroplèthes non classées que je connaisse à ce jour. A suivre ?
Ce billet est dédié à mon collègue Robin Cura, pour les discussions parfois un peu vives que nous avons pu avoir sur le sujet. Mais nul n’est parfait hein :-).
Références :
Tobler, W. (1973) “Choropleth Maps Without Class Intervals?.” Geographical Analysis 3: 262-265.
Tobler W, Jégou L (1973), Choropleth Maps Without Intervals?. 2022.
Turner Gene (1991), Two mapping software packages for for Macintosh Computers, Cartographica, n° 10. pp. 17-21.
MacChoro Il with Map Animation. Image Mapping Systems, Overview.
Peterson P. (1999), Active legends for interactive cartographic animation, International Journal of Geographical Science, DOI: 10.1080/136588199241256 ·
Billets liés :
Laurent Jégou (2022), Des cartes choroplèthes sans classes ?
Voir aussi :
Laurent Jégou, Quantiles vs continuous choropleths maps, Notebook Observable.
Philippe Rivière (2021), Pycno what ? Interpolation pycnophylactique.
La collection TTT des travaux en français de et après Tobler : hal.archives-ouvertes.fr/TTT/
L’espace de travail collaboratif sur les travaux de Tobler : ./tributetotoblerGéographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
6:59
[Equipe Oslandia] Gwendoline, développeur QGIS web
sur OslandiaIngénieur à l’INSA de Lyon en bio-informatique, Gwendoline ne souhaite pas aller vers une thèse et s’oriente dans le domaine du séquençage ADN. Une spécialité qui l’amène vers sa première expérience professionnelle au CNRS dans une station marine à Roscoff en Bretagne.
Elle travaille au service informatique, en appui aux chercheurs et participe au développement d’un logiciel d’interfaçage « clic – bouton » avec les outils lignes de commande, pour proposer un outil aux chercheurs leur permettant de répéter les workflows rapidement sur un autre jeu de données et les rendre accessibles dans le cadre des publications scientifiques.
« Je devais comprendre les biologistes pour transmettre les besoins aux informaticiens, mes compétences en bio-informatique et en informatique m’ont bien aidées ! «
Après 3 ans et demi au CNRS, direction la région PACA et la Société du Canal de Provence au service informatique !
Pendant 5 ans, Gwendoline travaille sur de nombreux projets : évolution d’un plugin QGIS en Python pour générer des cahiers parcellaires, mise en place d’IDG, de requêtes PostGIS, d’applications de relevés sur le terrain et de plein d’autres plugins !
« En cherchant des informations sur un logiciel, je suis tombée sur un article d’Oslandia, je me suis plus renseignée et vu que des postes étaient ouverts ! «
Gwendoline est développeur QGIS web chez Oslandia depuis 2021. Elle a pour mission le développement de projets autour de QWC comme pour WKN, mais aussi dans le cœur QWC, dans le cadre de missions open source, ainsi que la formation QGIS / PostGIS et QWC.
Projet emblématiqueLa traduction de l’interface d’administration de QWC ! C’est quelquechose que je ne fais jamais ! C’était un travail de fourmi qui apporte une grande satisfaction quand c’est finalisé !
Technologie de prédilection
A retrouver sur : [https:]]
et la documentation pour l’activer : [https:]]Python !
Sa philosophieD’un bout à l’autre ! J’aime maîtriser toute la chaîne : du besoin client jusqu’à la documentation !
Oslandia en 1 motBienveillance entre collègues et aussi au niveau des clients, on fait toujours au plus juste, avec une volonté de les former, pour les rendre autonomes.
-
8:00
Découvrez GeoRivière pour le grand public
sur Makina CorpusL’outil de participation citoyenne pour sensibiliser aux enjeux de gestion des milieux aquatiques?!
-
8:00
Récolt'Ô, notre nouveau service pour la valorisation de l'eau de pluie - 1/2
sur Makina CorpusRécolt’Ô un outil dédié à la mise en place d’une politique d’aide pour encourager vos administrés à installer des dispositifs hydro-économes et sensibiliser le public aux enjeux environnementaux.
-
7:05
Bruxelles Environnement / Accompagnement technique pour la mise en œuvre des politiques régionales liées à l’environnement
sur OslandiaBruxelles Environnement est un organisme public de la région de Bruxelles-Capitale chargé de concevoir et de mettre en œuvre les politiques régionales dans toutes les matières liées à l’environnement.
À ce titre, Bruxelles Environnement publie un certain nombre de données en opendata, notamment en exposant des flux OGC sur sa plateforme.
Oslandia l’accompagne sur :- l’administration et le maintien en condition opérationnelle des bases de données PostGIS. Cela implique notamment les migrations de versions majeures de PostgreSQL et PostGIS
- la configuration, le déploiement, l’administration et le MCO des serveurs de cartographie : MapServer, QGIS Server, via Docker, GitLab CI/CD et Ansible.
Oslandia accompagne également Bruxelles Environnement en proposant des sessions de formations sur PostgreSQL / PostGIS depuis plus de 10 ans. Avoir les compétences en interne a toujours été un choix de l’organisme pour garder de l’expertise au sein de l’équipe SIG.
Les sessions de formations ont lieu annuellement et se divisent en 2 parties.
La première pour des débutants ayant peu ou jamais touché aux notions de bases de données spatiales. L’enjeu est important ici, comme pour toutes formations débutants, en plus de donner les bases de compréhension, il faut arriver à motiver les utilisateurs et leur démontrer l’intérêt de la chose.
La seconde, pour des utilisateurs déjà expérimentés, permet d’approfondir leurs connaissances et elle est souvent données à la carte: les participants choisissent le programme et viennent souvent avec des questions très précises.Avoir la compétence en interne permet le lien avec notre assistance en parallèle. La bonne communication est primordiale, et parler le même langage est forcément un atout. L’assistance permet aussi à Bruxelles Environnement d’être aidé pour la mise en place en production de points abordés en formation et d’approfondir des utilisations avancées.
-
10:17
Mon premier réseau de neurones
sur Neogeo TechnologiesPour mieux comprendre l’article sur les réseaux de neurones, cette semaine nous vous proposons de coder un petit réseau de neurones de façon à mieux comprendre ce que sont les poids, le feed forward et les autres notions introduites dans l’article précédent.
Nous allons réaliser un réseau de neurones à 1 neurone et essayer de lui faire prédire des données placées sur une droite. Cet exercice est trivial, on peut le résoudre sans utiliser d’IA mais restons un peu humble pour commencer.
Préparation du projetUtilisons Jupyter qui reste l’outil de prédilection pour tester et développer une IA.
# On crée un environnement virtuelle python, et on l'active python3 -m venv test_ia cd test_ia . bin/activate # On installe jupyter et on le lance pip install jupyter jupyter notebook
Cette dernière commande ouvrira Jupyter dans votre navigateur.
Vous pourrez aller dans “File” -> “New” -> “Notebook” pour créer un nouveau fichier et copier/tester notre programme.
De quoi avons-nous besoin ?
Numpy, c’est une bibliothèque Python optimisée pour la gestion de listes.
NB : il y a un point d’exclamation en début de ligne, ce qui signifie que la commande sera lancée dans le shell. Ici elle permettra d’installer les dépendances dans notre environnement virtuel.
!pip install numpy import numpy as np Requirement already satisfied: numpy in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (1.26.4)
Pandas, la bibliothèque Python star de la data-science, basée elle-même sur Numpy.
!pip install pandas import pandas as pd Requirement already satisfied: pandas in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (2.2.2) Requirement already satisfied: numpy>=1.23.2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (1.26.4) Requirement already satisfied: python-dateutil>=2.8.2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2.9.0.post0) Requirement already satisfied: pytz>=2020.1 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2024.1) Requirement already satisfied: tzdata>=2022.7 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2024.1) Requirement already satisfied: six>=1.5 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from python-dateutil>=2.8.2->pandas) (1.16.0)
Pytorch, une des principales bibliothèques Python pour faire des réseaux de neurones. Ici on n’installe que la version CPU, la version de base fonctionne avec CUDA, la bibliothèque de calcul scientifique de Nvidia, mais celle-ci prend beaucoup de place sur le disque dur, restons frugaux.
!pip3 install torch --index-url [https:] import torch import torch.nn.functional as F Looking in indexes: [https:] Collecting torch Downloading [https:] (190.4 MB) [2K [38;2;114;156;31m??????????????????????????????????????[0m [32m190.4/190.4 MB[0m [31m26.4 MB/s[0m eta [36m0:00:00[0mm eta [36m0:00:01[0m[36m0:00:01[0m [?25hCollecting filelock Downloading [https:] (11 kB) Requirement already satisfied: typing-extensions>=4.8.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from torch) (4.12.2) Collecting sympy Downloading [https:] (5.7 MB) [2K [38;2;114;156;31m????????????????????????????????????????[0m [32m5.7/5.7 MB[0m [31m57.2 MB/s[0m eta [36m0:00:00[0m MB/s[0m eta [36m0:00:01[0m [?25hCollecting networkx Downloading [https:] (1.6 MB) [2K [38;2;114;156;31m????????????????????????????????????????[0m [32m1.6/1.6 MB[0m [31m58.6 MB/s[0m eta [36m0:00:00[0m [?25hRequirement already satisfied: jinja2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from torch) (3.1.4) Collecting fsspec Downloading [https:] (170 kB) [2K [38;2;114;156;31m??????????????????????????????????????[0m [32m170.9/170.9 kB[0m [31m18.5 MB/s[0m eta [36m0:00:00[0m [?25hRequirement already satisfied: MarkupSafe>=2.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from jinja2->torch) (2.1.5) Collecting mpmath>=0.19 Downloading [https:] (536 kB) [2K [38;2;114;156;31m??????????????????????????????????????[0m [32m536.2/536.2 kB[0m [31m42.9 MB/s[0m eta [36m0:00:00[0m [?25hInstalling collected packages: mpmath, sympy, networkx, fsspec, filelock, torch Successfully installed filelock-3.13.1 fsspec-2024.2.0 mpmath-1.3.0 networkx-3.2.1 sympy-1.12 torch-2.3.1+cpu
Matplotlib, pour faire de jolis graphiques.
Création d’un jeu de données simple!pip install matplotlib from matplotlib import pyplot as plt %matplotlib inline Collecting matplotlib Downloading matplotlib-3.9.0-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (8.3 MB) [2K [38;2;114;156;31m????????????????????????????????????????[0m [32m8.3/8.3 MB[0m [31m44.0 MB/s[0m eta [36m0:00:00[0mm eta [36m0:00:01[0m0:01[0m:01[0m [?25hCollecting contourpy>=1.0.1 Using cached contourpy-1.2.1-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (306 kB) Collecting cycler>=0.10 Using cached cycler-0.12.1-py3-none-any.whl (8.3 kB) Collecting fonttools>=4.22.0 Downloading fonttools-4.53.0-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (4.9 MB) [2K [38;2;114;156;31m????????????????????????????????????????[0m [32m4.9/4.9 MB[0m [31m57.3 MB/s[0m eta [36m0:00:00[0m31m72.7 MB/s[0m eta [36m0:00:01[0m [?25hCollecting kiwisolver>=1.3.1 Using cached kiwisolver-1.4.5-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (1.4 MB) Requirement already satisfied: numpy>=1.23 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (1.26.4) Requirement already satisfied: packaging>=20.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (24.1) Collecting pillow>=8 Using cached pillow-10.3.0-cp311-cp311-manylinux_2_28_x86_64.whl (4.5 MB) Collecting pyparsing>=2.3.1 Using cached pyparsing-3.1.2-py3-none-any.whl (103 kB) Requirement already satisfied: python-dateutil>=2.7 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (2.9.0.post0) Requirement already satisfied: six>=1.5 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from python-dateutil>=2.7->matplotlib) (1.16.0) Installing collected packages: pyparsing, pillow, kiwisolver, fonttools, cycler, contourpy, matplotlib Successfully installed contourpy-1.2.1 cycler-0.12.1 fonttools-4.53.0 kiwisolver-1.4.5 matplotlib-3.9.0 pillow-10.3.0 pyparsing-3.1.2 from random import randint, seed
Pour le principe de la démonstration, on va créer un jeu de données parfaitement linéaire f(x) = 2*x
On pourra contrôler facilement que les prévisions du réseau sont bien sur cette droite.
data = pd.DataFrame(columns=["x", "y"], data=[(x, x*2) for x in range(10)], ) data["x"] = data["x"].astype(float) data["y"] = data["y"].astype(float) data.plot.scatter(x="x", y="y") <Axes: xlabel='x', ylabel='y'>
Démarragedata
Préparons quelques variables pour le projet. Nous initions aussi le modèle M, si vous voulez tester des évolutions dans le code, relancez cette cellule pour réinitialiser le modèle.
Algorithme général# On fait en sorte que pytorch tire toujours la même suite de nombres aléatoires # Comme ça vous devriez avoir les mêmes résultats que moi. torch.manual_seed(1337) seed(1337) # Je crée mon réseau d’un neurone avec une valeur aléatoire M = torch.randn((1,1)) # On active le calcul du gradient dans le réseau M.requires_grad = True print(M) # On garde une liste de pertes pour plus tard losses = list() tensor([[-2.0260]], requires_grad=True)
Pour que notre réseau apprenne des données, il nous faut une phase de feed forward et une back propagation.
En quoi ça consiste ?
Prenons un exemple dans notre jeu de données, la ligne x=9 et y=18.
# on prend un échantillon ix = randint(0, len(data)-1) # Indice de X x = data.iloc[ix]["x"] y = data.iloc[ix]["y"] print(f"{x=},{y=}") x=9.0,y=18.0
La phase de feed forward consiste à demander au modèle ce qu’il prévoit comme donnée pour x=9. On utilise l’opérateur “@” qui multiplie des tenseurs.
X = torch.tensor([x]) y_prevision = M @ X --------------------------------------------------------------------------- RuntimeError Traceback (most recent call last) Cell In[10], line 2 1 X = torch.tensor([x]) ----> 2 y_prevision = M @ X RuntimeError: expected scalar type Float but found Double
Ah oui, Numpy convertit notre Float (32bits) en Double (64 bits) en interne. Transformons notre tenseur en Float dans ce cas.
X = torch.tensor([x]).float() y_prevision = M @ X print(f"{y_prevision=}") y_prevision=tensor([-18.2339], grad_fn=<MvBackward0>)
Notre modèle prédit donc “-18.2339”, alors que notre y vaut 18.
C’est normal puisque l’on a initialisé notre modèle avec des valeurs complètement aléatoires.
Il nous faut donc corriger notre modèle, mais d’abord nous allons utiliser une fonction de perte, ici l1_loss pour voir à quel point on se trompe.
Y = torch.Tensor([y]) loss = F.l1_loss(y_prevision, Y) print("loss", loss.item()) loss 36.23392868041992
On se trompe de 36 (c’est à dire 18 – 18,23), c’est beaucoup.
Pour corriger le modèle nous allons faire la phase de back propagation (ou rétro-propagation ou backward pass).
Nous allons demander à Pytorch de calculer l’impact des poids du modèle dans cette décision. C’est le calcul du gradient. Cette opération, sans être très compliqué car il s’agit de dériver toutes les opérations effectuées, mérite un article à part entière et ne sera pas traitée dans celui-ci.
# backward pass M.grad = None loss.backward()
Attention, il faut toujours réinitialiser le gradient avant de lancer le back propagation.
Maintenant que nous avons un gradient, nous allons mettre à jour notre modèle en y appliquant une fraction de ce tenseur.
Pourquoi qu’une fraction ? Ici nous avons une fonction linéaire très simple à modéliser. En appliquant le gradient, on corrigerait tout de suite le modèle. Le problème est que, dans la vraie vie, la situation n’est jamais aussi simple. En réalité, les données sont hétérogènes et donc, appliquer le gradient à une donnée améliore le résultat pour celle-ci mais donnerait un très mauvais gradient pour les autres données.
Nous allons donc appliquer une fraction du gradient et essayer de trouver le meilleur compromis. On pourra déterminer celui-ci grâce à la fonction de perte.
Nous allons donc appliquer une modification de 0,1 fois le gradient sur notre modèle, ce 0.1 s’appelle le learning rate.
# update lr = 0.1 M.data += -lr * M.grad print(f"{M.grad=}, {M.data=}") M.grad=tensor([[-9.]]), M.data=tensor([[-1.1260]])
Nous verrons lors d’un autre article comment choisir le learning rate.
Voyons ce que ça donne :
# forward pass y_prevision = M @ X print(f"{y_prevision=}") y_prevision=tensor([-10.1339], grad_fn=<MvBackward0>)
Pas si mal, on passe de -18 à -10. Ça reste très mauvais mais on n’a exécuté qu’une seule fois notre cycle feed forward / back propagation.
Faisons en sorte d’appeler plusieurs fois notre algorithme.
for i in range(1000): # on prend un échantillon ix = randint(0, len(data)-1) x = data.iloc[ix]["x"] y = data.iloc[ix]["y"] # forward pass y_prevision = M @ torch.tensor([x]).float() loss = F.l1_loss(y_prevision, torch.Tensor([y])) # backward pass M.grad = None loss.backward() # update lr = 0.01 M.data += -lr * M.grad # stats losses.append(loss.item())
Voyons ce que donne notre prévision dans un graphique. En rouge les points de données, en bleu la courbe de prévision.
ax = data.plot.scatter(x="x", y="y", color="red") prevision = pd.DataFrame(np.arange(10), columns=["x"]) m = M.detach() prevision["y_prevision"] = prevision["x"].apply(lambda x: (m @ torch.tensor([float(x)]))[0].numpy()) #torch.tensor([4.]) prevision.plot(y="y_prevision", ax=ax, x="x") <Axes: xlabel='x', ylabel='y'>
Et si nous sortons du cadre des données avec un X de 2000 ?
m @ torch.tensor([float(2000)]) tensor([4028.0156])
Pas mal, on devrait avoir 4000 mais c’est déjà mieux.
Et par rapport à nos données de base ?
prevision
Bon, que ce passe-t-il ? Regardons un peu l’évolution de notre perte en fonction des itérations ?
pd.DataFrame(losses, columns=["loss"]).plot() <Axes: >
On voit que les pertes sont importantes pendant 100 itérations et ensuite elles se stabilisent un peu entre 0 et 0.8.
Est-ce qu’on peut améliorer ça ? Oui très facilement, nous verrons cela ensemble lors d’un prochain article.
ConclusionNous avons appris comment créer un modèle et faire un apprentissage avec les phases de feed forward et back propagation. Ensuite nous avons vu que le learning rate et gradient permettent de corriger le modèle petit à petit. En faisant quelques centaines d’itérations nous avons un bon modèle de régression.
J’espère que cette petite introduction vous a donné envie d’aller plus loin.
Rédacteur : Sébastien Da Rocha
-
0:08
24×36.art : Plan de lutte contre les discriminations
sur Carnet (neo)cartographiqueCette affiche a été créée et postée sur le site 24×36.art en réponse à l’appel de soutien du Nouveau Front Populaire 2024, pour illustrer une section du programme.
Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
16:44
24×36.art : Liberté, circulation, migrations internationales
sur Carnet (neo)cartographiqueCette affiche a été créée et postée sur le site 24×36.art en réponse à l’appel de Geoffrey Dorne et mathias_rabiot pour soutenir le Nouveau Front Populaire 2024.
Données utilisées pour la cartographie des routes internationales mondiales.
– fond de carte : naturalearthdata.com
– projection : projection stéréographique de Gall (adaptée par mes soins).
– routes : openflights.org/dataGéographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
19:59
Soutien cartographique au Nouveau Front populaire
sur Carnet (neo)cartographiqueJe ne redirai pas ici pourquoi il est important de se mobiliser contre la montée de l’extrême droite et le risque très réel de sa prise de pouvoir dans quelques semaines. Ni comment, une fois qu’elle est au pouvoir, elle ne le lâche plus.
La carte en densité de points ci-dessus représente un point pour chaque vote (version haute résolution) aux élections européennes de 2024. Si elle est moins anxiogène que la plupart de celles qu’on a pu voir au soir des élections, elle montre quand même la prédominance du bleu choisi pour représenter l’extrême droite. Mais tout n’est pas perdu : la carte présente également des points rouges pour les votes de la gauche, elle symbolise l’espoir d’une victoire du Nouveau Front populaire. Elle suggère aussi clairement qu’il est temps que les gauches réinvestissent les espaces ruraux, très monochromes ici.
Il reste peu de temps pour agir. En tant que cartographe, je pense que c’est à travers les cartes que je peux apporter le plus à cette campagne. J’ai donc décidé d’offrir mes services gratuitement à tous les syndicats, associations, partis, médias de gauche, ou autres, qui soutiennent ou appellent à voter pour le Nouveau Front populaire et qui pourraient avoir besoin de cartographies dans ce contexte.
-
11:23
AllThePlaces : géodonnées et vision du monde commercial à travers Internet
sur Cartographies numériquesLe projet All The Places extrait les données concernant les « emplacements de magasins » à partir de sites web du monde entier. Les données sont extraites ("scrapées") à partir d'Internet et regroupées par des robots d'indexation (spiders) selon plus de 2500 catégories. La carte reflète une vision du monde commercial tel qu'il se donne à voir sur Internet, laissant de fait les sites de petits commerces de détail dans l'invisibilité, particulièrement dans les pays du Sud (#BlancsDesCartes).
Vision du monde commercial à travers Internet (source : All The Places)
Les données d'emplacement de magasins ont été extraites avec Scrapy, un outil de web scraping assez connu basé sur le langage Python. En sortie, près de 5 millions de lignes ont été extraites en juin 2024 réparties ensuite en 2555 catégories de manière à fournir un ensemble de données POI au format GeoJSON. Disponibles sous licence Creative Communs CC-0 et régulièrement mises à jour, ces données sont téléchargeables en open data sur le site Alltheplaces.xyz.
Une interface web permet de visualiser directement les données sans avoir besoin de les télécharger. En zoomant, on accède au détail des POI. On voit apparaître surtout des enseignes commerciales, des réseaux de banques et assurances, des chaînes de restauration, des concessions autos, etc... Il s'agit des enseignes les plus visibles sur Internet. D'une certaine manière, la carte reflète les enseignes commerciales capables de faire le plus de branding sur Internet.
Zoom sur les sites commerciaux géolocalisés à travers l'interface web d'AllThePlaces
Pour les banques on constate que ce sont surtout l'emplacement des distributeurs de billets ("visa") qui ressortent. Ils représentent plus de la moitié de la base de données. Pour les mobilités, on voit apparaître principalement les bornes de véhicules deux roues en libre-service dans les espaces urbains ("gbfs" ou "General Bikeshare Feed Specification").
Le téléchargement des fichiers geojson (plus de 300 Mo de données géolocalisées) permet de conduire des analyses géographiques, comme par exemple l'implantation de grandes chaînes de distribution alimentaire. A noter que l'indexation par robots laisse des "trous dans la raquette" si l'on peut dire : les magasins Casino, Carrefour, Aldi, Lidl sont bien indexés pour la France, alors qu'Auchan par exemple n'y figure pas ou seulement pour d'autres pays. Les données n'étant pas homogènes selon les catégories et selon les pays, on aura intérêt à utiliser ce type de données en complément d'autres jeux de données issues de Wikidata ou d'OpenStreetMap.
Comparaison de l'implantation de quelques grandes chaînes de distribution en France
Articles connexes
Utiliser Wikidata pour chercher des informations géographiques
Une base de données historiques sur les personnages célèbres dans le monde (de 3500 avant JC à 2018)
Geonames, une base mondiale pour chercher des noms de lieux géographiques
OpenDataSoft : une plateforme avec plus de 1800 jeux de données en accès libre
Data France, une plateforme de visualisation de données en open data
Numbeo, une banque de données et de cartes sur les conditions de vie dans le monde
Mapping Diversity, une plate-forme pour représenter la diversité des noms de rues en Europe
Le forum d'OpenstreetMap, un lieu d'échange autour des enjeux de la cartographie collaborative et de l'open data
Wikipédia fête ses 20 ans. Mais connaissez-vous ses ressources cartographiques ?
-
15:05
Sortie de QField 3.3 « Darién »
sur OslandiaOslandia est le partenaire principal d’OPENGIS.ch pour QField. Nous sommes fiers aujourd’hui de relayer l’annonce de la nouvelle version 3.3 « Darién » de QField. Cette version introduit un tout nouveau framework de plugins qui permet aux utilisateurs de personnaliser et d’ajouter des fonctionnalités complètement nouvelles à leur application de terrain préférée.
Le framework de plugins est accompagné d’autres nouvelles fonctionnalités et améliorations pour cette version, détaillées ci-dessous.
Les points marquantsL’une des plus grandes nouveautés de cette version est un tout nouvel outil de dessin qui permet aux utilisateurs d’annoter des détails importants sur des photos capturées ou de prendre des notes sur des modèles de dessin. Cette fonctionnalité, très demandée, est désormais disponible sur toutes les plateformes prises en charge (Android, iOS, Windows, macOS et, bien sûr, Linux) grâce au soutien financier du groupe d’utilisateurs QGIS suisse.
Cette version inclut également la prise en charge du copier-coller de features vectorielles dans et depuis le presse-papiers. Cela est utile de plusieurs manières, offrant un moyen rapide et facile de transférer des attributs d’une fonctionnalité à une autre via des noms de champs correspondants ou de coller les détails d’une fonctionnalité capturée sur le terrain dans une application de messagerie tierce, de traitement de texte ou de courrier électronique. Le copier-coller de features peuvent se faire via le menu du formulaire des features, ainsi que par un appui long sur la carte. De plus, un nouveau raccourci de transfert d’attributs de feature à feature a également été ajouté au menu du formulaire de feature. Remerciements au canton Suisse de Lucerne, Environnement et Énergie pour le financement de cette fonctionnalité.
Also landing in this version is support for copying and pasting vector features into and from the clipboard. This comes in handy in multiple ways, from providing a quick and easy way to transfer attributes from one feature to another through matching field names to pasting the details of a captured feature in the field into a third-party messenger, word editing, or email application. Copying and pasting features can be done through the feature form’s menu as well as long pressed over the map canvas. Moreover, a new feature-to-feature attributes transfer shortcut has also been added to the feature form’s menu. Appreciation to Switzerland, Canton of Lucerne, Environment and Energy for providing the funds for this feature.
Le formulaire de feature continue de gagner en fonctionnalités ; dans cette version, le widget de l’éditeur de carte de valeurs du formulaire de features a gagné une nouvelle interface de bouton qui peut accélère la saisie des données. L’interface remplace la boîte combo traditionnelle par une série de boutons-bascule, réduisant le nombre de clics nécessaires pour choisir une valeur. L’Institut archéologique allemand – KulturGutRetter a parrainé cette fonctionnalité.
D’autres améliorations du formulaire de fonctionnalité incluent la prise en charge du regroupement des éléments de relation de valeurs et le respect du paramètre « réutiliser la dernière valeur entrée » des attributs de la couche vectorielle.
Enfin, des fonctionnalités supplémentaires incluent la prise en charge de la superposition de décorations d’images, une nouvelle interface pour basculer entre les caméras (avant, arrière et dispositifs externes) pour la caméra « non native », la possibilité de désactiver le geste de rotation de la carte à trois doigts, et bien plus encore.
Améliorations d’interface utilisateur
Les utilisateurs de longue date de QField remarqueront le nouveau style des panneaux d’information tels que le positionnement GNSS, la navigation, le profil d’élévation et les données des capteurs. Les informations sont désormais présentées sous forme de superposition sur la carte, ce qui augmente la visibilité de la carte tout en améliorant la mise en avant et la clarté des détails fournis. Avec cette nouvelle version, tous les détails, y compris l’altitude et la distance jusqu’à la destination, respectent le type d’unité de distance configuré par l’utilisateur dans le projet.
La légende du tableau de bord a également reçu de l’attention. Vous pouvez désormais basculer la visibilité de n’importe quelle couche via un simple clic sur une nouvelle icône en forme d’œil située dans l’arbre de la légende. De même, les groupes de légendes peuvent être développés et réduits directement dans l’arbre. Cela vous permet également de montrer ou de masquer des couches tout en numérisant une fonctionnalité, ce qui n’était pas possible jusqu’à présent. Le développement de ces améliorations a été soutenu par Gispo et parrainé par le Service national du cadastre de Finlande.
The dashboard’s legend has also received some attention. You can now toggle the visibility of any layer via a quick tap on a new eye icon sitting in the legend tree itself. Similarly, legend groups can be expanded and collapsed directly for the tree. This also permits you to show or hide layers while digitizing a feature, something which was not possible until now. The development of these improvements was supported by Gispo and sponsored by the National Land Survey of Finland.
Framework de plugins
QField 3.3 introduit un tout nouveau framework de plugins utilisant le puissant moteur QML et JavaScript de Qt. Avec quelques lignes de code, des plugins peuvent être écrits pour ajuster le comportement de QField et ajouter de nouvelles fonctionnalités. Deux types de plugins sont possibles : des plugins au niveau de l’application ainsi que des plugins spécifiques au projet. Pour assurer une facilité maximale de déploiement, la distribution des plugins a été rendue possible via QFieldCloud ! Amsa a fourni la contribution financière qui a permis de réaliser ce projet.
Notre partenaire OPENGIS.ch proposera bientôt un webinaire pour découvrir comment les plugins QField peuvent améliorer vos workflows de terrain (et votre activité au sens large) en vous permettant d’être encore plus efficace sur le terrain.
Les utilisateurs intéressés par la création de plugins ou une meilleure compréhension du framework peuvent déjà visiter la page de documentation dédiée et un exemple d’implémentation de plugin intégrant une prévision météorologique.
Vous avez des questions sur QField ? Intéressés par sa mise en œuvre, n’hésitez pas à contacter Oslandia !
-
9:02
Appel à commentaires pour le standard StaR-Eau jusqu'au 4 octobre 2024
sur Conseil national de l'information géolocaliséeAppel à commentaires pour le standard StaR-Eau jusqu'au 4 octobre 2024
-
6:48
[1’Tech by Oslandia] télétravail
sur OslandiaOn sort un peu de la minute Tech pour évoquer un « mot » qui nous implique particulièrement chez Oslandia. Alors essayons de donner notre meilleure définition du télétravail !
Le télétravail est une méthode de travail s’affranchissant de la proximité géographique des collaborateurs.
Quels avantages au télétravail ?- la fin des temps de trajet domicile-travail : un meilleur confort personnel, un bilan carbone fortement réduit
- une flexibilité accrue dans la gestion de son temps et l’organisation au quotidien
- des recrutements plus libres et plus faciles
- une communication et des process organisationnels nécessairement structurés
- l’efficience du travail asynchrone
Le télétravail n’est pas un problème en soi, mais c’est souvent un catalyseur de problèmes : chaque difficulté rencontrée peut prendre beaucoup plus d’importance et de criticité en distanciel. Cela oblige à traiter les problèmes à la racine, et ne pas les mettre « sous le tapis » en se disant qu’on les résoudra à la machine à café ! Cela crée un environnement d’entreprise plus sain et plus égalitaire.
Oslandia baigne dans la culture OpenSource, où le développement logiciel s’effectue par nature de façon distribuée, mondiale, et à distance. Nous avons donc ainsi un fonctionnement interne cohérent avec l’objet de notre activité, et nous nous inspirons des fonctionnements des communautés opensource pour le fonctionnement de l’entreprise.
Les ingrédients clé d’un télétravail durable, efficient et agréable :- un travail qui a du sens, facteur de motivation
- des postes de travail au domicile adaptés et confortables
- l’accompagnement RH et psychosocial des collaborateurs
- des process de fonctionnement et de communication clairs et partagés
- la culture de l’écrit, et les outils adaptés
- des rendez-vous réguliers pour se rencontrer de visu
Oslandia fonctionne en 100% télétravail, et cela depuis sa création il y a 15 ans ! L’équipe est répartie dans la France entière, nos clients aussi, et même à l’international. Nous livrons de beaux projets par nos compétences techniques, mais aussi grâce à notre structure organisationnelle.
-
7:16
Eurométropole de Strasbourg : une plateforme facilitant le partage et la diffusion interne des données géographiques
sur OslandiaL’Eurométropole de Strasbourg a fait appel à Oslandia pour se doter d’une plateforme intranet de nouvelle génération facilitant le partage et la diffusion interne des données géographiques.
Ce projet bien que porté par un seul service est à destination de l’ensemble de la collectivité.
De nombreuses données géographiques produites par les géomaticiens n’étaient accessibles que par des clients lourds ayant une interface relativement complexe qui bridait leur utilisation aux personnes initiées.
De plus la publication des projets QGIS sur la plateforme web nécessitait plusieurs étapes de conversion et vérification.Le projet avait donc pour but de simplifier la publication et de populariser l’accès aux données géographiques du SIG au travers de la mise en œuvre d’outils simples d’utilisation, intuitifs, performants et Open Source.
De plus afin de respecter les normes de sécurité de l’Eurométropole et d’être transparent pour les utilisateurs, la solution recherchée doit être compatible avec le système d’authentification et de gestion de droits de la collectivité.
Nous avons répondu à cette demande en utilisant et interfaçant plusieurs briques Open Source : QGIS Server, QGIS Web Client 2 (QWC2), Geonetwork, Map proxy et Keycloak.
Cyle de vie de la donnéeLe besoin initial de l’Eurométropole était d’avoir un cycle de vie complet allant de la création à la diffusion en passant par le référencement de leurs données géographiques.
Tout d’abord, les données sont créées depuis le logiciel QGIS Desktop dans une base de données PostgreSQL/PostGIS.
Pour chaque groupe de données thématique, il est nécessaire de produire une fiche de métadonnée dans le géocataloque de l’EMS (Geonetwork), un fichier .qlr afin de pouvoir charger ces données de manière simple dans QGIS Desktop, un projet qgis pour la diffusion dans la plateforme web (QGIS Server/QWC2).
Connexion et sécuritéAfin de gérer les droits d’accès aux données ainsi qu’aux applications, l’EMS possède un SSO Kerberos basé sur un annuaire AD.
Durant l’ensemble du projet, la sécurité a été un point majeur afin que ce SSO puisse être intégré dans chaque étapes du cycle de vie de la donnée.
Tout d’abord l’ensemble des groupes de la base PostgreSQL sont synchronisés avec l’annuaire AD, afin de sécuriser l’accès direct à la donnée.
Ensuite, pour sécuriser la diffusion, un plugin QGIS Server initialement développé par l’EMS a été repris dans le cadre de ce projet. Les droits définis en base de données (et donc dans l’AD) sont pris en compte pour autoriser ou non la lecture des données et leur affichage sur la plateforme Web selon l’utilisateur connecté.
Finalement, pour l’accès aux applications, une brique KeyCloak a été installée, elle est moins visuelle mais essentielle. Elle permet de ce connecter au SSO Kerberos et de fournir un protocole OpenIDC compatible nativement avec Geonetwork. Pour la plateforme QWC2, un micro-service spécifique a été développé afin de pouvoir récupérer l’authentification fournie par le module OpenIDC d’Apache.
La diffusion des projets : QGIS Server / MapproxyQgis Server permet de diffuser sous forme de flux OGC les projets préalablement créés dans QGIS. Il peut en effet servir les projets avec un rendu de style identique à celui paramétré dans QGIS, ces deux logiciels utilisant le même moteur cartographique. Les projets QGIS déjà existants n’ont eu besoin que de changements mineurs pour pouvoir être servis par QGIS Server et obtenir le même rendu que celui obtenu dans QGIS Desktop.
Certains fonds de plan sont très utilisés et par définition assez lourd au chargement. Pour une meilleure expérience utilisateur, surtout sur un navigateur web, il ne faut pas que la carte mette trop longtemps à charger. C’est pour cela que MapProxy a été mis en place, pour optimiser le chargement de ces fonds de plan en créant un cache paramétré sur plusieurs niveaux de zoom.
Le visualisateur cartographique web : QGIS Web Client 2QGIS Web Client 2 ou QWC2 est le visualisateur web officiel de QGIS. Il est Open Source et maintenu par la communauté QGIS.
QWC2 a été installé et personnalisé pour correspondre aux besoins du projet. Plusieurs micro-services ont été utilisés et adaptées, notamment l’extension d’administration permettant ainsi à l’EMS d’être autonome dans la publication de nouveaux thèmes (projet QGIS) ou la modification d’existant en les paramétrant à souhait. En effet on peut pour un thème choisir le nom, la vignette miniature pour repésenter le thème, les fonds de plans disponibles mais également les échelles de zoom ou les échelles d’impression de carte ou le type de recherche qui s’active dans la barre de recherche.
En effet pour l’EMS nous avons configuré plusieurs recherches :
- Recherche dans la BAN (Base Nationale Adresse) personnalisée de l’EMS
- Recherche Cadastral (commune, section, parcelle)
- Recherche dans le géocatalogue GéoNetwork (pour charger les couches ou consulter le catalogue)
Cette interface d’administration permet également à l’EMS d’organiser les différents thèmes en groupes pour correspondre aux thématiques des données ou à un classement par équipe de travail; et de rendre accessible de nouveaux fonds de plan.
Dans certains projets QGIS, des composeurs d’impression sont disponibles. Ces composeurs sont également disponibles dans l’interface Web QWC2 avec des champs personnalisables au moment de l’impression, comme le titre de la carte par exemple.
Les cartes chargées dans QWC2 ne sont pas figées. En effet l’utilisateur peut personnaliser son visuel de plusieurs manières :
- Modifier le fond de plan chargé par défaut
- Cocher et décocher des couches comme dans QGIS
- Charger quelques couches ou la totalité des couches en provenance d’un autre projet
- Ajouter des couches en provenance du GeoNetwork EMS grâce à un développement spécifique Oslandia
- Ajouter des couches en provenance d’un web service externe ou un fichier local de son ordinateur
Les utilisateurs ont également la possibilité de “dessiner” sur la carte ou d’ajouter des étiquettes pour compléter les informations ou prendre des notes rapidement.
Toutes ces annotations sont enregistrables via un marque-page et partageables en générant et conservant un permalien.
Le catalogue de données géographiques : GeonetworkLe géocatalogue de l’EMS a été paramétré et modifié afin de répondre à leur besoin. En effet, Geonetwork possède une interface cartographique par défaut. Afin d’intégrer complètement le géocataloque dans le projet, cette interface à été remplacé par la plateforme web QWC2.
Ce couplage avec QWC2 permet également de faciliter l’ajout des couches du Géocatalogue à une carte déjà ouverte dans la visionneuse.
ContributionsDurant cette prestation toutes les évolutions/correctifs qui n’étaient pas spécifiques à l’EMS ont été reversées à la communauté (25 Pull Request et 6 composants modifiés). Travailler avec nous c’est également travailler pour la communauté QGIS.
L’EMS a même eu envie de participer à l’effort collectif en se lançant dans la contribution opensource et réalisé certaines contributions pendant le projet :
- Ajout du support XYZ dans l’interface d’admin
- Ajout de l’option pour paramétrer l’infobulle activé par défaut dans l’ajout de projet depuis l’interface d’administrace.
- Ajout de l’option dans l’interface d’administration pour choisir si l’on veut que le rendu sur notre projet s’effectue de manière tuilé ou non.
- Ajout du support de la gestion du type Enum de postgres dans la génération des formulaires
Si la description de ce projet vous a donné des idées, n’hésitez pas à nous contacter, nous pourrons parler avec vous de vos projets.
-
14:00
Réaliser des cartes avec Blender - Partie 2
sur GeotribuRéaliser des cartes de relief avec le logiciel libre 3D Blender. Partie 2 : Modéliser le relief avec Blender.
-
9:41
NEOGEO et SOGEFI allient leur catalogue de données et leur SIG pour les besoins de leurs utilisateurs
sur Neogeo TechnologiesUne solution mutualisée donnant une gamme complète d’outils pour répondre aux besoins cartographiques des acteurs publics.
Chez NEOGEO, nous avons décidé de nous associer à SOGEFI pour offrir à nos utilisateurs toute la puissance des données. Grâce à cette collaboration, la plateforme OneGeo Suite de NEOGEO est enrichie par les applications métier Mon Territoire de SOGEFI.
Ensemble, nous proposons une solution mutualisée qui fournit une gamme complète d’outils adaptés aux besoins des administrateurs, des gestionnaires de données, des services techniques, des élus et du grand public.
La combinaison de nos deux solutions offre une réponse précise et adaptée aux divers acteurs d’un territoire. Elle repose sur un socle commun robuste solide, structuré et évolutif centré sur les données, ce qui permet de créer un cycle vertueux de gestion de la donnée pour l’ensemble des acteurs de la structure, au bénéfice de leur territoire. Le développement de nos solutions respectives est axé sur l’expérience utilisateur, chaque outil étant conçu pour répondre aux besoins spécifiques des différents profils d’acteurs impliqués.
OneGeo Suite propose aux administrateurs une gamme de modules pour gérer les référentiels métiers et satisfaire aux exigences de publication et de partage des données Open Data. OGS valorise ces données grâce à des modes de publication et de reporting (Dataviz) adaptés aux besoins des utilisateurs et de leurs publics, qu’il s’agisse de partenaires ou du grand public. Avec son module Explorer pour la recherche et la consultation intuitive des jeux de données, son module Maps pour les fonctionnalités cartographiques avancées, et son module Portal pour un portail collaboratif, OneGeo Suite offre une solution complète et innovante. Cette suite est fondée sur des principes de mutualisation et de co-construction d’outils open source.
Mon Territoire propose une gamme complète d’outils métiers prêts à l’emploi pour les services techniques et les collectivités. Couvrant de nombreuses compétences, la gamme Mon Territoire utilise une sélection de données Open Data pour assister les agents responsables de l’urbanisme, de l’habitat, des réseaux, de la voirie et du développement économique.
Schéma décrivant les usages et les rôles au travers des applications fusionnées OneGeo Suite et Mon Territoire
« La gamme d’outils clé en main proposée par SOGEFI permet de compléter notre solution OneGeo Suite de catalogage et de diffusion de données par des modules métiers opérationnels directement accessibles aux utilisateurs de la plateforme.L’interopérabilité des deux solutions permet de mutualiser l’accès aux référentiels cartographiques et aux bases de données métier et le partage des droits sur les différents jeux de données offre la possibilité de définir une véritable stratégie de gouvernance des données. Enfin l’accès aux API Opendata proposées par SOGEFI et alimentées en temps réel permet d’enrichir l’offre de référentiels proposés dans le catalogue de données mis à disposition ».
« OneGeo Suite est la réponse idéale pour les structures départementales et régionales qui disposent d’un socle important de données. Les administrateurs de ces dernières disposent alors de tous les outils pour gérer ces importants volumes de données du catalogage à sa publication pour ses adhérents. OneGeo Suite, plateforme complètement Open Source, est totalement interopérable avec notre gamme Mon Territoire, elle apporte une vraie valeur ajoutée pour la diffusion et la valorisation de l’ensemble des données ainsi consolidées au fil du temps par les services et permet à l’IDG la mise en place d’un cycle vertueux de l’information pour l’ensemble de ces acteurs. »
L’un des avantages de notre collaboration est de pouvoir déployer rapidement des solutions prêtes à l’emploi grâce à un accompagnement spécifique par métiers et compétences. Une équipe pluridisciplinaire est mobilisée pour le déploiement de notre offre commune et le planning établi peut mobiliser différentes équipes en parallèle pour le bon avancement du projet. Chacun sur son métier, NEOGEO et SOGEFI ont à cœur de vous accompagner et de vous conseiller sur vos problématiques. Chacun mène une veille permanente sur l’Opendata ainsi que sur les technologies du domaine et vous propose de vous en faire bénéficier au travers des solutions et des services que nous mettons en place depuis plusieurs années. Construit autour de communautés d’utilisateurs, nos deux solutions sont reconnues sur le marché depuis de nombreuses années, elles sont au service de nombreux usagers qui nous font part de leurs besoins d’évolution et idées pour les versions à venir notamment au travers d’espace d’échanges dédiés (forum, page web dédié…). Ces remontées d’informations sont précieuses pour nos équipes afin de définir les feuilles de route de nos produits.
« Les outils métiers de SOGEFI sont tout à fait en adéquation avec les besoins et les usages des collectivités de toutes tailles dans leurs tâches du quotidien. Les partenariats existants avec Géofoncier sont un vrai plus pour les secrétaires de mairie. Nous pouvons également répondre aux besoins des services techniques des collectivités, des syndicats des eaux, d’assainissement. Les solution OneGeo Suite va nous permettre de maitriser nos données et de les mettre à disposition de nos utilisateurs et partenaires de manière simple et structurée (flux, datavisualisation, carte Web).? Le tout parfaitement intégré à notre SI et répondant à nos exigences en termes d’administration des comptes utilisateurs et des droits sur les données. »
« Depuis une douzaine d’année, la plateforme territoriale Guyane-SIG favorise l’accessibilité des données spatiales et la démocratisation de leurs usages sur la Guyane. En 2020, la Collectivité Territoriale de Guyane a initié un travail de modernisation de l’ensemble des composants fonctionnels en deux étapes :
-
-
- Nous avions besoins d’un outil performant pour proposer une lecture facilitée de l’information foncière pour l’ensemble de nos partenaires. Les attentes étaient fortes et avec Mon Territoire Carto, nous avons pu bénéficier rapidement d’un outil ergonomique mobilisant de nombreuses données en Opendata que nous avons pu compléter par des productions endogènes.
- Puis les efforts se sont portés sur les outils collaboratifs de partage et de valorisation des données dans le respect des standards. Avec la suite OneGeo, nos partenaires peuvent désormais publier en quelques clics leurs données.
-
L’accompagnement nous permet également de proposer régulièrement à nos partenaires des webinaires de présentation des évolutions fonctionnelles.
NEOGEO et SOGEFI sont ravis de poursuivre et renforcer leur partenariat déjà éprouvé depuis plusieurs années auprès du Portail Géofoncier. Ce portail porté par l’Ordre des Géomètres-Expert est aujourd’hui une référence nationale dans la valorisation de l’information foncière. L’ambition portée par Géofoncier a su s’appuyer sur la complémentarité des expertises de chacun. Les différents projets ont nécessité un travail de coordination et d’enrichissement mutuel des pratiques et technologies mobilisées par les deux sociétés dans un objectif commun. Nos équipes se connaissent, elles ont l’habitude de travailler ensemble et savent mobiliser les ressources en interne pour assurer une couverture élargie des compétences nécessaires aux projets.
« Depuis de nombreuses années, NEOGEO et SOGEFI sont nos partenaires privilégiés chez Géofoncier. Leurs expertises complémentaires et incontestées dans le domaine de la diffusion et de la valorisation de la donnée cartographique, associée à leurs écoutes attentives de nos besoins, font de NEOGEO et SOGEFI un groupement pertinent et essentiel à notre réussite. Leur engagement fort au quotidien à fournir en concertation des solutions complètes et pérennes ont grandement contribué au succès de Géofoncier. Nous sommes reconnaissants de pouvoir compter sur ces équipes d’experts aussi fiables et compétentes pour nous accompagner dans notre croissance continue.
NEOGEO possède une expertise avérée dans la mise en œuvre de solutions innovantes de partage, de valorisation et de visualisation de données géographiques auprès d’un large public. NEOGEO développe et met en place depuis sa création en 2008 des infrastructures de données géographiques et des plateformes open-source. NEOGEO a intégré en 2022 le groupe Geofit (leader français dans l’acquisition de données spatiales), permettant ainsi de renforcer ses compétences (équipe de 40 collaborateurs) et ses références (une cinquantaine de plateformes cartographiques majeures déployées en France et à l’étranger). C’est aussi la fusion des savoirs faires technologiques des deux structures qui a permis de donner le jour à la solution OneGeo Suite.
SOGEFI, expert de la data et du webmapping depuis 33 ans propose des solutions pour la gestion et l’exploitation de données par la cartographie. La gamme Mon Territoire est réservée aux collectivités pour la gestion par métier de leur territoire. SOGEFI place l’utilisateur au cœur de ses réflexions et de sa feuille de route et son expertise de la donnée lui permet de proposer des exploitations poussées de la donnée au sein de ses applications. La société équipe aujourd’hui plus de 1000 collectivités et entreprises avec ses solutions web-SIG cadastre, urbanisme, réseaux et voirie. Elle accompagne également le portail Géofoncier sur son expertise de la donnée par la mise à disposition de ses API. »
-
-
18:14
Cartes et graphiques sur les élections européennes de 2024
sur Cartographies numériques
La participation aux élections européennes du 9 juin 2024 a atteint le score le plus élevé depuis 1994 en mobilisant 51,5% des Français (ce qui reste néanmoins modeste en comparaison d'autres élections). Au niveau national, la liste du Rassemblement national menée par Jordan Bardella arrive largement en tête avec 31,4 % des votes exprimés. Loin derrière, la liste Renaissance de Valérie Hayer est à 14,6 %, suivie de celle de Place publique - Parti Socialiste menée par Raphaël Glucksmann avec 13,8 %. Après le trio de tête, la liste LFI menée par Manon Aubry, 9,9 % des voix, ne franchit finalement pas la barre des 10 %. Les Républicains et leur tête de liste François-Xavier Bellamy atteignent 7,2 % devant la liste Les Ecologistes de Marie Toussaint qui dépasse de peu les 5 %, avec 5,5 %. Le même score (5,5 %) est enregistré par la liste Reconquête menée par Marion Maréchal.
Les résultats des élections européennes du 9 juin 2024 sont accessibles sur le site Data.gouv.fr. Les données sont disponibles par départements, cantons, communes et même bureaux de vote. Dans la perspective des élections législatives du 30 juin et 7 juillet 2024, les données ont été mises à disposition également par circonscriptions. Ce qui permet de faire des simulations avec toutes les précautions d'usage à prendre étant donné les différences de scrutin, d'enjeux politiques, de taux de participation entre les deux types d'élections. L'équipe Data.gouv.fr propose un jeu de données qui agrège l'ensemble des résultats des élections publiés par le Ministère de l'Intérieur de 1999 à 2024. Il est possible également d'utiliser le croisement des données démographiques INSEE 2020 au niveau IRIS avec les résultats des élections européennes 2024.I) La carte du parti en tête en France et dans les autres pays de l'UE
La comparaison cartographique avec les résultats des Européennes de 2019 montre une explosion sans précédent du Rassemblement national. En 2024, la liste menée par Jordan Bardella est en première place dans tous les départements français à l’exception de Paris (PS) et de sa petite couronne — Val-de-Marne (LFI), Hauts-de-Seine (LREM) et Seine-Saint-Denis (LFI). Sur 96 départements, le RN en prend 92.
La plupart des médias ont choisi de présenter une carte du parti en tête, ce qui accentue l'impression que la France a connu une "vague brune". De nombreux internautes ont réagi en évoquant une forme d’angoisse ou de peur face à ce type de carte. Il convient de rappeler que ce sont les populations qui votent et non les territoires. Comme le rappelle Jean Rivière, « il faut vraiment arrêter avec ces cartes de la liste en tête (même dans la maille communale). Elles sont pauvres, dramatisent les clivages socio-géographiques, et poussent à une lecture en terme de fractures ».
« Résultats élections européennes : cette carte anxiogène a beaucoup circulé, comment la comprendre » (HuffPost)Quelle couleur pour le Rassemblement national sur les cartes ? J'ai fait un tour ce matin sur9 des sites d'info français les plus lus en France.
— Marie Turcan (@TurcanMarie) June 10, 2024
Le Monde a choisi le marron, le Figaro est sur du violet. Les autres sont dans des nuances de bleu foncé (voire clair, pour Marianne) pic.twitter.com/6NYysYHknxDepuis quand le #RN est en bleu sur les cartes électorales et non en brun?
— cecile alduy (@cecilealduy) June 15, 2024
Ce sont ces petits détails symboliques qui participent à la banalisation et leuphemisation de sa radicalité. pic.twitter.com/uNu44RKBJ0Le Monde fournit une carte interactive par aplats. Libération donne aussi une carte des résulats par communes mais avec des cercles proportionnels au nombre de suffrages, ce qui permet de relativiser quelque peu. Les métropoles et leur couronne semblent constituer un rempart face au RN. En cliquant sur ces cartes interactives, on peut afficher le détail des votes, de manière à aller au delà du premier parti en tête.
Carte interactive des résultats par commune (source : Libération)
Ouest-France fournit une carte de comparaison visuelle pour montrer la disparition du macronisme entre 2019 et 2024.
En contraste avec les cartes que l'on trouve dans les médias, Cédric Rossi a élaboré une carte des résultats aux élections européennes 2024 redimmensionnés par rapport au nombre d'inscrits (inspiré de Kenneth Field et de ses travaux sur la cartographie des élections américaines). Voir également sa carte en mode points regroupant gauche, centre et droite et extrême-droite (1 point = 1 votant) ainsi que sa carte choroplèthe des bureaux de vote (à comparer à la cartographie par densité de points proposée par Julien Gaffuri).
Résultats aux élections européennes 2024 en France métroplitaine (source : Cédric Rossi)
Karim Douïeb a repris la carte par aplats du parti en tête par communes proposé par le Monde pour élaborer, avec le même code couleurs, une carte par cercles proportionnels (même procédé pour la Belgique). Même rapporté à l'importance des votants, le cartogramme maintient un biais d'analyse dès lors que l'on ne voit que le parti arrivé en tête.
Here are the static maps with legend pic.twitter.com/29SZrrSePz
— Karim Douïeb (@karim_douieb) June 12, 2024« Méfiez-vous des cartes … électorales » par Françoise Bahoken et Nicolas Lambert (Néocarto). Les cartes produites ont été explicites : des images teintées de bleu ou de brun qui semblent démontrer que l’arrivée de Jordan Bardella à Matignon n’est plus qu’une question de temps. Ces images cartographiques reflètent-elles vraiment le rapport de force qui s’instaura entre les formations politiques françaises, dans la perspective des élections législatives ?
Claude Grasland proposze une cartographie citoyenne des résultats à l’échelle infra-communale afin de permettre une autre lecture des résultats et d’ouvrir des perspectives inédites pour les militants politiques, les élus locaux et les citoyens en général : « Pour une cartographie citoyenne du vote en Île-de-France » (The Conversation, 24 juin 2024). Application de cartographie interactive pour les circonscriptions d’Île-de-France.
Eric Mauvière propose d'observer les lignes de force du vote RN aux européennes à travers une cartographie lissée à partir de la grille des communes (Icem7).
Le Parisien propose une série de cartes thématiques avec deux cartes pour chaque parti de manière à pouvoir analyser son score par commune en 2024 et son évolution par rapport à 2019. En ce qui concerne Paris, on retrouve la forte opposition Est-Ouest. Cl. Graslan propose une application pour analyser plus en détail les résultats à l'échelle de l'Ile-de-France.
Pour chaque parti, on vous a préparé 2 cartes des élections #européennes2024 : le score ce dimanche et l'évolution par rapport à 2019.
— Nicolas Berrod (@nicolasberrod) June 10, 2024
On commence avec la majorité, qui subit une véritable déroute. Elle fait moins bien qu'en 2019 quasiment partout.
1/n [https:]] pic.twitter.com/6wvV2si2KfLes Echos s'en tient à sept cartes pour résumer la géographie du vote à l'échelle des départements (avec la même échelle et la même légende).
#Europénnes2024
— Jules Grandin (@JulesGrandin) June 10, 2024
Sept cartes.
Même échelle, même légende.
Dans l'ordre : Abstention, RN, Renaissance, PS, LFI, LR, Verts pic.twitter.com/K5EWJXfYMMEn Allemagne, les résultats attestent de la persistance de "frontières fantômes", même s'il faut se méfier des cartes de résultats électoraux ne donnant que le parti en tête. Le clivage entre l'Allemagne de l'ouest et l'Allemagne de l'est reste perceptible ainsi que les spécificités de la Bavière avec la CSU : la carte regroupe en noir la droite libérale, en bleu l’AfD. De rares points verts apparaissent pour les écologistes et en rouge les sociaux-démocrates. Ensemble, les trois partis de la coalition d’Olaf Scholz font à peine plus que la CDU-CSU à elle seule. Le Grand Continent montre comment, en cinq ans, l’AfD a conquis tout l’Est de l'Allemagne.
La poussée d’extrême droite a été plus spectaculaire en France, mais aussi en Allemagne où l’AFD arrive deuxième. Mais c’est en formant des coalitions dans les pays européens qu’elle a le plus d’influence aujourd’hui et pèse sur les décisions. Le Grand Continent synthétise les résultats par état membre au niveau européen et compare ces résultats au niveau de confiance accordé à l'Union européenne à différentes échelles. Voir également le site de France-Info ou encore celui plus complet d'Europe Elects pour comparer avec d'autres pays de l'Union européenne.Nicht die Fläche wählt, sondern die Menschen!
— Christoph Pahmeyer (@chrispahm) June 13, 2024
Für die Darstellung wird jeder Landkreis in einen Punkt umgewandelt, wobei die Größe des Punktes proportional zur Anzahl der Wähler-/innen ist ? das Wahlergebnis wird dadurch besser abgebildet und weniger verzerrt. pic.twitter.com/7I5ojRojF5
Malgré la poussée de l'extrême droite en France et en Allemagne, la physionomie du prochain Parlement européen ne sera finalement pas si différente du précédent : les deux coalitions rivales d’extrême droite augmentent leur surface, mais sans renverser la table. Les deux principales formations politiques du Parlement restent le Parti populaire européen (la droite), dont font partie la CDU allemande ou les Républicains français, suivi des socio-démocrates. Leur nombre de sièges varie assez peu. Seul le groupe libéral, dominé par le groupe macroniste, baisse fortement, et l’influence française y sera plus réduite.
Projection des sièges au Parlement européen 2024 - 2029 d'après le site officiel de l'UE (source : results.elections.europa.eu/)II) Des ressources pour aller plus loin dans l'analyse
Afin d'avoir une vue détaillée à l'échelle européenne, Le Monde propose un cartogramme représentant les 720 députés européens répartis par pays et par tendance politique (voir également le cartogramme donnant la répartition du nombre de députés d’extrême droite par pays et l'évolution depuis 2019).
Répartition des députés européens par pays (source : Le Monde)
Le quotidien allemand Zeit online propose une cartographie détaillée des résultats dans les 83 000 municpalités des 27 pays de l'Union européenne. Par rapport aux élections de 2019, le turquoise des populistes de droite et le bleu des partis d’extrême droite ont augmenté notamment en France, en Autriche, aux Pays-Bas, en République tchèque, en Lettonie et en Allemagne. Dans certains pays, comme la Pologne ou la Suède, leur influence a diminué. Le jaune des libéraux (par exemple en France, en République tchèque, aux Pays-Bas) et le vert des partis écologistes (notamment en Allemagne) sont moins visibles par rapport à 2019. A Bruxelles, les Verts forment un groupe parlementaire avec des partis régionaux (comme le parti régional catalan de gauche ERC), qui sont donc également colorés ici en vert. Dans plusieurs régions, les partis d’extrême gauche ont réalisé des progrès significatifs et, dans certains endroits, ils sont devenus la force politique la plus puissante. Par exemple en Irlande, en Catalogne ou à Chypre.
Explorez la carte des résultats électoraux la plus détaillée d'Europe (Zeit online)
En France, le sondage jour du vote réalisé par IPSOS permet d'en savoir plus sur les clés du scrutin et le profil des électeurs.
Le taux de participation aux élections européennes du 9 juin 2024 est le plus élevé depuis 30 ans.
Plus de la moitié des moins de 35 ans ne sont pas allés voter le 9 juin 2024. Hormis le RN et LFI, aucun parti ne fait plus de 5% chez les jeunes. En faisant apparaître l'abstention au même titre que les autres partis, cela relativise quelque peu les résultats. Compte tenu de l'importance de l'abstention, la tendance aujourd'hui est de représenter les résultats électoraux en part des inscrits et non plus seulement en part des votants (sondage IPSOS).« Européennes : âge, revenus, niveau d’études… qui sont les électeurs du Rassemblement national ? » (Le Parisien).
« Pourquoi les européennes ne sont pas proportionnelles » par Théo Delmazure. Les votes perdus de l'élection européenne avec l'expérience conduite et les explications.
« La géographie du mécontentement à l’égard de l’UE et le piège du développement régional » par Andrés Rodríguez-Pose, Lewis Dijkstra et Hugo Poelman (Economic Geography). Cette analyse de géographie économique, parue avant les élections, relie la montée de l'euroscepticisme aux régions piégées par le développement.
Alain Ottenheimer propose sur le site Politiscope une série de cartogrammes permettant de mettre en perspective les résultats des européennes 2024 par rapport aux élections précédentes (comparaison sur la période 1999-2024 à l'échelle des communes françaises). Les grandes villes et leurs couronnes y apparaissent souvent comme des ilots par rapport au reste de la France.
A méditer ! version interactive élections présidentielles et européennes de 1999 à 2024 (PC only) : [https:]] ...
— Alain Ottenheimer (@datasensTls) June 14, 2024
@Tls_dataviz pic.twitter.com/LYFUkBxxWKPour Olivier Bouba-Olga ("Le vote Bardella : un vote rural ?"), la différence rural-urbain dans le vote Bardella est un effet de diplôme et d’âge, bien plus qu’un effet de localisation.
? votes aux européennes : observe-t-on des différences entre rural autonome et rural sous influence ? ?1/10 pic.twitter.com/61YlTEUXWf
— Olivier Bouba-Olga (@obouba) June 15, 2024Emmanuel Macron a annoncé le soir même des résultats la dissolution de l'Assemblée nationale. En appelant les Français aux urnes pour les 30 juin et 7 juillet 2024, le Président a suscité la surprise. Cela pourrait déboucher sur une cohabitation avec le Rassemblement national en cas de victoire de ce parti aux élections législatives. En réaction, les partis de gauche en appellent à constituer un "front populaire" face à la montée de l'extrême droite.
Lien ajouté le 12 juin 2024
Il fallait que je fasse cette carto.
— Flef (@FlefGraph) June 10, 2024
C'est surement une de mes dernières grosses carto publiques de Twitter...
Mais entre les élections / la dissolution / les disputes de chacun pour tirer la couverture, il la fallait ?
Plus de méthodo dans le thread. pic.twitter.com/9a3ojnhj1VAprès vérification, il y a bien une armée de bot faisant de l'astroturfing à propos des élections législatives de 2024.
— Flef (@FlefGraph) June 27, 2024
Merci à @visibrain de m'avoir fourni plus d'un million de Tweets et RT pour voir ça !
Des explications en thread, et un lien vers le dossier complet à la fin. [https:]] pic.twitter.com/CpfsxUfDx6Lien ajouté le 14 juin 2024
Libération s'en tient à une représentation proportionnelle au poids des circonscriptions et en indiquant si le score du RN aux européennes était au dessus ou en dessous de la moyenne nationale. Cela reste malgré tout approximatif [https:]]
— Sylvain Genevois (@mirbole01) June 14, 2024
10/ pic.twitter.com/zrlFIXOz5xLiens ajoutés le 17 juin 2024
Implantation du vote RN (en % des votants 2024) par rapport au niveau d'études de la population (diplôme d'enseignement supérieur en 2020)
— Sylvain Genevois (@mirbole01) June 17, 2024
2/ pic.twitter.com/hOfGKqLFLQ
Lien ajouté le 19 juin 2024? Non, le RN n'a pas réalisé de raz-de-marée dans les campagnes !
— Olivier Bouba-Olga (@obouba) June 17, 2024
C'est le titre d'un article que j'ai co-signé avec Vincent Grimault, qu'Alternatives Economiques vient de publier, vous pouvez le lire ici : [https:]] ?1/5 pic.twitter.com/wB7dd9O7w1
Lien ajouté le 25 juin 2024Pour une consultation directe sur une carte, voir l'appli développée en open data par @maeool [https:]]
— Sylvain Genevois (@mirbole01) June 19, 2024
2/
Le Grand Continent essaie de déterminer si la mobilisation de l’électorat de la gauche et du centre pourrait affaiblir le RN
— Sylvain Genevois (@mirbole01) June 18, 2024
Estimation à partir des flux électoraux du 1er tour des élections présidentielles de 2022 + élections européennes de 2024 [https:]]
12/ pic.twitter.com/QYD1O8x4qx
Liens ajoutés le 28 juin 2024Daniel Breton (Visual Data Flow) propose une série de data-visualisations par région
— Sylvain Genevois (@mirbole01) June 25, 2024
Le symbole est proportionnel au nb de voix exprimées par commune. Le demi-disque pour la liste arrivée en 2e est proportionnel au pourcentage de voix de la 1ère liste [https:]]
14/ pic.twitter.com/AjVbFmh5zE
À retrouver sur [https:]]
— Datagif (@Datagif) June 27, 2024????CARTE DE FRANCE DES SWING-CIRCOS
— Tom Jakubowicz (@TomJakubowicz) June 26, 2024
Dans quelles circos le scrutin s'annonce-t-il le plus serré ? En croisant les résultats des législatives de 2022 et des européennes, j'ai établi une carte interactive qui donne une idée des rapports de force ? (1/N) [https:]]??Swing Circos
— Anthony Veyssiere (@inwebitrust) June 28, 2024
?? Mise à jour de la projection en prenant en compte les derniers sondages [https:]]
Environ 80 circos indécises vont dépendre des reports de voix/désistements entre le Front Populaire et Ensemble pour savoir si elles basculent ou non au RN
?? pic.twitter.com/90qdZJ9zKAMerci pour cet article! J'ai essayé de faire une carte au niveau des bureau de vote - c'est aussi un joli défi !
— Julien Gaffuri @julgaf@mapstodon.space (@julgaf) June 26, 2024
Voir ici: [https:]]Le billet est complété au fur et à mesure des cartes et données publiées sur Internet...
Articles connexes
Analyser les cartes et les données des élections législatives de juin 2022 en France
Portraits des circonscriptions législatives en France (2022)
La carte, objet éminemment politique : exemple des élections européennes
Les résultats des élections européennes du 26 mai 2019 en cartes et en graphiques
Recueil de cartes électorales pour les élections européennes de 2019
Les Européens se sentent-ils plus attachés à l'Union européenne, à leur pays ou à leur région ?
Cartes et simulateur de votes de l'Observatoire électoral du Grand Continent
Cartes et données sur l'enseignement et la formation en Europe (source Eurostat)
Baisse de la part des jeunes dans la population de l’Union européenne d’ici 2050
Le vieillissement de la population européenne et ses conséquences -
18:51
Cartes sur le débarquement en Normandie (6 juin 1944)
sur Cartographies numériques
L'anniversaire du débarquement en Normandie donne lieu chaque année à une floraison de cartes sur le sujet. Le D-Day est désormais célébré comme un événement historique et patrimonial. L'Anniversaire des 80 ans du Débarquement en 2024 n'a pas dérogé à la règle. Sans prétention à l'exhaustivité, ce billet vient proposer une recension en distinguant les plans et documents cartographiques produits à l'époque et les reconstitutions historiques que l'on peut trouver aujourd'hui sous forme d'infographies ou de cartes animées. Nous y avons ajouté une rubrique concernant les problèmes posés par ces représentations cartographiques et la vigilance à avoir par rapport à des productions qui relèvent souvent plus du sensationnel et de la promotion touristique que de l'information historique et géographique.I) Cartes et plans contemporains du débarquement
Le 6 juin 1944, 156 000 Américains, Britanniques, Canadiens et quelques troupes françaises libres commencent à attaquer les forces allemandes en Normandie (nom de code de l'opération amphibie : Neptune). Les troupes alliées arrivent sur les plages d'Utah, d'Omaha, de Gold, de Juno et de Sword. Les épais bunkers en béton du Mur de l'Atlantique sont quasiment imprenables. Quelques Allemands armés de mitrailleuses imposent un lourd tribut aux Américains. Il n'y a aucun endroit où se cacher. Les Britanniques, forts de leur expérience à Dieppe en 1942, sont mieux préparés et souffrent un peu moins. Evénement hautement symbolique, le débarquement de Normandie marque le début d'une vaste opération qui vise à créer une tête de pont alliée de grande échelle dans le Nord-Ouest de l'Europe, et à l'ouverture d'un nouveau front à l'ouest.
La Bibliothèque du Congrès fournit une collection de cartes de situation du 12e groupe d'armée. Cette série de cartes donne un aperçu quotidien des opérations de l'armée américaine depuis le débarquement allié en Normandie le 6 juin 1944 jusqu'en juillet 1945, reflétant les informations dont dispose le général Omar Bradley (Library of Congress). Ces cartes sont disponibles en animation sur le site du Chronoscope.
Our 12th Army Group Situation Map collection provides insight into WWII US Army operations from the June 6, 1944 Allied landings in Normandy through July 1945, reflecting the information available to Gen. Omar Bradley.
— LOCMaps (@LOCMaps) June 6, 2024
Explore the full collection here: [https:]] pic.twitter.com/XT7iGKpwZkLe douzième groupe d’armées américain contrôlait la majorité des forces américaines sur le front occidental. Les cartes représentent les positions quotidiennes des troupes alliées et de l'Axe telles que comprises par l'état-major des opérations. Les cartes ont été dressées pendant le brouillard de la guerre et comportaient souvent des informations incomplètes et inexactes. Cependant, elles constituent une source d'informations inestimable sur les mouvements des troupes et un guide important sur la progression des troupes alliées à travers l'Europe occidentale après le jour J et jusqu'à la fin de la Seconde Guerre mondiale.
Les bibliothèques de l'Université du Texas possèdent deux cartes secrètes US BIGOT montrant Omaha Beach Est et Ouest. BIGOT était un nom de code pour l'Opération Overlord et la liste BIGOT comprenait les noms de tout le personnel qui avait été autorisé à connaître les détails de l'Opération Overlord. Les informations fournies sur les cartes suggèrent qu'elles ont été réalisées pour aider les navires à débarquer sur Omaha Beach (des cartes ont également été créées pour Utah Beach). Les cartes fournissent des détails sur les profondeurs d'eau, les obstacles de la plage, les laisses de basse mer, les bancs de sable, etc. Elles fournissent également une image panoramique de la plage vue de la mer (Les cartes secrètes du Débarquement par Jules Grandin - Les Echos)
« 6 juin 1944, débarquement en Normandie : des photographies aériennes du Jour J » (Un regard sur la Terre). Il n'y avait pas encore de satellites d’observation en juin 1944. Mais un grand nombre de photographies aériennes ont été prises avant, pendant et après le jour J.
« Comment le guide Michelin 1939 en est venu à jouer un rôle crucial pour orienter les Alliés lors du D-Day » (Le Monde).
Ce bel hommage en forme de clin d’œil médivaliste à la broderie de Bayeux, a été publié à la Une du New Yorker le 15 juillet 1944 : « Mare navigavit D-day… »
Le 15 juin 1944, le New-Yorker consacre sa Une au Débarquement avec une illustration médiévaliste : une reprise et actualisation de la broderie (pas tapisserie) de Bayeux ! Petit thread pour décrypter chaque case... ?? ! #histoire #6juin2024 #DDay pic.twitter.com/8HiP5iqXLI
— Actuel Moyen Âge (@AgeMoyen) June 7, 2024En 1946, le maréchal britannique Montgomery publia Normandy to the Baltic, un récit personnel de la campagne de libération de l'Europe, depuis le débarquement en Normandie le jour J jusqu'à la défaite finale de l'Allemagne. Le livre est un compte rendu détaillé des opérations, des batailles, de la logistique de la campagne visant à ouvrir un deuxième front à l'ouest. Ce qui rend ce livre assez original, ce sont les deux pochettes à l'avant et à l'arrière du livre qui contiennent un total de 47 cartes en couleur et 3 diagrammes. Les cartes détaillent la campagne depuis le jour J jusqu'à la fin de la guerre.
II) Cartes et infographies proposant des reconstitutions historiques
Légende Cartographie a produit une cartographie animée du débarquement en Normandie qui permet de reconstituer le mouvement des troupes. A découvrir également sous forme de carte statique ainsi qu'une infographie donnant la chronologie détaillée des événements.
6-7 Le débarquement du 6 juin 1944 - La bataille de Normandie pic.twitter.com/T5KsHq4HtF
— LegendesCartographie (@LegendesCarto) June 8, 2024A l'occasion du 75e anniversaire, Visactu a produit une infographie assez efficace. Les drapeaux des pays engagés viennent souligner l'engagement des pays alliés face à l'Allemagne hitlérienne. La coordination des opérations est renforcée par les flèches jumelées que l'on retrouve sur de nombreuses cartes du débarquement.
Il y a 75 ans, le #débarquement en Normandie.
— Visactu (@visactu) June 6, 2019
Notre carte du #JourJ est à découvrir sur le site du quotidien @lestrepublicain : [https:]] #DDay75thAnniversary #DDay pic.twitter.com/yyxCwqwxE7Série de cartes explicatives sur Dday.Overlord.com. Le site propose un grand nombre de cartes à différentes échelles permettant d'analyser le détail des opérations.
Sur le site Cartolycée, Jean Christophe Fichet fournit une carte de synthèse Le débarquement du 6 juin 1944 : Overlord, la reconquête. Le chapitre 3 du programme d'Histoire de Terminale générale fixe un point de passage et d’ouverture sur le débarquement du 6 juin 1944 en Normandie et l’opération Bagration en Europe de l'Est. La cartographie s’attache à l’opération Overlord menée par les Alliés sur le front ouest. Elle est complétée par un corpus documentaire qui permet de lier l’étude aux approches plus générales sur cette question telles que l’étendue du conflit ou l’extrême violence et les enjeux de la guerre.
Rappel cartolycée : le #débarquement du 6 juin 1944 en Normandie - Overlord la reconquête #DDay [https:]] pic.twitter.com/Cb3OWSMY2Q
— jc fichet (@cartolycee) June 5, 2024Traditionnellement les cartes de manuels scolaires montrent les étapes des combats et la coordination des opérations entre Alliés (voir par exemple cette carte indiquant le positionnement des opérations Spring et Cobra dans la Bataille de Normandie). La tendance aujourd'hui est de replacer le débarquement dans le cadre plus large de la libération de l'Europe par les Alliés (voir par exemple la carte du débarquement proposée par le magazine L'Histoire).
Rhodes Cartography souligne le fait que les cartes de D-Day montrent soit la zone immédiate des débarquements, soit le schéma global de l'opération Overlord, rarement les deux ensemble. Il propose de donner une vue macro et micro en une seule image d'un voyage effectué par un groupe de navires.
80 years ago thousands of ships were approaching the French coast. This map shows the 70-hour transit of Convoy U2A(1): left Salcombe 6/3, recalled 6/4 after passing the halfway point, touched at Portland on 6/5, and arrived on H-Hour at Utah Beach 6/6. #DDay80 @USNavy pic.twitter.com/B4t2GIytXO
— Rhodes Cartography (@RhodesMaps) June 5, 2024Timelapse montrant les 87 jours de combat après le débarquement (Reddit). L'animation montre que les Alliés ont mis beaucoup de temps à progresser au cours des mois de juin et juillet, avant d'arrriver à opérer une percée.
80 years ago today, more than 160,000 Allied troops embarked on a historic mission to liberate Europe from tyranny and oppression.
— Xavi Ruiz (@xruiztru) June 6, 2024
This excellent map shows 87 days of combat in Normandy.
US united marked in blue, Canadian in red, British in orange and Axis in black. pic.twitter.com/N6cqmdfNCpL'événement donne lieu aujourd'hui à un important tourisme de mémoire en Normandie. C'est tout particulièrement perceptible au moment des cérémonies d'anniversaire, telle celle qui a eu lieu pour le 80e Anniversaire du Débarquement le 6 juin 2024 (voir la carte des événements). La région Normandie a publié à cette occasion une étude des usages et des retombées économiques de ce tourisme de mémoire.
L'IGN a édité une carte Normandie Jour J – 6 juin 1944 pour commémorer son 80ème anniversaire. Cette carte à l’échelle du 1:100 000 (1 cm = 1 km) présente les plages du débarquement, les positions des différents corps d’armée et l'évolution du front du 06 juin au 18 août 1944. Vous y trouverez également des informations sur les sites touristiques du conservatoire du littoral, sur les vestiges et cimetières militaires ainsi que les musées existants. Réalisée en partenariat avec le comité du 75ème anniversaire Bataille de Normandie-terre de liberté, cette carte propose une légende et des informations éditoriales en trois langues (français, anglais et allemand).
Carte historique Michelin n° 102, réimpression de l'édition de 1947. Cette carte éditée par le service du Tourisme Michelin au lendemain de la Seconde Guerre mondiale est l'une des premières à lancer le tourisme mémoriel lié au débarquement. Voir sa transcription en carte thématique.
« Carte. Voici l’histoire du Débarquement à travers dix sites emblématiques à visiter en Normandie » (Ouest France)KilRoyTrip est une carte interactive des mémoriaux de la Seconde Guerre mondiale en Normandie. Il constitue « un guide pour ceux qui visitent la région et s'intéressent au débarquement et à la libération de la France ».
« A la veille des 80 ans du D-Day, le business mémoriel bat son plein en Normandie » (La Tribune). Profitant du 80ème anniversaire de l’opération Overlord du 6 juin 1944, les entreprises normandes ont joué à fond la carte du tourisme de mémoire. En ligne de mire, les millions de visiteurs attendus sur les plages du débarquement.
« 80e D-Day : près de chez vous, quelles rues portent un nom lié au Débarquement ? » (Ouest France)
« Les bunkers, un patrimoine archéologique à préserver » (France Culture). Sur plus de 4 400 kilomètres de côtes, le mur de l'Atlantique a constitué le réseau de défenses du IIIe Reich. Sur ces 8 000 fortifications, nombre d'entre elles ont d'ores et déjà disparu. Les archéologues s'appuient sur la carto-interprétation en se basant sur les photographies aériennes, surtout les couvertures IGN de 1947 par exemple, qui permettent de retrouver ces bunkers.
III) Problèmes posés et vigilance à avoir par rapport à ces représentations du débarquement« 80 ans du D-Day : des livres, des films et des jeux vidéo pour se replonger dans le Débarquement » (France-Info)
« Comment "Le Jour le plus long" a façonné notre imaginaire du Débarquement... et ses clichés » (France Culture).
« D-Day : cette vidéo spectaculaire vous plonge dans des conditions immersives inédites » (TF1-Info). La vidéo propose de vivre le Débarquement dans des conditions immersives grâce à la technologie de la capture volumétrique. Ce type de reconstitution spectaculaire a tendance à privilégier le sensationnel.
« 80 ans du Débarquement : l’opération Fortitude", cette fake news sur le Pas-de-Calais qui a permis aux Alliés de tromper les nazis » (La Dépêche).
Le documentaire « Apocalypse. Les débarquements » (France 2), écrit et réalisé Isabelle Clarke et Daniel Costelle, retrace en deux épisodes les préparatifs de cette opération et le jour de cette offensive d'ampleur. Consacré aux débarquements en Normandie et en Provence, il retrace le terrible fiasco des répétitions du D-Day (France Info). Plus de 300 heures d’archives ont été nécessaires pour réaliser ces deux épisodes racontés par Mathieu Kassovitz.
Toujours le même problème avec ces documentaires. L'infographie et la cartographie sont traitées comme la 5e roue du carrosse. D'où à chaque fois des énormités cartographiques. #mapfail ?? [https:]] pic.twitter.com/zyv7QG3vtf
— ?????? Guillaume Balavoine ????? (@gbalavoine) June 5, 2024« De de Gaulle à Macron, comment s’est construite la mémoire française du D-Day » (L'Opinion). Le jeune historien Benjamin Massieu décrit l'évolution des commémorations, qui changent dans les années 1980 avec la mise en avant du sauveur américain.
Jusque dans les années 1980, les commémorations du débarquement sont essentiellement militaires : les chefs d'État ne sont pas représentés. Le tournant est dû à François Mitterrand qui, en 1984, transforme la cérémonie militaire d'alors en cérémonie politique où sont invités les chefs d'État. L'historien Olivier Wieviorka note ainsi : « dorénavant, les commémorations ne sont plus axées sur l'idée de victoire, mais sur l'idée de paix, de réconciliation et de construction européenne ». En 1945, un sondage Ifop demandait aux Français : « Quelle est la nation qui a le plus contribué à la défaite de l’Allemagne nazie ? » Réponse : URSS à 57 % et États-Unis à 20 %. En 2004, les chiffres s’étaient inversés32. Entre les deux, il y a eu la chute du bloc soviétique et le fantastique succès des films hollywoodiens, qui, du Jour le plus long (1962) à Il faut sauver le soldat Ryan (1998), ont redessiné le souvenir des derniers mois de la guerre ».
« 80 ans de la Libération : enseigner des faits, transmettre des récits » (France Culture). Comment s'emparer des commémorations du Débarquement et de la Libération de façon éclairante et pédagogique, et donner des clés pour comprendre cette période dans toute sa complexité ?
Articles connexes
Une carte animée des opérations militaires en Europe pendant la 2nde Guerre mondiale
L'histoire par les cartes : la carte animée des missions aériennes des Alliés pendant la 2e Guerre mondiale
L'histoire par les cartes : l'Asie du Sud-Est à travers des cartes japonaises élaborées pendant la 2e Guerre mondiale
L'histoire par les cartes : les archives du Musée mémorial de l'Holocauste à Washington
L'histoire par les cartes : cartographier la déportation des Juifs de France
Des images aériennes déclassifiées prises par des avions-espions U2 dans les années 1950
Ukraine : comment cartographier la guerre à distance ?
Cartes et atlas historiques
-
10:09
TimeMap, un moteur de recherche pour trouver des cartes historiques par zones géographiques
sur Cartographies numériques
TimeMap est un site web créé par Old Maps Online, Map Tiler et le David Rumsey Map Center pour explorer des cartes historiques. Le corpus disponible comprend 500 000 documents, ce qui en fait un moteur puissant pour trouver des cartes anciennes. La sélection des cartes se fait par période (à travers la barre chronologique) et par zoom géographique (directement sur la carte). Le site existait depuis plusieurs années mais il s'est considérablement enrichi en 2024 avec l'ajout de nouvelles cartes de la collection David Rumsey.Interface du moteur de recherche visuel TimeMap.org
L'application utilise largement Wikipédia pour fournir un contexte aux cartes historiques. On peut effectuer des recherches par noms de régions, par personnages, dirigeants ou batailles. Le principal intérêt du site est de permettre de chercher des cartes par zones géographiques que l'on peut ensuite comparer ou annoter (en mode édition). Pour bénéficier des avantages de la recherche avancée ou se constituer une collection de cartes en favoris, il faut créer un compte (gratuit).
Plus qu'un atlas historique, TimeMap.org est un moteur de recherche visuel de cartes anciennes. La cartographie qui sert d'outil de navigation y est d'ailleurs assez sommaire. Les territoires ne correspondent pas toujours aux délimitations historiques qui ont souvent beaucoup changé au cours du temps.
Il convient de ne pas confondre avec le site Timemaps.com qui repose sur un abonnement payant. Il ne s'agit pas non plus des Timeline-maps proposées par le site David Rumsey qui sont des cartes originales pour représenter des chronologies historiques.
Le composant TimeMap d'OldMapsOnline permet aux utilisateurs de mieux comprendre le contexte historique d'une carte en fournissant des informations cliquables sur les personnes et les événements qui y sont associés. A noter qu'il existe d'autres outils pour partager ou annoter des cartes en ligne.
Articles connexes
Annoter et partager des images et des cartes numériques en haute résolution en utilisant des outils IIIF
Chronoscope World, une machine à remonter le temps avec des cartes
Rechercher du texte sur les cartes de la collection David Rumsey
Un outil immersif pour explorer les globes de la collection David Rumsey
Comment géoréférencer une carte disponible dans Gallica ?
Derrière chaque carte, une histoire. La cartographie du détroit de Magellan entre science et imaginaire
Les story maps : un outil de narration cartographique innovant ?
Cartes et atlas historiques -
9:07
Cartes et simulateur de votes de l'Observatoire électoral du Grand Continent
sur Cartographies numériques
L’Observatoire électoral du Grand Continent est un nouveau projet structurant du Groupe d’études géopolitiques — le centre de recherche stratégique domicilié à l’École normale supérieure qui édite le Grand Continent — et de sa revue scientifique, BLUE (Bulletin des élections de l’Union européenne) qui documente depuis 2021 l’ensemble des élections dans l’Union européenne. L'objectif est d'explorer en profondeur et d’une manière interdisciplinaire, multiscalaire et plurilingue les transformations de la démocratie européenne, en étudiant une tendance tectonique – l’européanisation de la politique.
Page d'accueil de l'Observatoire électoral du Grand ContinentAvec plus de 2,3 millions de data points et plus de 750 graphiques, cartes et tableaux, l’Observatoire électoral du Grand Continent propose la première plateforme mise à jour quotidiennement agrégeant l’ensemble des sondages pertinents au niveau national, analysant et représentant les résultats électoraux de l’échelle municipale à celle continentale, publiant des analyses fouillées, des entretiens doctrines et de la cartographie dans un même espace.
Afin de couvrir l’élection européenne du 6-9 juin 2024, l’Observatoire publie un générateur automatique de coalitions basé sur des projections de la composition du prochain Parlement européen.
Par ailleurs, l'Observatoire propose une carte des résultats des élections européennes à l’échelle locale, régionale et nationale à partir des données officielles publiées par les offices statistiques des 27 États membres. L'intérêt est de pouvoir comparer les résulats sur deux élections (2019 et 2024) et selon différents niveaux d'analyse (NUTS 1 - 2 et 3).
Les résultats des élections européennes à différentes échelles (source : Observatoire électoral du Grand Continent)
Articles connexesUn article qui relie la montée de l'euroscepticisme dans l’UE aux problèmes de développement régional. Avec des cartes et graphiques utiles sur la question
— Sylvain Genevois (@mirbole01) June 4, 2024
"The Geography of EU Discontent and the Regional Development Trap" (Economic Geography) [https:]] pic.twitter.com/lsTs4mEcw3
Cartes et graphiques sur les élections européennes de 2024
La carte, objet éminemment politique : exemple des élections européennes
Les Européens se sentent-ils plus attachés à l'Union européenne, à leur pays ou à leur région ?
Baisse de la part des jeunes dans la population de l’Union européenne d’ici 2050
Simulateur de vote et résultats aux élections présidentielles aux États-Unis
Dis-moi où tu vis, je te dirai ce que tu votes ? (Géographie à la carte, France Culture)
-
10:09
Séminaire, juin 2024
sur Neogeo TechnologiesLe séminaire annuel de Neogeo réalisé cette année dans les locaux de GEOFIT à Nantes s’est achevé avec succès.
Ces quelques jours ont été remplis de moments partagés donnant lieu à des discussions passionnantes, d’ateliers interactifs et d’échanges inspirants.
Nous tenons à remercier chaleureusement tous les participants pour leur présence et leur engagement le tout dans la bonne humeur. Un immense merci également à nos intervenants (TEICEE) pour leurs présentations éclairantes et leur expertise.
Ce séminaire a été une formidable opportunité pour renforcer le lien entre les équipes, nos connaissances, élargir nos horizons et créer de nouvelles connexions professionnelles.
Nous sommes impatients de mettre en pratique les idées et les stratégies discutées.Publié le 07/06/2024
Séminaire annuel NEOGEO c’est parti…
Rien de mieux qu’une formation DevOps pour mettre les équipes autour d’une table et discuter de l’amélioration continue de nos processus de développement
C’est aussi l’occasion de découvrir les salles de réunion du nouveau siège du groupe GEOFIT à Nantes.Publié le 05/06/2024
-
19:00
Retour sur le colloque "souveraineté et données géolocalisées : le temps de l'action" du 4 juin dernier !
sur Conseil national de l'information géolocaliséeRetour sur le colloque "souveraineté et données géolocalisées : le temps de l'action" du 4 juin dernier ! -
19:00
Retour sur le colloque "souveraineté et données géolocalisées : le temps de l'action" du 4 juin 2024 !
sur Conseil national de l'information géolocaliséeRetour sur le colloque "souveraineté et données géolocalisées : le temps de l'action" du 4 juin 2024 !
-
21:04
Géopolitique des céréales
sur Les cafés géographiquesGéopolitique des céréales, sous la direction de Sébastien ABIS,
Editions EYROLLES, 2024Cet album, de taille modeste mais au contenu très dense, traite de ce qui constitue la moitié des calories consommées sur la planète, les céréales, cultivées, transformées, transportées, utilisées à des fins politiques. Sur les 40 fiches proposées, 20 sont consacrées au blé, à deux échelles, mondiale et française, 20 traitent des autres céréales et des produits alimentaires les plus populaires conçus à partir des céréales. Chaque thème est abordé par un texte de deux courtes pages, un « focus » qui en développe un aspect majeur ou peu connu et une illustration (carte, graphique ou schéma).
Les médias généralistes suscitent régulièrement les inquiétudes de leurs lecteurs en annonçant les pénuries futures de matières premières et de ressources énergétiques mais peu évoquent des pénuries possibles, voire probables, de produits alimentaires. Sur les 700 millions d’hectares cultivés dans le monde (à peu près la surface de l’Australie), la moitié est consacrée aux céréales. Or celles-ci constituent la moitié des calories consommées par la population mondiale. Trois fiches font de la « géopolitique-fiction » (2040, 2050, 2060). Elles présentent plutôt des scénarios catastrophes. Est-ce pour nous alerter ? En 2040 il faudra nourrir 9 milliards d’hommes alors que les incidents climatiques seront de plus en plus fréquents et que les superficies emblavées seront réduites par l’artificialisation des sols et le souci de conserver la biodiversité. A ces inquiétudes il faut ajouter la volonté de puissance de certains Etats qui peuvent utiliser l’« arme du blé ». La sécurité alimentaire se pose dans des termes difficiles.
Même si le blé n’a plus que le deuxième rang (après le maïs) dans la production céréalière, sa consommation est vitale pour une population mondiale dont l’urbanisation a changé les habitudes alimentaires. Partout sur la planète, on consomme du blé sous des formes différentes. Or si la Chine et l’Inde sont les premiers producteurs mondiaux, la Russie, troisième producteur, est, depuis cinq ans, le premier exportateur mondial (25% à 30%) et le changement climatique devrait lui permettre d’étendre largement ses terres cultivables (à contrario, les sécheresses vont affecter lourdement les « terres à blé » aux Etats-Unis, en Europe, en Australie…). Même si l’Union européenne reste le deuxième exportateur mondial – mais il n’y a pas de politique céréalière extérieure commune -, beaucoup de pays d’Afrique du Nord, du Moyen-Orient et d’Asie du Sud-Est sont et seront très dépendants de la Russie. Néanmoins la sécheresse récente dont a souffert récemment le sud du pays montre que son pouvoir sur la scène internationale n’est pas inébranlable. Par contre l’Ukraine a réussi à empêcher la catastrophe économique engendrée par l’invasion russe de février 2000. Les exportations de grains – dont une majorité de blé- qui n’atteignaient plus 500 000 tonnes en mars 2022, ont été de 7 millions de tonnes en avril 2024. Le conflit logistique a été gagné par les Ukrainiens grâce aux « nouvelles voies de solidarité » (terrestres et fluviales) et au corridor maritime de la mer Noire.
Au sein des pays de l’U.E., la France occupe une place privilégiée (5ème producteur et 5ème exportateur mondial). Le blé occupe 20% de la S.A.U. (2) et a des rendements élevés. Ces résultats sont remarquables pour un pays qui a connu le rationnement jusqu’en 1949. Mais le blé français (comme tous les blés européens) est dépendant des engrais riches en azote (150-200 kg/ha), nécessaires à une forte teneur en protéines. Or l’azote provient du gaz naturel fourni jusqu’alors par…la Russie. Il faut donc miser sur la recherche agronomique pour faire des progrès dans la génétique végétale et les engrais bas-carbone pour assurer notre sécurité alimentaire.
Depuis la fin du XXe siècle, le maïs est la céréale prédominante. Les Etats-Unis, la Chine, le Brésil et l’Argentine fournissent 70% de la récolte mondiale annuelle et 90% des exportations. L’U.E., première zone d’importation, se fournissait principalement en Ukraine qui connait une baisse drastique de ses exportations. Ce choix s’explique par le label « sans O.G.M. » du maïs ukrainien, à la différence des maïs produits sur le continent américain. L’expansion du maïs – qui occupe actuellement 1/8 des terres cultivées – suscite des controverses. Alors que des millions de personnes sont sous-alimentées et que la croissance démographique va se poursuivre jusqu’en 2050, est-il raisonnable de consacrer 60% de la première céréale mondiale à l’alimentation animale et un pourcentage non négligeable à la fabrication du bioéthanol et à divers usages industriels ?
Production asiatique par excellence, le riz réclame des conditions de culture très exigeantes, climatiques particulièrement, qui risquent d’être très impactées par le changement climatique. Or il est nécessaire d’accroître rapidement la production. La Chine, premier pays producteur, est aussi importatrice et en Inde, premier exportateur, 40% de la population souffre de malnutrition. Seulement 10% de la production sont commercés dans le monde. Pourtant c’est en Afrique subsaharienne, faible productrice, que la demande augmente le plus rapidement (la croissance de la demande est de 6% par an). Et la production africaine ne satisfait que 55 à 60% de la consommation. Entre 2023 et 2050, la population africaine doit doubler. Il est donc indispensable de revenir aux céréales traditionnelles, mils et sorgho.
Mils et sorgho sont des céréales à redécouvrir car elles ont des qualités nutritives et sont peu exigeantes en matière climatique et écologique. La F.A.O. (2) en fait la promotion sans rencontrer beaucoup de succès jusqu’alors.
Assurer la sécurité alimentaire de leur population dans les décennies à venir constitue donc un défi difficile à relever pour beaucoup d’Etats. Ils doivent non seulement faire aux risques naturels induits par le changement climatique mais aussi aux stratégies de puissance de quelques grands pays. Le conflit ukrainien en donne un exemple. On a déjà évoqué la dépendance de nombreux Etats à l’égard des blés russes. Il faut aussi souligner l’action de la Chine qui, bien qu’importatrice elle-même, utilise les besoins africains en riz pour accroître son influence. La deuxième puissance mondiale pratique une politique de stockage des céréales (blé, maïs, riz) à grande échelle. Elle détient plus de 50% des stocks mondiaux de céréales, ce qui lui permet de faire face à d’éventuelles mauvaises récoltes mais aussi lui donne du pouvoir sur les acheteurs.
Certains produits alimentaires fabriqués à partir de céréales contribuent au soft power des Etats dans lesquels ils ont été conçus, par leur notoriété mondiale. Ils sont porteurs d’une identité nationale, qu’il s’agisse de la tortilla mexicaine d’origine précolombienne, de la pasta italienne exportée dans le monde par les migrants italiens dès la fin du XIXe siècle et bien sûr de la baguette française de tradition (les normes de fabrication ont été fixées par décret) qui a été classée au patrimoine culturel immatériel de l’UNESCO en 2022. Le sushi, produit culturel japonais largement diffusé depuis la fin du XXe siècle, était à l’origine une méthode de conservation du poisson. Aliment et boisson, la bière est le premier alcool au monde (180 milliards de litres sont consommés par an dans le monde. C’est un vrai produit de la mondialisation qui était déjà fabriqué dans l’Antiquité (Mésopotamie, Egypte…). Les grands producteurs de bière (Chine, Etats-Unis, Brésil, Mexique et Allemagne) utilisent du malt produit dans des malteries, secteur dans lequel la France est leader mondial (premier producteur et premier exportateur mondial depuis 1967) grâce à son haut niveau d’expertise. 1 pinte sur 5 bue dans le monde est faite avec du malt français ! la production française de bière (6ème rang mondial) est un secteur dynamique, créateur d’emplois qui font une large place aux cadres jeunes et féminins.
Nous pouvons clore cette présentation « en élevant le débat ». La culture des céréales a été génératrice de « grandes cultures » : les premières civilisations du Moyen Orient, il y a plus de 10 000 ans. Les croyances et rituels religieux leur ont accordé une grande place symbolique (par exemple, le pain dans le sacrement de l’Eucharistie).
L’étude des céréales nous a permis de traiter de géographie, de géopolitique, d’histoire, de gastronomie…et même de religion !
(1) A.U. : surface agricole utilisée. Elle comprend l’ensemble des terres arables, les pâturages et les cultures permanentes
(2) FAO : Organisation des Nations Unies pour l’alimentation et l’agricultureMichèle Vignaux, juin 2024
(Ce compte rendu a pu bénéficier d’informations glanées dans le webinaire organisé par S. Abis et son équipe pour accompagner la sortie de l’ouvrage).
Les illustrations ont été reproduites avec l’aimable autorisation des Editions Eyrolles.
-
8:00
Recolt’ô et GeoRivière des innovations en gestion de l'eau à tester
sur Makina CorpusFort de nos expertises en logiciel libre et en gestion de l’eau, nous avons conçu deux applications innovantes pour œuvrer en faveur de la protection de l’environnement et agir face au changement
-
21:49
Data Journaliste : Portrait de Raphaëlle Aubert de la société éditrice Le Monde
sur GeomatickLes Données libres (ou Open Data) représentent des sources d’informations importantes dans de nombreuses thématiques comme l’environnement. Les traitements et la valorisation de ces données offrent la possibilité de proposer des applications diverses pour les acteurs publics et privés. Informer sur des sujets à partir de différentes sources de données… Continuer à lire →
L’article Data Journaliste : Portrait de Raphaëlle Aubert de la société éditrice Le Monde est apparu en premier sur GEOMATICK.
-
9:16
Climadiag Commune v2 : à quoi ma commune devra-t-elle s'adapter en 2030, 2050, 2100 ?
sur Makina CorpusMétéo-France a mis en place Climadiag Commune afin de rendre accessible une synthèse des évolutions climatiques attendues d’ici 2050 pour chaque commune ou intercommunalité, en France métropolitaine.
-
19:08
Quand Israël et la Palestine « disparaissent » des cartes scolaires. Le cas de l'Arabie saoudite
sur Cartographies numériquesLes manuels scolaires cristallisent souvent des débats politiques. Un rapport d'étude publié en mai 2024 par l'ONG israélienne IMPACT-se (Institut pour le suivi de la paix et de la tolérance culturelle dans l’éducation scolaire) s'intéresse aux dernières évolutions des manuels scolaires saoudiens. Des mots considérés comme hostiles à Israël ont été supprimés à plusieurs endroits du programme, en particulier des termes tels que « ennemi » ou « ennemi sioniste », ainsi qu'une grande partie du contenu académique qui mettait en garde contre les ambitions israéliennes dans la région et les tentatives d'expulsion des Palestiniens de leurs terres. « Israël » n'est toujours pas mentionnée sur les cartes, mais le nom « Palestine » a aussi été supprimé de la plupart des cartes sur lesquelles il figurait auparavant, laissant ce territoire dans le vide et l'indétermination. Toutefois comme le précise le rapport, les pays n’ayant pas de frontière avec l’Arabie saoudite ne sont en général pas mentionnés nominalement sur ces types de cartes qui ont tendance à faire apparaître l'Arabie saoudite comme une « île » entourée d'espaces vierges. La question se pose de savoir si cette « disparition » du nom d'Israël et de la Palestine dans les manuels scolaires correspond à un simple choix pédagogique ou à une volonté politique de normalisation de la part de l'Arabie saoudite par rapport à Israël et au reste du monde ?
Extrait d'un manuel de sciences humaines de 5e année montrant la Palestine sans nom sur l'édition de 2023 contrairement à l'édition de 2022 (source : rapport d'étude IMPACT-se de mai 2024)
« Polémique. Les cartes des nouveaux manuels scolaires saoudiens ne mentionnent ni Israël ni la Palestine » (Courrier International)
Un rapport annuel récemment publié par une ONG israélienne montre les dernières évolutions des manuels scolaires saoudiens. Nombre de médias arabes s’offusquent : les nouveaux manuels s’emploieraient à biffer la Palestine “pour faire plaisir à Israël”. Qu’en est-il en réalité ?
« L’Arabie Saoudite supprime la "Palestine" des cartes de ses programmes scolaires. La normalisation approche-t-elle ? » (Arabi21)
L’Arabie Saoudite se dit ouverte à une normalisation avec « Israël », mais à la condition de reconnaître un État palestinien. Le Royaume d’ Arabie Saoudite a supprimé la « Palestine » des cartes de plusieurs manuels scolaires, laissant l’espace vide, alors que les discussions se multiplient sur l’approche d’une normalisation israélienne avec Riyad, qui l’obligerait à reconnaître l'« État d’Israël » sur la majeure partie des territoires occupés et à l’inclure dans ses programmes.
« Quand la "Palestine" disparaît de certaines cartes scolaires en Arabie saoudite » (L'Orient le Jour)
En 2023 déjà, l’Institute for Monitoring Peace and Cultural Tolerance in School Education rappelait dans un rapport que « presque tous les exemples décrivant les chrétiens et les juifs de manière négative » ont été supprimés des manuels scolaires saoudiens. Ce n’est pas la première fois que les programmes scolaires saoudiens sont soumis à des modifications pour des raisons politiques. Ils ont fait l’objet d’un examen minutieux en Occident après les attentats du 11 septembre, au cours desquels 15 des 19 pirates de l’air étaient saoudiens. Depuis, le royaume a progressivement supprimé les contenus radicaux de ses manuels.
Pour télécharger le rapport d'étude d'IMPACT-se : Updated Review Saudi Textbooks 2023–2
Ce rapport IMPACT-se sur les manuels scolaires saoudiens 2023-24 examine les changements curriculaires au cours des cinq dernières années. Un examen complet de 371 manuels scolaires publiés entre 2019 et 2024 révèle une évolution vers la paix et la tolérance selon les normes de l'UNESCO. Les représentations négatives des infidèles et des polythéistes, ainsi que les représentations des pratiques chiites et soufies comme hérétiques, ont diminué. Les exemples problématiques promouvant le jihad et le martyre ont été supprimés ou modifiés, et des améliorations notables ont été constatées en matière de représentation des genres et de réduction des contenus homophobes, bien que les rôles traditionnels de genre et l'interdiction du travestissement demeurent. Le programme montre un fort dévouement à la cause palestinienne, mais avec des représentations révisées d’Israël et du sionisme, éliminant le contenu qui définissait auparavant le sionisme comme un mouvement « raciste ». Malgré ces changements, Israël n’est toujours pas reconnu sur les cartes, les références à la « Palestine » ont été réduites, l’Holocauste est absent et Israël est qualifié d’« occupation israélienne » ou d’« occupants israéliens » en ce qui concerne la guerre de 1948.
A titre de comparaison, un rapport d'IMPACT-se sur les manuels scolaires israéliens : Arabs and Palestinians in Israeli Textbooks 2022?23
Ce rapport IMPACT-se offre un aperçu des principaux thèmes liés aux Arabes et aux Palestiniens dans les manuels scolaires israéliens en langue hébraïque approuvés par le gouvernement couvrant l'éducation civique, la géographie, les études hébraïques, l'histoire, la patrie, la société et l'éducation civique, les études israéliennes, la pensée juive et la culture judéo-israélienne. La recherche explore comment des leçons, des images et des exercices spécifiques décrivent et façonnent les attitudes envers les Palestiniens et les Arabes issus de divers horizons au sein de la société israélienne et de la région. Il évalue la représentation des conflits arabo-israéliens et israélo-palestiniens, du processus de paix et de l’Autre arabe et palestinien – vivant en tant que citoyens d’Israël, à Jérusalem, en Cisjordanie, dans la bande de Gaza et ailleurs. Cette analyse porte sur 107 manuels scolaires enseignés dans les écoles publiques et religieuses approuvées par le ministère israélien de l’Éducation pour l’année scolaire 2022-2023. Il s’agit notamment de l’intégralité du corpus des huit manuels d’éducation civique approuvés par l’État (parmi lesquels les écoles pouvaient choisir), ainsi que de la majorité des manuels d’histoire traitant des périodes du conflit israélo-arabe. Ce faisant, ce rapport se concentre sur six catégories thématiques : « Éducation à la paix », « L'expérience palestinienne », « Diversité et valeurs démocratiques », « Introspection, violence et injustice », « Har Bracha : perspective de Cisjordanie, » et « Cartographie ». Le rapport montre que de nombreuses cartes reconnaissent les localités des Palestiniens et des Arabes israéliens, marquant notamment la Ligne verte et indiquant les territoires contrôlés par l'Autorité palestinienne. Cependant, ces cartes sont souvent incohérentes en ce qui concerne la représentation de la Cisjordanie. La plupart des cartes représentent les zones A et B, représentant divers degrés de contrôle palestinien (conformément aux accords d'Oslo) ; d'autres ne montrent que la zone A ; certaines ne montrent aucune différenciation spatiale entre les territoires israéliens et palestiniens. La zone C (essentiellement contrôlée par Israël) n’est généralement pas indiquée sur les cartes, mais expliquée dans les textes qui l’accompagnent.
Liens ajoutés le 2 juin 2024
Cependant, ces cartes sont souvent incohérentes en ce qui concerne la représentation de la Cisjordanie. La plupart représentent les zones A et B, avec divers degrés de contrôle palestinien ; d'autres ne montrent que la zone A
— Sylvain Genevois (@mirbole01) June 3, 2024
6/ pic.twitter.com/iUmCOaTjc4Dans un manuel d'éducation civique pour les classes de 7e à 9e, une caricature montre une carte d'Israël avec la ligne d'armistice de 1949 autour de la Cisjordanie. Elle invite les élèves à voir leur pays en portant des lunettes différentes (laïque, religieuse, juive, autre..)
— Sylvain Genevois (@mirbole01) June 3, 2024
8/ pic.twitter.com/WzjnOrSx8iCe 2e rapport donne aussi bcp d'exemples de cartes historiques reconnaissant les Juifs et les Arabes dans la région à une période donnée
— Sylvain Genevois (@mirbole01) June 3, 2024
10/ pic.twitter.com/hGzU9DHE0ALes manuels scolaires cristallisent souvent des débats politiques. Leur analyse a priori permet d'aborder ces questions. Elle ne préjuge pas des utilisations réelles qui en sont faites en classe et des discours et analyses des enseignants et des élèves à partir d'elles12/— Sylvain Genevois (@mirbole01) June 3, 2024
Lien ajouté le 3 juin 2024
Israël-Palestine : quelles géographies ? Politique étrangère, vol. 89, n° 2, 2024
— Sylvain Genevois (@mirbole01) June 3, 2024
L'article de M. Foucher insiste sur le rôle des cartes pour légitimer la colonisation israélienne qui aurait nui à l'inscription territoriale d'un État palestinien [https:]] pic.twitter.com/Ruyx5inAu1Articles connexes
La carte, objet éminemment politique : la carte officielle de l'Arabie saoudite
Le Moyen-Orient, une construction instable et récente : la preuve en cartes et en schémas
Décrypter le conflit Israël-Hamas à partir de cartes
La carte, objet éminemment politique : la cartographie du Moyen-Orient entre représentation et manipulation
La carte, objet éminemment politique : l’Etat islamique, de la proclamation du « califat » à la fin de l’emprise territoriale
La carte, objet éminemment politique : Nétanyahou menace d'annexer un tiers de la Cisjordanie s'il est réélu
La carte, objet éminemment politique : la montée des tensions entre l'Iran et les Etats-Unis
-
7:14
Plugin QGIS French Locator Filter 1.1.0 : API Photon et personnalisation avancée !
sur OslandiaAvec près de 50 000 téléchargements depuis sa première version, le plugin QGIS French Locator Filter est utilisé par de nombreux utilisateurs Français. Nous avons dernièrement eu l’occasion de le faire évoluer à l’occasion d’un projet client mais de façon significative et qui profite à tout le monde ! on prend enfin le temps de vous présenter la nouvelle version 1.1.0 !
Pour rappel ce plugin permet simplement une recherche sur la BAN (Base Nationale des Adresses) depuis la barre de recherche de QGIS (en bas à gauche de l’interface principale).
French Locator Filter dans le gestionnaire d’extensions de QGIS 3.34 LTR
Mais pourquoi une nouvelle version pour un plugin qui semble déjà répondre aux besoins des utilisateurs (on n’a quasiment aucune demande entrante) ? Tout simplement parce qu’un de nos clients avait besoin d’un autre service de géocodage et qu’on s’est dit qu’il était bien mieux de le partager avec tous plutôt que de garder ça pour nous/eux.
Encore une bonne raison pour tous d’adhérer aux principes de l’OpenSource !
- Le client : la Métropole du Grand Lyon
- Le projet : refonte de l’application Dryade (outil de gestion du patrimoine arboré) pour un passage sur QGIS
- Le besoin : permettre l’utilisation d’un outil de recherche d’adresse adossé à un service internalisé et basé sur Photon
Il s’agit d’une API de recherche d’adresse (géocodage) basée sur les données OpenStreetMap (OSM). Développé par Komoot, le service utilise ElasticSearch pour les recherches et se présente comme une alternative au vénérable Nominatim. Si vous voulez essayer, une instance publique est à disposition et disponible sur le site officiel de la solution : [https:]] .
document.createElement('video'); [https:]]L’API se rapproche de celle d’Addok, brique logicielle de géocodage développée pour les besoins de la BAN et désormais bien connue et intégrée un peu partout (notamment sur adresse.gouv.fr et la Géoplateforme de l’IGN). La Métropole du Grand Lyon a déployé une instance en interne dont on peut consulter la documentation parmi les autres services liés à Data Grand Lyon.
Plutôt que de faire un autre plugin de géocodage, nous avons décidé de mutualiser un maximum de code et d’intégrer le géocodage Photon dans les fonctionnalités du plugin QGIS French Locator Filter. Certes, un travail plus long mais plus pérenne et profitable à beaucoup plus d’utilisateur/ices.
Fonctionnellement, cet ajout permet d’avoir un service indépendant avec des résultats complémentaires.
Une personnalisation plus pousséeEn plus de l’enrichissement fonctionnel, nous avons également fait en sorte de rendre le plugin davantage configurable de façon à permettre à un organisme de configurer l’instance de l’API Addok ou Photon à utiliser. Accoutumés à travailler sur les problématiques de déploiement et de configuration de QGIS sur les parcs informatiques, nous en avons profité pour rendre ces différents paramètres réglables via des variables d’environnement.
French Locator Filter 1.1.0 – Variables d’environnement
Aidez vous à mieux géocoder dans QGISNous souhaiterions aller encore plus loin avec le French Locator Filter et nous cherchons des partenaires pour :
- ajouter un autre service normé de géocodage, par exemple celui de la Géoplateforme de l’IGN
- aller encore plus loin dans notre intégration à QGIS avec l’utilisation de l’interface (QgsGeocoderInterface)
- profiter de cette intégration pour proposer un service de géocodage inversé
- ajouter la recherche par lot via une intégration au processing QGIS
N’hésitez pas à nous contacter sur infos@oslandia.com
Encore merci à nos partenaires SmartOrigin et Métropole du Grand Lyon qui nous ont fait confiance pour cette prestation.
Les paramètres du plugin
-
7:04
Topographie et topologie dans et autour de QGIS
sur OslandiaLa réflexion sur la topographie et la topologie dans et autour de QGIS s’est accélérée chez Oslandia depuis 2018 et l’arrivée de Loïc Bartoletti.
Deux questions ont alimenté cette réflexion :
- Comment dessiner directement dans le SIG en intégrant des outils de dessin inspirés du monde de la DAO dans QGIS ;
- Comment intégrer des plugins pour les calculs topographiques directement dans QGIS.
Pour cela, Oslandia a travaillé sur plusieurs axes : formation, développement de plugins open source et améliorations dans QGIS.
1- Les pluginsLes plugins ci-dessous ont été développés par Oslandia ou par des partenaires, avec des contributions Oslandia :
- landsurveycodesimport : [https:]]
Un plugin pour les topographes qui travaillent avec la méthodologie de codification des points de topographie. - QompliGIS : [https:]]
Un outil pour conformer son jeu de données, son plan par rapport à un cahier des charges. - Total Open Station : [https:]]
Projet open source né à l’initiative d’archéologues italiens et français, c’est un outil pour convertir les différents formats de carnets de terrain des appareils des topographes. - Topaze : [https:]]
Un outil de calcul topométrique développé avec Jean-Marie Arsac (Azimut). Il s’agissait d’une preuve de concept que ce genre de calculs peut se faire dans un SIG.
Ces plugins peuvent être utilisés à différents moments d’un projet. On peut les utiliser tous ensemble ou seulement ceux dont on a besoin et les intégrer dans des traitements.
2- Les améliorations sur QGISOslandia se mobilise également pour apporter des améliorations dans le cœur QGIS. Ces dernières années, nos équipes ont notamment travaillé sur :
— intégration d’outils de forme : cercles, ellipses, rectangles, polygones réguliers, … ;
— amélioration des outils d’accrochage ;
— amélioration du support des coordonnées Z et M ;
— amélioration des outils topologiques (relations entre les géométries).À venir, la possibilité d’utiliser les plugins de vérification et de correction de la géométrie et de la topologie directement dans les outils de traitements de QGIS développé par Jacky Volpès et Loïc Bartoletti.
3- Les formationsOslandia est certifié QUALIOPI et propose un programme de formations autour de QGIS et QField :
- Dessin : passer de la DAO au SIG avec QGIS : [https:]]
- La topographie avec QGIS (LSCI, Topaze, QompliGIS, Total Open Station)
- Formation à QField
- Déploiement de QField Cloud
« En 2023, 89 personnes ont été formées par Oslandia, qui recommandent nos formations à 90,9% »
4- Et QField ?Depuis la mise en œuvre du partenariat avec OPENGIS.ch, Oslandia propose des prestations de déploiement de serveurs QField Cloud, des formations et de l’assistance QField.
5- À venir !Plusieurs billets techniques sont en cours de préparation : comment ouvrir les fichiers DAO dans un SIG ? Quelles différences entre QField et LSCI ? Vous pourrez les retrouver sur notre site dans les prochaines semaines.
Par ailleurs, nous préparons un livre blanc sur le thème de la migration de la DAO vers QGIS que nous devrions sortir en septembre.
Restez connectés !
-
14:00
Réaliser des cartes avec Blender - Partie 1
sur GeotribuRéaliser des cartes de relief avec le logiciel libre 3D Blender. Partie 1 : préparer les données avec GDAL et/ou QGIS.
-
8:49
Plongez dans l'aventure au cœur du Comminges avec Geotrek !
sur Makina CorpusNouvelle expérience de randonnée avec Geotrek-Rando-v3En 2019, la Communauté de communes Cœur et Coteaux du Comminges a franchi une étape majeure dans l
-
17:49
Le Blanc des cartes. Quand le vide s'éclaire (Atlas Autrement)
sur Cartographies numériques
Sylvain Genevois, Matthieu Noucher. Le Blanc des cartes. Quand le vide s'éclaire. Atlas Autrement, mai 2024. Cartographe : Xemartin Laborde.Lors de la publication d’un nouvel atlas, les auteurs s’interrogent en général sur les connaissances géographiques qu’ils souhaitent porter au regard et à l’analyse du lecteur. C’est du moins ainsi qu’ont longtemps été produits les atlas géographiques dans l’idée de dévoiler le monde en partant de ses éléments constitutifs : d’aller des « pleins » aux « vides », du visible à l’invisible. Le présent atlas prend le parti résolument inverse en choisissant de s’intéresser d’abord au vide. Le Vide – dans un sens absolu – n’existe pas sur la planète. S’il n’y a rien, c’est déjà qu’il y a quelque chose...
Absence d’informations ou de données, oublis involontaires ou invisibilisation à des fins politiques ou culturelles, les blancs laissés sur les cartes ne sont pas neutres. Ces zones vides décuplent la curiosité et parfois même les fantasmes de ce qu’elles représentent ou peuvent cacher. Ce qui est vide est-il le reflet du rien ? Alors que nous sommes aujourd’hui saturés de données disponibles, des blancs sur les cartes subsistent. Les auteurs dévoilent ici, grâce à une quarantaine de cartes, un nouveau monde et révèlent la diversité de ces « silences » cartographiques.
PLAN DE L'ATLAS
Introduction. Pour un atlas du vide
I) DU DÉLUGE AUX DÉSERTS DE DONNÉES
Google Street View, une vision fragmentée du monde
Les fonds marins. Une exploration encore lacunaire
OpenStreetMap, une carte mondiale ?
Quand le vide en dit plus que le plein
Les territoires invisibilisés
Sous le blanc des nuagesII) FAIRE PARLER LES BLANCS DES CARTES
Null Island
Latitude Zéro
Point Nemo
« Null value », « Null countries »
Isohypse zéro
Zéro pointéIII) REPRÉSENTER LE VIDE
Personne n’habite ici
Plus personne ne réside ici
Personne n’est connecté ici
Rien à voir ici ?IV) RÉVÉLER OU MASQUER LE BLANC
Quiet zone
Le brouillard de la guerre
Combler les blancs de la carte
Rendre visible la relégation
Faire exister les blancs
Balises AIS et pêche illégale
Survol aérien interditCONCLUSION
ANNEXES
Bibliographie
Sources
Les auteursPour en savoir plus, voir le site de l'éditeur.
Personne n'habite ici (source : Le Blanc des cartes. Quand le vide s'éclaire)
Dans ce type de représentations, le vert exprime ce qui en principe est laissé en blanc pour évoquer le « vide » démographique ou la très faible densité. En réalité, ces zones sont humanisées et mises en valeur, l'occupation humaine étant seulement non permanente.
Le vide et l’absence sont à prendre en compte de trois manières dans cet Atlas :
- Lorsque l’information géographique n’a pas été jugée suffisamment importante pour être cartographiée ;
- Lorsqu’on en a une notion trop vague ;
- Lorsque l’on choisit, pour toutes sortes de motifs conscients ou inconscients, de la rendre invisible. Brian J. Harley a souligné que les « silences cartographiques » n’ont rien d’oublis naïfs, mais peuvent relever d’intentionnalités politiques ou culturelles et agir sur nos imaginaires.
- Absence de données = vrais blancs. Cela peut correspondre aussi bien à des données non disponibles (ND), non connues ou non communicables (NC) ;
- Données floues = autre couleur, en général le gris qui est plus à même de représenter les « zones grises » liées à des zones de conflits, d’instabilité économique, de trafics en tout genre où le maintien de l’opacité des données peut être volontaire ;
- Valeurs inversées = choix d'une autre couleur qui tranche (en général le vert dans le cas de la série de cartes « Personne n'habite ici ») de manière à faire ressortir le phénomène.
Pour en savoir plus« Le blanc des cartes : quand le vide s’éclaire » (CR des Clionautes)
« Le Blanc des cartes : ce qu’il révèle » (Le Mag du Ciné)
« Le blanc des cartes : les mystères du vide ? » (France Culture)
« Le Blanc des cartes, l’envers à moitié vide » (Libération)
#BlancsDesCartes : sélection de ressources sur le sujet (X-Twitter)
Liens ajoutés le 5 juin 2024
Qu’est-ce que le point Nemo ?
— Sylvain Genevois (@mirbole01) May 14, 2024
C’est le point de l’océan le plus éloigné de toute terre émergée sur la planète. Mais il fait également office de décharge spatiale #BlancsDesCartes [https:]]Chaque océan a son pôle d'inaccessibilité (point Nemo), même si le plus éloigné de toutes terres habitées est le point Nemo du Pacifique #BlancsDesCartes [https:]] [https:]] pic.twitter.com/AznW2X7jza
— Sylvain Genevois (@mirbole01) September 18, 2024L'état du déploiement de la 5G dans le monde (2019-2023) selon l'entreprise Ookla#BlancsDesCartes et trous noirs informationnels [https:]]
— Sylvain Genevois (@mirbole01) April 28, 2024Lien ajouté le 28 mai 2024
Dans cette « carte morale et politique du monde habité » de William C. Woodbridge (1821), les usages du noir et du blanc sont subtils #BlancsDesCartes
— Sylvain Genevois (@mirbole01) May 28, 2024
Un dégradé permet de distinguer des degrés de civilisation avec des intermédiaires... [https:]]
1/ pic.twitter.com/uFmQSwjBTaLien ajouté le 23 juin 2024
Carte de l'Amérique du Nord (1702) par le jésuite Heinrich Scherer qui étudie la propagation de la foi catholique #BlancsDesCartes
— Sylvain Genevois (@mirbole01) June 22, 2024
Blancs = territoires où la foi catholique est pratiquée
Zones sombres = territoires protestants ou non encore christianisés [https:]] [https:]] pic.twitter.com/Hq8DtfyuisArticles connexes
Blancs des cartes et boîtes noires algorithmiques
« Personne n'habite ici » ou comment cartographier le vide ?
Atlas critique de la Guyane (par Matthieu Noucher et Laurent Polidori)
Cycle de conférences « L’illusion cartographique » (Bordeaux, Octobre 2020 – Avril 2021)
Quand Israël et la Palestine « disparaissent » des cartes scolaires. Le cas de l'Arabie saoudite
Atlas des pays qui n'existent plus. 50 États que l'histoire a rayés de la carte
Sous le calque, la carte : vers une épistémologie critique de la carte (Denis Retaillé)
Dire et changer le monde avec les cartes (émission "Nos Géographies" sur France-Culture)
-
6:56
[Equipe Oslandia] Jacky, ingénieur SIG / développeur Python C++
sur OslandiaChaque mois, nous avons le plaisir de vous présenter un membre de l’équipe, aujourd’hui c’est Jacky qui a répondu à nos questions
Jacky a effectué 7 ans de sa scolarité à la maison lui permettant de consacrer du temps à des activités plus « libres » que le cadre strict de l’enseignement traditionnel. Il découvre très jeune l’informatique, la programmation mais apprend aussi le braille, s’adonne à la pêche, à l’astronomie, à la danse ou à la musique. C’est en candidat libre qu’il obtient son Bac Scientifique. Il poursuit ses études avec un DUT Mesures Physiques, en alternance chez Schneider Electric, et un diplôme d’Ingénieur Électronique et Informatique industrielle à Polytech Grenoble en alternance chez STMicroelectronics.
Il passe 3 ans chez ST au sein du service R&D avant de rejoindre en tant qu’ingénieur / chercheur le CEA Leti et plus précisément le service lithographie à faisceau d’électrons où il travaille à anticiper la déformation sur le silicium (EBPC – Electron Beam Proximity Correction). Il reste 3 ans au CEA.
« Je voulais sortir du côté grosse entreprise, j’ai été embauché chez Unistellar, une start-up qui préparait son Kickstarter. J’ai travaillé sur son téléscope intelligent (avec traitement d’images en direct) connecté piloté par le smartphone et plus précisément sur la stabilisation du code embarqué, afin de créer le prototype assez avancé pour trouver des investisseurs »
Pour des raisons familiales, Jacky rejoint Aix en Provence et commence à travailler pour la société du Canal de Provence pour renforcer l’équipe de développeurs QGIS. Il découvre les SIG et QGIS !
« Au CEA, je travaillais dans le traitement géométrique et chez Unistellar également, je suis passé de l’infiniment petit à l’infiniment grand, pour être à l’échelle terrestre aujourd’hui. Je retrouve des traitements similaires au final. »
C’est sa collègue du Canal de Provence qui lui fait connaitre Oslandia à travers des contributions QGIS. Jacky est embauché chez Oslandia en 2021 au poste d’ingénieur SIG / développeur Python C++.
« On peut dire que je suis parti en éclaireur, Gwendoline, ma collègue nous a rejoint 6 mois après mon arrivée. »
Jacky travaille au développement de modules Python pour QGIS et depuis 6 mois, sur le développement QGIS cœur en C++.
Ses projets emblématiques- Avec L’INRAE : plugin QGIS Python d’aide à la décision pour la création de réseaux d’assainissement – [Plus d’infos]
- Avec l’agence spatiale canadienne : plugin GQIS python pour le suivi de vols de ballons stratosphériques – [Plus d’infos]
Python et C++
Sa philosophieTout est relatif !
Oslandia en 1 motPartage !
-
11:30
Du 10 au 12 décembre 2024 à Lille : formation "savoir utiliser DV3F"
sur Datafoncier, données pour les territoires (Cerema)Publié le 22 mai 2024Une session de formation "Savoir utiliser DV3F" se tiendra du 10 au 12 décembre 2024 dans les locaux du Cerema Hauts-de-France à Lille.Cette session est à destination des bénéficiaires des fichiers DV3F et des bureaux d'études.Vous trouverez le contenu et le coût de la formation dans la rubrique AccompagnementInscription jusqu'au 15 novembre (…)
Lire la suite -
11:30
Du 8 au 10 octobre et du 5 au 6 novembre 2024 à Lille : formation "Données Foncières"
sur Datafoncier, données pour les territoires (Cerema)Publié le 19 août 2024Une session de formation "savoir utiliser les Fichiers Fonciers" se tiendra du 8 au 10 octobre 2024 dans les locaux du Cerema Hauts-de-France à Lille.Cette session est à destination des bénéficiaires des Données Foncières (Fichiers fonciers et DV3F) et des bureaux d'études.Vous trouverez le contenu et le coût de la formation dans la rubrique AccompagnementInscription jusqu'au 27 septembre (…)
Lire la suite
-
8:00
Nouvelle formation Python Calcul Scientifique
sur Makina CorpusNotre nouvelle formation Python pour le Calcul Scientifique
: Découvrez NumPy, Pandas, SciPy, Matplotlib et Plotly
-
16:30
Du 24 au 26 septembre 2024 à Lille : formation "savoir utiliser les Fichiers fonciers"
sur Datafoncier, données pour les territoires (Cerema)Publié le 20 août 2024Une session de formation "Savoir utiliser les Fichiers fonciers" se tiendra du 24 au 26 septembre 2024 dans les locaux du Cerema Hauts-de-France à Lille.Cette session est à destination des bénéficiaires des Fichiers fonciers et des bureaux d'études.Vous trouverez le contenu et le coût de la formation dans la rubrique AccompagnementInscription jusqu'au 6 septembre (…)
Lire la suite
-
7:19
Direction de la Sûreté SNCF x accompagnement QGIS et QGIS Server
sur OslandiaLa Direction de la Sûreté, rattachée à la Direction Générale, est transverse au groupe SNCF et opère des missions de sécurisation des biens et des personnes. En appui de ses missions, la Direction de la Sûreté s’est dotée d’un système d’hypervision qui comporte une visualisation cartographique des équipements, personnels et évènements.
Afin de garantir le bon fonctionnement du système d’hypervision, la Direction a choisi de se doter d’outils et serveurs cartographiques indépendants de l’hyperviseur lui-même, et pour ce faire a choisi notre accompagnement autour de QGIS Server.
Oslandia propose en effet une maintenance forfaitaire qui garantit à la SNCF un fonctionnement inaltéré de son hyperviseur.
Contributeur essentiel de la solution open source QGIS, Oslandia dispose de la plus grande équipe française de développeurs experts QGIS et propose une offre de support unique en France [https:]] !
-
20:22
Mesurer la ségrégation scolaire aux États-Unis sur les 30 dernières années
sur Cartographies numériquesL'outil Segregation Explorer offre une visualisation des niveaux de ségrégation entre écoles et districts aux États-Unis. Développé par l'Educational Opportunity Project de l'Université de Stanford, ce site de cartographie interactive permet d'étudier les niveaux de ségrégation à différentes échelles (États, zones métropolitaines, districts scolaires et quartiers).
Les données concernent plus particulièrement la ségrégation raciale et économique sur la période 1991 à 2022. Ces données temporelles montrent que la ségrégation entre blancs et noirs dans les écoles aux États-Unis a augmenté de 35 % depuis 1991. Certains des comtés les plus ségrégués se trouvent dans de grands districts urbains (tels par exemple Los Angelès, Philadelphie et New York). Ces zones présentent des disparités significatives dans la composition raciale et économique des écoles, reflétant des tendances de ségrégation nationale plus larges au cours des dernières décennies. Il est possible d'explorer différents types de ségrégation à travers le visualisateur en ligne ou en téléchargeant les données disponibles au format csv ou stata.
Ségrégation blancs-noirs par États et pourcentage de blancs par écoles en 2022 (source : Segregation Explorer)
En cliquant sur un établissement scolaire, il est possible d'obtenir des données détaillées sur l'évolution de sa composition en comparaison du district dans lequel il est implanté.
L'Educational Opportunity Project de l'Université de Stanford constitue une base de données nationale sur les performances des établissements scolaires. Son objectif est de créer des applications, des rapports de recherche et des articles de manière à « mesurer les opportunités éducatives dans chaque communauté des États-Unis » (voir ce billet concernant les problèmes posés par la cartographie des "opportunités éducatives").
Le groupe New America, qui conduit une réflexion sur les questions d'inégal financement des écoles dans le cadre de son Education Funding Equity Initiative, a également publié une carte interactive qui visualise la ségrégation des districts scolaires par race et niveau de pauvreté. La carte Crossing the Line identifie les 100 districts scolaires les plus ségrégués sur le plan racial et sur le plan des taux de pauvreté. Selon ces données, Birmingham en Alabama possède certains des districts scolaires les plus ségréguées du pays. En raison de la longue tradition de ségrégation raciale en matière de logements aux États-Unis, on observe une baisse de valeur des propriétés dans les « communautés de couleur » (noires, hispaniques et asiatiques). Étant donné que le financement des écoles dépend généralement des niveaux d'impôts fonciers locaux, les districts scolaires des zones où la valeur foncière est inférieure se retrouvent à dépenser moins par élève que ceux des zones plus riches. Selon New America, en moyenne, « les districts accueillant plus d'étudiants de couleur perçoivent 2 222,70 $ de moins en revenus locaux par élève que les districts à prédominance blanche ».
Taux de pauvreté par districts scolaires (source : New America)
Pour rappel, la ségrégation fondée sur la race dans les écoles publiques a été en principe déclarée inconstititutionnelle par la Cour suprême des Etats-Unis depuis 1954. Voir la série d'images et de cartes-caricatures sélectionnées par @DavidKleinKS sur ce sujet.Articles connexes
Présentation de l'Opportunity Atlas et des problèmes d'interprétation qu'il pose
Le niveau d'études aux Etats-Unis à travers une carte par densité de points
Données SIG sur les écoles publiques en Californie
Les ségrégations raciales aux Etats-Unis appréhendées en visualisation 3D et par la différence entre lieu de travail et lieu d'habitat
La cartographie des opportunités dans les quartiers des grandes métropoles : un outil au service de la justice spatiale ?
Étudier les mobilités résidentielles des jeunes Américains à partir du site Migration Patterns
Le « redlining » : retour sur une pratique cartographique discriminatoire qui a laissé des traces aux Etats-Unis
La suppression de la Racial Dot Map et la question sensible de la cartographie des données ethniques aux Etats-UnisÉtudier les inégalités entre établissements scolaires à partir de l'Indice de position sociale (IPS)
Etudier les mobilités scolaires à partir des données de déplacements domicile-études de l'Insee
-
17:14
Comment bien préparer son Parquet
sur Icem7De plus en plus de bases sont désormais diffusées en parquet, ce format de données compact, maniable et spectaculairement rapide à interroger. Des outils simples le permettent.
J’observe pour autant ici ou là quelques défauts de préparation qui amoindrissent les avantages de ce nouveau format. Il est facile de les corriger avec un peu de vigilance, les bons outils, et le réflexe de tester ses fichiers avec quelques requêtes types.
7 points d'attention1 – Des colonnes facilitant l’écriture d’une requête
Cela commence par des noms de colonnes simples à comprendre et à écrire dans une requête : en minuscules, sans accents ni blancs, d’une longueur modérée, par exemple inférieure à 15 caractères. Plutôt que « Code du département », on choisira par exemple « code_dept ».
À l’inverse, l’obscur « nb_vp » peut être précisé en « nb_veh_part » (pour nombre de véhicules particuliers).
On peut aussi ajouter des colonnes qui serviront souvent à filtrer le jeu de données. Pour des données quotidiennes renseignées avec un champ date, n’hésitons pas à placer un champ annee. En parquet, il ne prendra pas beaucoup de place, grâce à la compression.
2 – Définir les bons types de colonne
Une colonne de nombres codés en caractères n’est pas utilisable en l’état. La pire situation : des nombres avec virgule stockés comme du texte. De même, une date doit être décrite selon le type date : on pourra ainsi plus facilement la trier, en extraire le mois ou le jour de la semaine.
Je vois encore fréquemment des codes commençant par 0, comme un code département, qui perdent leur 0 : 09 devient 9, ou 04126 devient 4126. Voilà qui va compromettre les jointures avec d’autres fichiers bien construits.
Quelques optimisations plus fines amélioreront les performances : stocker un champ complexe (json, liste, hiérarchie) non comme du texte mais comme json, map ou struct. Un entier gagnera à être typé comme tel, et non comme float ou double ; un logique comme booléen et non « True » ou « False ».
3 – Trier le fichier selon une ou deux colonnes clés
Le tri est un critère essentiel : une requête filtrée sur un champ trié sera jusqu’à 10 fois plus rapide. Les requêtes de plage sur un fichier parquet permettent dans ce cas de cibler et réduire les seules plages à lire dans le fichier.
Par ailleurs, un fichier trié sur un ou deux champs de faible cardinalité (peu de valeurs distinctes) sera bien plus léger, bénéficiant d’une compression plus efficace.
Cas typiques : trier par année, puis code géographique ; trier un répertoire par code Siren ; trier un fichier géographique (geoparquet) par geohash.
4 – Choisir la meilleure stratégie de compression
Réduire la taille d’un fichier parquet n’est pas une fin en soi. Ce qui importe est de trouver le meilleur compromis entre gain de transfert et vitesse de décompression.
Le contexte d’usage doit aussi être pris en considération : le fichier parquet sera-t-il souvent accédé en ligne (auquel cas la bande passante et donc la compression des données transmises comptent), ou plutôt sur disque local rapide (et là on se passera volontiers du temps de décompression, et donc de la compression).
En pratique, la compression ZStd est la plus intéressante (davantage que le défaut Snappy) : elle est efficace et rapide à décoder.
5 – Ajouter une colonne bbox à un fichier geoparquet
Un fichier geoparquet décrit des données localisées qu’on voudra souvent filtrer à partir d’une emprise, typiquement un rectangle d’extraction. Chaque entité du geoparquet bénéficiera de la présence d’une colonne bbox (de type struct) définissant son rectangle englobant, conformément à la spécification geoparquet 1.1 en préparation.
La géométrie dans un géoparquet peut être codée en WKB ou en GeoArrow. Ce second format est bien plus performant et sera intégré à la spec geoparquet 1.1. Mais il faudra attendre encore un peu pour qu’il soit suffisamment adopté, notamment en lecture.
6 – Servir un fichier parquet à partir d’un stockage physique et non à la volée en API
Certaines plateformes proposent des formats parquet générés à la volée. Le processus est toujours affreusement lent (parquet est un format subtil et complexe à fabriquer). Et il compromet le requêtage direct en ligne car les métadonnées principales d’un parquet sont stockées à la fin du fichier. On perd donc la formidable possibilité propre à Parquet de réduire les plages de données à lire.
Parquet est un format de diffusion qui doit être stocké physiquement pour pouvoir être scanné rapidement (et bénéficier de la mise en cache des requêtes de plage).
7 – Affiner si besoin le nombre de row groups
Un fichier Parquet se structure en groupes de lignes (row groups), puis en colonnes. La taille de ces groupes de lignes doit être optimisée selon les usages pressentis : plutôt large si le fichier doit souvent être lu en grande part, plus réduite si les requêtes sont plutôt très sélectives (ce sera par exemple plus fréquent avec un fichier géographique).
Rappels sur la structure d'un fichier parquetParquet est un format orienté colonne, mais il organise d’abord en groupes de lignes dans lesquels il dispose bout à bout les données des différentes colonnes. Ces « column chunks » ou morceaux de colonne sont compressibles et, comme chaque colonne présente un type homogène, cette compression est efficace.
Un fichier parquet est truffé de métadonnées : au niveau supérieur, décrivant la structure du fichier (nombre de lignes, liste des colonnes et leur type…) et au niveau de chaque row group : valeurs min et max de chaque column chunk, nombre de valeurs distinctes…
Un moteur de requête va prioritairement lire ces zones de métadonnées avant de décider quelles « plages de bits » extraire. Il lui est ainsi souvent possible de sauter plusieurs row groups dont il comprend qu’ils ne peuvent satisfaire la requête courante. Par ailleurs, seules les données des colonnes spécifiées dans la requête seront scannées. C’est tout l’intérêt d’un format orienté colonne.
[https:] L'importance du triPrenons le cas d’un fichier non trié et d’une requête sélective, qui précise un critère de filtrage. Le schéma suivant matérialise en orange foncé les lignes à extraire des colonnes visées. Chaque row group en comprend, si bien qu’il va falloir extraire les données contenues dans tous les column chunks colorés.
Quand le fichier est trié selon un ou deux champs clés, et que la requête filtre sur l’un de ces champs, notamment le premier, il y aura forcément un certain nombre de row groups « hors champ ». Par exemple, si j’extrais l’année 2018 d’un fichier comprenant des données quotidiennes entre 2010 et 2020, et que le fichier est d’abord trié par année.
Avec nettement moins de données à lire, la requête sera bien plus rapide. C’est ainsi que l’on peut requêter un fichier de 1 Go en ligne, en ne chargeant que quelques Mo de données.
Quels outils utiliser pour optimiser son Parquet ?J’ai testé la conversion d’un fichier CSV de 5 Go et 25 millions de lignes (une base du recensement de l’Insee) en parquet, avec différents outils. Ce fichier est délimité par des ; et comprend entre autres une douzaine de codes pouvant commencer par 0.
DuckDB est l’outil plus maniable et le plus efficace : rapide, automatique, simple d’écriture.
Outil
Temps en minutes
Taille en Mo du parquet
Commentaires
Polars/Rust
1
500
Spécifier délim et types des codes avec 0 en 1er
DuckDB Cli threads 4
1
350
Trop facile DuckDB Cli
1,5
350
Trop facile R/Arrow
1,7
290
Spécifier délim et types des codes avec 0 en 1er
Python/Arrow
2
290
Spécifier délim et types des codes avec 0 en 1er
R/Parquetize
11
400
CATL et TYPL mal typés (ex : 1.0 à la place de 1)
Voici le meilleur compromis d’écriture avec DuckDB.
SET threads = 4 ; COPY 'data_recensement_2017.csv' TO 'data_recensement_2017.parquet' (compression zstd) ;
DuckDB reconnait tout seul le délimiteur français (;) et prend soin des colonnes avec des codes commençant parfois par 0. Enfin, l’outil DuckDB est super léger (25 Mo), s’installe et se lance en un clin d’œil.
Contrôler le nombre de threads, dans le cas de processus lourds, est souvent utile. Par défaut ce nombre équivaut au nombre de cœurs de la machine (12 dans mon cas, et réduire les threads du plan d’exécution à 4 accélèrera le traitement).
Polars dans Python est une bonne alternative (si vous utilisez déjà Python) pour une rapidité (équivalente). Mais Polars impose de spécifier le bon délimiteur et va maltraiter les colonnes de codes commençant par 0 si on ne le surveille pas de près.
Il faut donc lui préciser explicitement toutes les colonnes à préserver, c’est dissuasif et source d’erreurs. Enfin, le fichier généré est sensiblement plus gros. L’optimiser demanderait probablement à Polars plus de temps d’exécution.
import polars as pl pl.read_csv("data_recensement_2017.csv", separator = ';', \ dtypes = {'COMMUNE': pl.String}) \ .write_parquet("data_recensement_2017.parquet", \ compression = 'zstd', use_pyarrow = False)
Dans R, la librairie arrow semble la plus véloce pour assurer la conversion de csv vers parquet, bien qu’un peu moins que Polars. Et comme lui, elle exige de préciser le délimiteur et le type des colonnes avec des 0.
library(arrow) write_parquet(read_delim_arrow('data_recensement_2017.csv', delim = ';', as_data_frame = FALSE), 'data_recensement_2017.parquet', compression = 'zstd')
Autrement dit, si vous voulez travailler dans R ou Python, n’hésitez pas à utiliser la librairie DuckDB : c’est possible, plus simple à écrire, et plus rapide.
L'intérêt du partitionnement pour les très gros fichiersSi votre fichier parquet doit dépasser les 10 Go et qu’il est plutôt utilisé en local ou sur un cloud comme S3 ou GCS, il y a tout intérêt à le découper en plusieurs fichiers selon les modalités d’un ou plusieurs champs clés, ce que l’on appelle partitionner.
L’instruction suivante crée ainsi une série de sous-répertoires dans lequel figure un fichier parquet par région. Mais on peut partitionner sur 2 colonnes ou plus.
COPY 'data_recensement_2017.csv' TO 'export' (FORMAT PARQUET, PARTITION_BY (REGION), compression zstd)
Dans cet exemple, si la requête ne concerne qu’une région, seul le fichier pertinent sera interrogé.
FROM read_parquet('export/*/*.parquet', hive_partitioning = true) WHERE REGION = '76' ;
Le cas geoparquet est particulier. DuckDB sait lire ce format, mais pas encore le générer (NDR : annoncé pour juillet 2024). Il faut donc pour l’heure en passer par exemple par Python (geopandas) ou R (sfarrow), à partir d’un format SIG classique (geojson, shape, gpkg, etc.).
Plus simple, si vous disposez de QGIS : exporter/sauvegarder sous au format geoparquet. De plus QGIS (profitant en cela de GDAL) permet de choisir l’encodage WKB ou GeoArrow. GDAL devrait permettre prochainement de produire une colonne bbox servant d’index spatial.
Enfin, pour accélérer plus encore les requêtes filtrées par emprise, ce sera une excellente idée que de trier votre Geoparquet astucieusement selon un indice de grille comme Geohash, H3, S2 ou une « quadkey ».
Un tel « hash » géographique peut être calculé par exemple à partir du centroide de chaque entité géographique. Deux hashes voisins (grâce au tri par exemple) garantissent que les entités correspondantes sont spatialement voisines.
La gigantesque base en ligne OvertureMaps est organisée de cette façon, et de surcroit partitionnée, si bien que cette requête DuckDB d’extraction de 500 m autour de la tour Eiffel ne lit que 13 Mo de données :
LOAD spatial ; FROM read_parquet('s3://overturemaps-us-west-2/release/2024-05-16-beta.0/theme=places/type=*/*') SELECT ST_GeomFromWKB(geometry) AS geom, names, categories WHERE bbox.xmin > 2.2877 AND bbox.ymin > 48.8539 AND bbox.xmax
Jacob Wassemarman démontre par ces deux images la spectaculaire progression du partitionnement et du tri dans OvertureMaps.
Dans la version de janvier 2024, encore non optimisée, voici les rectangles englobants pour chaque fichier du partitionnement (à gauche) puis pour chaque row group (à droite) :
Depuis mars 2024, avec un partitionnement intelligent approchant les pays et un tri de chaque fichier par geohash, voici la différence, dont on comprend que l’impact sur l’efficacité des requêtes spatiales est radical :
Quelques instructions pour tester son fichier parquetUn fichier parquet comprend de nombreuses métadonnées, qu’il est facile de lire dans DuckDB.
-- Métadonnées générales : nombre de lignes, nombre de row groups FROM parquet_file_metadata('https://object.files.data.gouv.fr/data-pipeline-open/prod/elections/candidats_results.parquet'); -- Liste des colonnes avec leur type FROM parquet_schema('https://object.files.data.gouv.fr/data-pipeline-open/prod/elections/candidats_results.parquet'); -- Liste des row groups, de leurs colonnes et statistiques pour chaque colonne (min, max, valeurs distinctes, valeurs nulles, compression...) FROM parquet_metadata('https://object.files.data.gouv.fr/data-pipeline-open/prod/elections/candidats_results.parquet'); -- Métadonnées spécifiques, par exemple pour un geoparquet : bbox, type de géométrie, projection... SELECT decode(key), decode(value) FROM parquet_kv_metadata('s3://overturemaps-us-west-2/release/2024-05-16-beta.0/theme=places/type=*/*') WHERE decode(KEY) = 'geo';
Pour connaitre le plan d’exécution et en particulier la bande passante utilisée par une requête, EXPLAIN ANALYZE est incontournable et nous aide à déterminer, à partir d’un choix de requêtes types les plus probables, les meilleurs options de tri, voire de taille des row groups.
EXPLAIN ANALYZE FROM read_parquet('s3://overturemaps-us-west-2/release/2024-05-16-beta.0/theme=places/type=*/*') SELECT ST_GeomFromWKB(geometry) AS geom, names, categories WHERE bbox.xmin > 2.2877 AND bbox.ymin > 48.8539 AND bbox.xmax
- DuckDB – Parquet tips
- GeoParquet 1.1 coming soon! – Chris Holmes
- An Empirical Evaluation of Columnar Storage Formats – Xinyu Zeng & al.
- The Battle of the Compressors: Optimizing Spark Workloads with ZStd, Snappy and More for Parquet
- Sorting and Parquet – Pankaj Gupta
- GeoParquet Spatial Sorting/Indexing/Partitioning – Jacob Wasserman
- Completely In-fused ! Guillaume Sueur
- Parquet devrait remplacer le format CSV – icem7
- 3 explorations bluffantes avec DuckDB – Interroger des fichiers distants (1/3), icem7
L’article Comment bien préparer son Parquet est apparu en premier sur Icem7.
-
9:00
Makina Corpus met la cartographie libre à l'honneur en soutenant State of the Map France 2024
sur Makina CorpusMakina Corpus soutient State of the Map France à Lyon du 28 au 30 juin, l’événement qui rassemble les passionnés de cartographie et la communauté OpenStreetMap.
-
19:27
Cartes IGN, une application mobile pour comprendre le territoire et découvrir la France autrement
sur Cartographies numériques« On ne peut pas laisser des grands acteurs capturer la manière de nous représenter notre propre territoire ». L’Institut national de l'information géographique et forestière lance Cartes IGN, une nouvelle application mobile pour « comprendre le territoire et découvrir la France autrement ». Contrairement à Google Maps ou Apple Plans qui demandent de créer un compte et de s'enregistrer, il s'agit de « tout localiser sans être localisé ».
L'appli est en réalité une mise à jour de l'application mobile Géoportail. Son nouveau nom : Cartes IGN, repose sur les données de l’IGN et sur celles de l’outil collaboratif Openstreetmap, ce qui permet d'élargir les données au delà de celles déjà fournies par le Géoportail. Si l'application française ne comporte pas toutes les fonctionnalités de ses concurrentes américaines, elle permet malgré tout de tracer ses propres parcours à partir de données géolocalisées.
Est-ce un champ de maïs ? À quelle hauteur puis-je faire voler mon drone ? Combien y-a-t-il d’habitants dans cette commune ?... Cliquez simplement sur la carte interactive pour obtenir des informations détaillées sur ce qui vous entoure. Les curieux vont se régaler.
Survolez la France et observez l’évolution du territoire français à l’heure du changement climatique en comparant des cartes IGN ou des photographies aériennes de différentes époques. Vue du ciel, l’empreinte de l’homme sur le territoire est surprenante.
L'application Cartes IGN comprend 4 fonctionnalités principales
- Explorer
Accès à des données thématiques superposables pour découvrir la France : agriculture, environnement et risques naturels, foncier, immobilier et urbanisme, forêt, hydrographie, mer et littoral, services publics et administratif, tourisme et loisirs, transports. Découverte de points d'intérêt autour de soi ou proche d'un lieu Création de points de repère sur la carte
- Se déplacer
Calcul d'un itinéraire depuis sa position ou un autre point de départ
Tracer son propre parcours point à point en suivant ou non les routes et les chemins - Comparer
Comparer des photographies aériennes anciennes ou actuelles
Comparer des cartes (plan IGN, carte de l'état-major, carte de Cassini...) - Importer
Import d'itinéraires
Import de points de repères
Télécharger l'application mobile Cartes IGN sur Google Play ou sur App Store.
Pour en savoir plus
« L’IGN lance sa propre application de cartographie pour découvrir la France autrement » (Le Figaro)
« Cartes IGN, l'application de cartographie française qui veut se frotter aux géants américains » (France Culture)
« Face à Google Maps, une application française, publique et ambitieuse met le paquet » (Frandroid)
« Les cartes IGN vont-elles détrôner Google Maps ? » (France Culture)
« Une nouvelle application pour plonger au cœur des territoires » (Que choisir)
Rapport sur les modèles commerciaux durables pour les agences nationales de cartographie et de cadastre. Atelier conjoint EuroGeographics et EuroSDR.
Articles connexesDepuis le 1er janvier 2021, l'IGN rend ses données libres et gratuites
L'IGN lance en 2024 un grand concours de cartographie à partir de la BD Topo
Vagabondage, un jeu de rôle à partir de cartes et de photographies aériennes de l'IGN
Cartographier l'anthropocène. Atlas 2023 de l'occupation du sol (IGN)
Bascule des géoservices de l'IGN vers une Géoplateforme
Les anciens millésimes de la BD Topo disponibles en téléchargement sur le site de l'IGN
Enquête sur la mention « compatible GPS » indiquée sur les cartes IGN des années 1980-90
Lidar HD : vers une nouvelle cartographie 3D du territoire français (IGN)
L'histoire par les cartes : 30 cartes qui racontent l'histoire de la cartographie (sélection de l'IGN)
-
9:00
Makina & Matomo Analytics : une histoire d'éthique !
sur Makina CorpusChez Makina Corpus, nous tenons à n’utiliser que des logiciels libres?! C’est donc tout naturellement que nous nous sommes engagés avec Matomo comme outil de mesure d’audience pour nos sites et ceux de nos clients.
-
10:57
Toujours plus vite et plus loin ? Mobilités et transports dans le monde
sur Les cafés géographiquesXavier Bernier au Flore. Photo de Micheline Huvet-Martinet
En ce 30 avril, c’est un géographe « en mouvement », auteur d’un récent Atlas des mobilités et des transports (1), que les Cafés géo accueillent au Flore. Présenté par Gilles Fumey, Xavier Bernier est professeur de géographie à Sorbonne Université où il dirige le Master TLTE (transports). Notre invité qui a gardé de son expérience de montagnard dans les Alpes, le goût des cordages pour assurer sa progression, nous propose un Café collectif et participatif pour traiter des mobilités. Pas de micro pour pouvoir mieux bouger et des cordes pour symboliser les déplacements.
Pour sensibiliser le public aux différents plans de référence dans lesquels s’exerce une mobilité, il lui demande de « faire un freeze » (rester immobile un court instant). Pendant ce temps d’immobilité, le spectateur-cobaye s’est pourtant déplacé à la vitesse de 1100 km/h (vitesse de la rotation de la terre sur elle-même), de 107 000 km/h (vitesse de la rotation de la terre autour du soleil), de 300 000 km/s (vitesse de la lumière). Donc trois vitesses en même temps.
Pour aller d’un point A à un point B, des possibilités diverses s’offrent au voyageur : le « vol d’oiseau », le « chemin des écoliers » (qui suppose plusieurs arrêts en route), la « mobilité immobile » (comme dans 20 000 lieues sous les mers) …Plusieurs sentiments et sensations peuvent donc accompagner une même mobilité. Le choix du moyen de transport n’est pas non plus indifférent. La mobilité sera différemment ressentie selon que l’on opte pour la marche, l’hélicoptère ou le taxi.
Une mobilité déterminée par un objectif bien identifié peut donner lieu à un récit, qu’il soit oral, écrit ou validé par un selfie. « Faire un récit », c’est prouver qu’on est allé quelque part. « J’ai fait New York » : cette expression, incorrecte sur un plan linguistique mais fréquemment utilisée, « pose » son locuteur en tant que voyageur. Le récit permet de réinitialiser le projet de mobilité à plusieurs reprises.
On peut aussi faire le choix de l’aléatoire (ne pas décider d’une destination avant le départ). Prendre le premier bus qui passe ou se promener dans Paris « nez au vent » demandent un travail de réinitialisation permanente. On peut découvrir quelque chose qu’on n’attendait pas et faire ainsi preuve de sérendipité.
Mobilité et immobilité peuvent avoir aussi un sens politique (adhérer ou pas à certaines injonctions).
Pour comprendre les déterminants de tout déplacement, Xavier Bernier se réfère à la figure du triangle dont les trois points sont reliés. Un premier point correspond au support matériel, c’est-à-dire aux infrastructures nécessaires à toute mobilité (routières, ferroviaires, aéroportuaires…). Le deuxième dépend de choix politiques (limitation de vitesse, péages…). Dans certaines villes, on a tenté, à titre d’expérience, de supprimer tous les matériaux de signalisation, ce qui a amené…une diminution des accidents. Quant au troisième point, il concerne les usages. Cette notion se rapporte à la façon dont les voyageurs utilisent les infrastructures et valident ou pas la réglementation. Il semble qu’en France on donne la priorité aux infrastructures. C’est la dimension matérielle qui prime, ce que confirment les Atlas classiques montrant de nombreuses cartes d’infrastructures. Pourtant ce choix, fait le plus souvent par les dirigeants politiques, est-il toujours pertinent ? Il arrive que certaines gares, fleurons de la modernité, se transforment en « gares à betteraves » au bout de quelques années. En effet les usagers ne sont pas toujours d’accord avec les choix de leurs dirigeants. Les habitudes changent (on peut prendre l’exemple de tous ceux qui ont renoncé à l’avion pour des raisons écologiques).
En conclusion Xavier Bernier assure que c’est la liberté de circulation qui « fait société » car la mobilité, avec ses différents arrêts, met les hommes en relation les uns avec les autres.
- Les mobilités virtuelles permettent-elles de « faire société » comme les mobilités réelles ?
Pendant le COVID, l’immobilité n’a été que relative. Le télétravail a rendu les individus plus mobiles. Ce sont les mobilités pendulaires qui ont diminué, mais l’indice de mobilité a augmenté. Les outils de télécommunication rapides favorisent les déplacements réels.
- Qu’en est-il des rapports entre mobilités et pouvoir ?
Les historiens nous apprennent que la Poste a été inventée par les Mongols et qu’en France c’est Henri IV qui a été le premier souverain à penser à un réseau postal. Le réseau postal est devenu un réseau de pouvoir.
A une autre échelle, on peut évoquer les actuels problèmes de l’autoroute A3. C’est la construction d’un parking voulu par un dirigeant politique, qui serait responsable des effondrements entrainant sa fermeture.
Bien sûr, les voies romaines ont joué un rôle majeur dans l’organisation du grand empire de l’Antiquité.
Récemment le gouvernement chinois a institué la gratuité du train Pékin-Lhassa pour favoriser l’usage du train par les voyageurs. C’est donc un choix politique.- Comment peut-on intégrer la question, centrale, du temps dans les mobilités ?
Autrefois on considérait le mouvement du « slow » comme un art de vivre. D’autres, au contraire, recherchent la vitesse qui peut être obtenue de différentes façons. En cas d’affluence sur une autoroute, il faut diminuer la vitesse pour fluidifier la circulation. Que choisir entre le train et l’avion pour les moyennes distances ? certes le train est moins rapide que l’avion mais il dessert le centre-ville. Et le TGV, s’il a une vitesse d’exploitation de 300km/h, peut dépasser les 500 km/h.
- L’informatique génère-t-elle les mêmes problématiques que les mobilités réelles ?
La digitalisation amène le déplacement du doigt sur un écran…On se déplace avec un portable à la main…En matière informatique, la mobilité est en fait visible (cf les balises, éléments de base du système de codage HTML).
- Ne faudrait-il pas remplacer le ministère des transports par un ministère des mobilités ?
Actuellement il existe une Direction générale des infrastructures, des transports et des mobilités au sein du Ministère de la transition écologique et de la cohésion des territoires.
1) Xavier BERNIER, Atlas des mobilités et des transports, Pratiques, flux et échanges, Paris, Autrement, 2023
Michèle Vignaux, mai 2024
-
9:49
Sud Vienne Poitou dévoile son nouveau site dédié à la randonnée
sur Makina CorpusDepuis 2020, l'Office du tourisme Sud Vienne Poitou est un utilisateur de l'écosystème Geot