Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
4393 éléments (149 non lus) dans 55 canaux
- Cybergeo (30 non lus)
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (6 non lus)
- Mappemonde (30 non lus)
- Dans les algorithmes (17 non lus)
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN (1 non lus)
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier (9 non lus)
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée (2 non lus)
- Geotribu (1 non lus)
- Les cafés géographiques (2 non lus)
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO) (10 non lus)
- Datafoncier, données pour les territoires (Cerema) (1 non lus)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (11 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques (15 non lus)
- Veille cartographie (1 non lus)
- Makina Corpus (7 non lus)
- Oslandia (6 non lus)
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Toile géomatique francophone (11 non lus)
-
7:00
Giro3D – les dernières nouveautés
sur OslandiaIntroductionNous avons le plaisir de vous annoncer une série de mises à jour significatives pour Giro3D, la bibliothèque 3D Web de visualisation géospatiale. Ces nouvelles fonctionnalités viennent renforcer les capacités de notre bibliothèque et sont conçues pour améliorer à la fois la précision et l’efficacité de vos projets de visualisation 3D Web.
Mode Globe Prévu pour Giro3D 0.40Les prochaines versions de Giro3D verront l’arrivée du tant attendu mode globe, permettant d’afficher des globes variés (planètes, lunes, étoiles). Le mode Globe supportera les mêmes fonctionnalités que les cartes planes (Map): nombre illimité de couches de couleurs, terrain, et bien d’autres.
Modes de fusion des couches images Depuis Giro3D 0.39Inspiré par QGIS, il est désormais possible de spécifier un mode de fusion pour les couches d’une Map. Les modes de fusion disponibles sont: aucun, normal (la valeur par défaut), additif et multiplicatif. Ces modes de fusion permettent d’obtenir des effets visuels spécifiques, ou contourner l’absence de canal de transparence dans la couche image. Il est par exemple possible d’afficher une couche nuageuse grâce au mode additif, et ce même si la couche est entièrement opaque.
Outils de dessin et de mesures Depuis Giro3D 0.38Tracer des lignes, points, polygones, secteurs angulaires… Le nouveau système de dessin de Giro3D permet de mesurer précisément des distances, angles, pentes, hauteurs et surfaces. Les objets créés peuvent être aisément exportés en GeoJSON.
API de styles des features 3D Depuis Giro3D 0.38Giro3D permet d’afficher des features au standard Simple Feature (fichiers GeoJSON, flux WFS…), drapées ou non sur une Map. Jusqu’ici, les APIs de styles étaient très différentes entre la version drapée et non drapée. Les différences ont été considérablement réduites afin de fournir aux utilisateurs une API similaire (à quelques exceptions près).
Gestion des pertes de contexte WebGL Depuis Giro3D 0.38Nous vous avions parlé précédemment dans la 1′ tech de WebGL, la bibliothèque graphique permettant l’affichage de scènes 3D dans le navigateur. Cette bibliothèque est utilisée intensivement par Giro3D, et il peut arriver que la connexion au contexte graphique soit perdue, empêchant la scène de s’afficher correctement.
Giro3D gère désormais intelligemment la perte et la restauration du contexte graphique afin de restaurer l’affichage de la scène tel qu’elle se présentait avant l’interruption.
Support des classifications de nuages de points Depuis Giro3D 0.37Les classifications de nuages de points apportent une nouvelle dimension à l’analyse de données géospatiales. En permettant une catégorisation précise des points, cette fonctionnalité simplifie la gestion des informations complexes et contribue à une meilleure interprétation des données géographiques.
Giro3D supporte désormais l’affichage des points classifiés et permet de modifier la couleur et la visibilité de chaque classification.
Requêtes d’élévation Depuis Giro3D 0.38Giro3D supporte désormais les requêtes d’élévation sur les données de terrain. Il est ainsi possible de calculer très rapidement un profil d’élévation (y compris sur un grand nombre de points), ainsi que de positionner précisément des objets à la surface d’un terrain (véhicules, symboles…).
Eclairage dynamique et ombres portées Prévu pour Giro3D 0.40Il sera également possible d’éclairer les terrains avec les lumières dynamiques du moteur three.js, afin, par exemple, de simuler l’ensoleillement et les ombres portées des montagnes.
Images panoramiques 360° Prévu pour Giro3D 0.40Giro3D permettra d’afficher des images panoramiques massives (plusieurs centaines de megapixels) de façon optimisée.
-
6:38
Piloter son entreprise grâce à l’open source : c’est possible ?
sur OslandiaChez Oslandia, l’open source fait partie intégrante de la culture d’entreprise. « OS » dans « Oslandia » c’est « Open Source » Le choix s’est donc naturellement tourné vers des outils de pilotage libres.
GitLab est l’outil utilisé pour le suivi de la production, des tâches d’administration, du plan de formation, ainsi que l’organisation de la communication ou du recrutement.
Côté ERP, c’est l’ERP open source Dolibarr qui est utilisé pour gérer la comptabilité depuis le 1er janvier 2023 et Superset pour la réalisation de Dashboards avec des graphiques pour le suivi des indicateurs de pilotage de la société.
L’utilisation de ces outils apporte des possibilités de personnalisation avancés car on peut développer des modules sur mesure, mais permet également d’appliquer le principe de transparence auprès de l’ensemble des collaborateurs qui peuvent proposer des idées, participer aux décisions et à la vie de l’entreprise.
Adapter les outils au fonctionnement de l’entreprise et pas l’inverse, c’est une force que permet l’opensource !Vincent, co-fondateur et CEO d’Oslandia :
« Quand on accueille de nouveaux collaborateurs, ils sont parfois décontenancés par l’utilisation massive des outils de suivi sur GitLab, mais après un temps d’adaptation, tous reconnaissent l’efficience et le confort d’utilisation, avec un travail asynchrone, fluide, l’historisation et la capitalisation de l’information, et une transparence quasi complète ! »
Catherine, directrice administrative, financière et RH d’Oslandia
« J’ai longtemps travaillé sur des outils propriétaires. En arrivant chez Oslandia, j’ai par la force des choses dû composer et m’adapter avec ces outils dans mon travail. Certains outils comme Gitlab m’ont complètement séduite tant sur la praticité de l’utilisation que dans l’aide quotidienne pour l’organisation administrative. Une vraie découverte !
Côté gestion financière et RH, l’utilisation de Dolibarr combinée avec Superset a été un peu plus complexe dans la mise en place, mais c’est souvent le cas pour tout déploiement d’un ERP… Superset est assez technique et moins intuitif pour une personne « non dév ».
Mais passé cette phase d’adaptation et de paramétrage, ces outils OpenSource ont l’avantage de permettre de suivre le pilotage financier efficacement et sur des budgets maîtrisés, et d’avoir une grande liberté dans l’utilisation et la transparence des données. »
-
9:57
RODolPh : 1ère plateforme web de gestion de la redevance d’occupation du domaine public
sur Makina CorpusMakina Corpus Territoires lance la plateforme RODolPh
-
19:32
Velotrain, un site pour calculer des itinéraires en train avec son vélo
sur Cartographies numériques
Le site Velotrain.fr répertorie les itinéraires que l’on peut prendre en train avec son vélo sans avoir à le démonter. La carte interactive permet de calculer des itinéraires et d'afficher les zones accessibles à vélo en 15mn, 30mn et 60 mn (isochrones en vert et orange).Carte pour calculer son itinéraire sur le site Velotrain.fr
Le principal défi pour réaliser ce type de site : avoir accès aux données. La SNCF ne fait rien pour faciliter un accès direct à ce type d'information. Clément Férey, concepteur du site Velotrain, a dû extraire les infos à partir des données de la SNCF sur les lignes ferroviaires. Il explique sa méthode dans une interview pour Transition Vélo. Le site de la SNCF Data.sncf.com fournit 207 jeux de données en open data. Les données concernent les types de lignes, les gares, les trafics de voyageurs, les émissions de CO2, etc... Les jeux de données mis à disposition sont conséquents mais pas toujours très exploitables ni faciles à visualiser via l'interface cartographique. Le site Velotrain utilise aussi des données d'OpenCycleMap, complétées avec les voies vertes de VeloDataMap, une base de données plutôt pensée pour les collectivités.
La carte concerne uniquement les trains Intercités et les TER, car les TGV n'acceptent pas de vélo à bord. Sur des itiniéraires comme par exemple la transversale Lyon-Bordeaux, les temps de transport peuvent être assez longs. Ils se sont même rallongés si on compare aux années 1950-60. Voir cet article : La liquidation de relations ferroviaires transversales en France : une douloureuse comparaison avec les horaires 1961 et 1956). Sur ce type d'itinéraires, on n'a pas trop le choix à part faire des haltes en vélo !
VeloDataMap remplace ce qu'on appelait précédemment le « WebSIG » de Vélo & Territoires depuis juillet 2023 (voir cet article). Portail cartographique dédié au vélo, il permet de naviguer et télécharger des données d’itinéraires et d’aménagements cyclables. Il offre également la possibilité, pour tout agent de collectivité détenteur d’un accès personnel, d’éditer cette même donnée directement depuis son navigateur Internet et d’accéder à d’autres fonctionnalités telles que l’administration des signalements.
Articles connexes
Vers une renaissance des trains de nuit en France ?
Cartes des pistes cyclables en Europe et en France : vers une cartographie collaborative
Cartographie en temps réel des transports publics
Itinéraires piétons et aménités urbaines à Boston. Le projet Desirable Streets du MIT
Strava et les enjeux des Big data
Le rythme cardiaque de la ville : Manhattan heure par heure
Explorer la cartographie des réseaux de transports publics avec des données GTFS
The arrogance of space : un site pour montrer la place allouée à l'automobile en ville -
16:08
Cartographier l'anthropocène à l'ère de l'intelligence artificielle (IGN, 2024)
sur Cartographies numériques
L’IGN publie une nouvelle édition de son Atlas « Cartographier l’anthropocène » sur la thématique de l’intelligence artificielle au service de la transition écologique.Lorsqu’en 1950 Alan Turing pose la question « les machines peuvent-elles penser ? », se doute-t-il que l’intelligence artificielle (IA), dont il sera l’un des pères fondateurs, nous permettra de remonter le temps en retraçant l’évolution de l’occupation des sols ? Imagine-t-il que l’IA permettra de suivre le changement climatique, de modéliser les risques et donc de mieux les anticiper ?
Si l’IA est depuis longtemps intégrée dans les méthodes d’observation et de modélisation du territoire, l’arrivée des technologies de Machine Learning, Deep Learning et d’IA générative permet d’accélérer sa cartographie à partir de données de télédétection. Pour le Directeur général adjoint de l’IGN, Nicolas Paparoditis, cette accélération est indispensable pour éclairer les politiques publiques dans un contexte de transition écologique et de transformation rapide des territoires. Il nous explique comment l’IA est aujourd’hui centrale dans les projets de l’institut cartographe, acteur technologique innovant.
Cartographier l'anthropocène à l'ère de l'intelligence artificielle
- Connaissance et suivi de l'environnement
- Gestion des risques
- Forêt
- Agriculture
- Urbanisme
- Énergie
Articles connexes
Cartographier l'anthropocène. Atlas 2023 de l'occupation du sol (IGN)
Atlas IGN des cartes de l'anthropocène (2022)
Paul Crutzen et la cartographie de l'Anthropocène
Les territoires de l'anthropocène (cartes thématiques par le CGET)
Cartes et données sur l'occupation des sols en France (à télécharger sur le site Theia)
Dynamic World : vers des données d'occupation du sol quasi en temps réel ?
Copernicus : accès libre et ouvert aux cartes concernant la couverture des sols (2015-2019)
L'histoire par les cartes : 30 cartes qui racontent l'histoire de la cartographie (sélection de l'IGN)
Lidar HD : vers une nouvelle cartographie 3D du territoire français (IGN)
-
15:31
Progrès en matière d'eau potable, d'assainissement et d'hygiène dans les écoles (2015-2023)
sur Cartographies numériquesL’insalubrité des installations sanitaires est responsable de centaines de milliers de décès chaque année. Elle accroît le risque de nombreuses maladies mortelles, notamment le choléra, la diarrhée, la dysenterie, l’hépatite A, la typhoïde et la polio. Malheureusement, plus de 40 % de la population mondiale n'a pas accès à des installations sanitaires sûres, selon les estimations du Programme conjoint de surveillance de l'approvisionnement en eau, de l'assainissement et de l'hygiène de l'OMS et de l'UNICEF. Un meilleur accès à des installations d’assainissement permettrait de sauver de nombreuses vies de maladies infectieuses. Le rapport JMP 2024 WASH présente des estimations nationales, régionales et mondiales actualisées sur l'Eau, l'Assainissement et l'Hygiène (EAH) dans les écoles.
Extrait du rapport JMP 2024 WASH
Le rapport évalue les progrès réalisés en matière d’EAH dans les écoles entre 2015 et 2023, soit à moitié du terme fixé pour les objectifs ODD 2030. Il montre que le monde n’est pas sur la bonne voie pour parvenir à un accès universel aux services EAH de base dans les écoles d’ici 2030. Pour parvenir à une couverture universelle, il faudrait doubler le rythme actuel des progrès en matière d’eau potable et d’assainissement et quadrupler les progrès en matière d’hygiène. Sur la base des trajectoires actuelles, seulement 86 % des écoles disposeront d’un service d’eau de base, 87 % d’un service d’assainissement de base et 74 % d’un service d’hygiène de base en 2030.
Seulement 75 % des écoles disposent d'un service d'assainissement de base dans 106 pays sur 144
selon les estimations de 2023
Ce rapport met également l'accent sur la santé menstruelle et examine la disponibilité des données nationales correspondant aux indicateurs prioritaires recommandés au niveau international pour la santé et l'hygiène menstruelles des filles. 30 pays et 7 régions sur 8 disposent de données nationales relatives aux indicateurs émergents de santé menstruelle. Les définitions varient considérablement selon les pays et les sources de données, et une harmonisation des indicateurs est nécessaire. Les données les plus courantes concernent les installations, les connaissances et le matériel, mais très peu de pays disposent de données relatives aux impacts, à l'inconfort/aux troubles et à un environnement social favorable. Sur la base des données nationales émergentes, on estime qu'environ 2 écoles sur 5 dispensent une éducation à la santé menstruelle et qu'environ 1 école sur 3 dispose de poubelles pour les déchets menstruels dans les toilettes des filles.Télécharger le rapport complet en anglais.
Pour accéder aux données et graphiques sur le portail JMP (UNICEF-OMS)
Pour compléter
L’éducation est de plus en plus la cible des conflits (Géoconfluences). L’UNESCO cite les conflits armés en cours en Birmanie, au Proche-Orient et en particulier à Gaza, en République démocratique du Congo, au Soudan, en Ukraine et au Yémen. Une étude recense 6 000 cas d’attaques contre les élèves et les communautés éducatives en général en 2022-2023.Articles connexes
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
Rapport mondial des Nations Unies 2019 sur la mise en valeur des ressources en eau
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Conflits liés à l'eau : les prévisions du site Water, Peace and Security
Cartes et données SIG sur les petits et moyens réservoirs d'eau artificiels dans le monde
Impact du changement climatique sur le niveau des nappes d'eau souterraines en 2100
Les barrages vieillissants constituent une menace croissante dans le monde (rapport de l'ONU)
L'évaporation des lacs dans le monde : une tendance à la hausse
-
6:06
[Story] Oslandia x QWC : épisode 3 / 8
sur OslandiaNous avons vu précédemment des améliorations réalisées par Oslandia sur l’interface web de QWC, côté utilisateur.
Concernant l’interface d’administration, nous nous sommes concentrés sur le plugin
themes
qui permet facilement d’ajouter des projets QGIS dans l’application. Certains problèmes ont été corrigés, et de petites fonctionnalités ont été ajoutées, notamment la possibilité d’ajouter des fonds de plan de type XYZ, et la prise en compte de certaines options pour les fonds de plan WMS/WMTS.Il y a également possibilité de modifier directement ces fonds de plan dans l’interface d’administration plutôt que de supprimer et recréer un fond en cas d’erreur.
La création de ressources et de permissions pour administrer un projet a été rendue moins fastidieuse : on peut désormais importer toutes les ressources d’un projet en renseignant le type de ressource que l’on veut créer, ainsi que le rôle qui aura la permission sur ces ressources. La fonctionnalité permet par exemple d’importer directement les 15 couches d’un projet en tant que ressource de type
data
au rôlesig_edit
pour permettre l’édition de données de ce projet à certains utilisateurs.La suppression de ressources a également été facilitée en ajoutant des cases à cocher permettant de supprimer plusieurs ressources à la fois.
Pour continuer sur l’interface d’administration, un gros travail a été réalisé par Gwendoline pour permettre la traduction de toutes les pages d’administration. Il est désormais possible d’afficher cette interface en français (ou dans une autre langue !) comme cela est possible également dans l’application.
Ces améliorations ne sont pas visibles directement pour l’utilisateur final, mais elles sont très importantes pour faciliter l’administration d’une plateforme QWC.
Vous aussi vous pouvez contribuer à QWC, directement ou en finançant les évolutions ! N’hésitez pas à nous contacter à infos@oslandia.com
-
12:02
Développeur(se) Front TS / WebGL / UX
sur Le blog de GeomatysDéveloppeur(se) Front TS / WebGL / UX11/09/2024 Isabelle Pelissier
Venez nous rejoindre…Société en pointe sur le développement de solutions logicielles dans les domaines du Spatial, du Maritime et de la Défense, nous recherchons un(e) développeur(euse) Front (Bac+5 ou Ecole d’ingénieur) avec une appétence prononcée pour le développement de solutions graphiques.
Nous souhaitons que vous soyez capable d’évoluer sur plusieurs framework front-end ou mobile tel qu’Angular et Flutter. Une bonne connaissance du TypeScript et la maîtrise de technologies 3D /WebGL est requise, avec si possible une forte sensibilité pour l’UX Design. Vous pourrez également être amené(e) à développer des modules python pour des applications desktop, en particulier pour des clients SIG tels que QGIS.
Ce que nous cherchons chez vous :
-
Une personne passionnée par le code et la conception logicielle,
-
Une bonne maîtrise de la programmation,
-
De la rigueur. La lisibilité du code/des Api est fondamentale. Les tests font partie intégrante de votre process de développement,
-
Une capacité et un plaisir à travailler en équipe,
-
De la curiosité. En veille sur l’évolution des technologies,
-
Autonomie et pragmatisme dans vos prises de décisions.
Ce que vous trouverez chez nous :
-
Des collègues passionnés par la culture technique
-
Du plaisir à travailler en équipe
-
Des projets à la pointe de l’innovation pour l’industrie et le monde scientifique
-
De l’émulation interne pour atteindre les objectifs
-
Une PME dont le savoir-faire est reconnu par des clients grands comptes dans des secteurs comme le Maritime, la Défense ou le Spatial.
Vous intégrerez une équipe dédiée au développement d’applications à fortes dominante géospatiale, constituée de développeurs fullstack évoluant sur des problématiques diverses telles que l’élaboration de solution cloud-natives pour du traitement massif de données, la réalisation de traitements de données satellitaires et l’élaboration de solution de GeoIntelligence, mais aussi l’intégration de solutions d’Intelligence Artificielle pour l’identification, et le traitement en flux de sources d’information géospatiales (Images satellitaires, données de capteurs et objets connectés) .
Si vous avez déjà de l’expérience significative et une appétence pour les systèmes d’information géographiques, leur application au monde du Spatial et de la Geointelligence, envoyez-nous votre CV (recrutement@geomatys.com).
Poste à pourvoir sur Montpellier en présentiel
Salaire selon expérience
Menu Linkedin Twitter YoutubeThe post Développeur(se) Front TS / WebGL / UX first appeared on Geomatys.
-
-
6:50
Surveillance Watch, un site pour documenter et dénoncer l'industrie de la surveillance
sur Cartographies numériquesSurveillance Watch est une carte interactive qui documente les connexions cachées au sein de l’industrie opaque de la surveillance. Il s'agit de « retracer le réseau complexe des entreprises qui compromettent notre vie privée en toute impunité ».
Les technologies de surveillance et les logiciels espions sont utilisés partout dans le monde pour cibler et réprimer les journalistes, les dissidents et les défenseurs des droits de l’homme. Fondé par des défenseurs de la vie privée, dont la plupart ont été personnellement lésés par ces technologies de surveillance, le site a pour objectif de mettre en lumière les entreprises qui profitent de cette exploitation et de dénoncer leurs abus. En cartographiant le réseau complexe des sociétés de surveillance, de leurs filiales, de leurs partenaires et de leurs bailleurs de fonds, les auteurs espèrent exposer les personnes qui alimentent les violations massives des droits de l’homme par cette industrie, en veillant à ce qu’ils ne puissent échapper à leur responsabilité. Surveillance Watch est une initiative communautaire et entend aller plus loin dans la collecte de données concernant la surveillance. Le site invite à défendre le droit à la vie privée et à partager cette carte en restant informé.
Il est possible de consulter le site par entreprises de surveillance ou par cibles connues. Certains pays font l'objet de plus de surveillance que d'autres, mais la carte montre globalement que le réseau de surveillance couvre l'ensemble de la planète.
Articles connexes
La carte, objet éminemment politique : la Chine au coeur de la "guerre des cartes"
La carte, objet éminemment politique : la carte de la Technopolice en France
La carte, objet éminemment politique : les cartes de manifestations à l'heure d'Internet et des réseaux sociaux
La carte, objet éminemment politique : les manifestations à Hong Kong
La carte, objet éminemment politique : les camps de rééducation des Ouïghours au Xinjiang
La carte, objet éminemment politique : quel sens accorder à la carte officielle du déconfinement ?
-
20:28
Le prochain café de Chambéry
sur Les cafés géographiquesavec Alexandre Schon, professeur d’histoire-géographie
le 25 septembre 2024, 18h30, O’Cardinal’s, place Métropole, Chambéry
Alors que les Jeux Olympiques et Paralympiques (JOP) de Paris 2024 se sont achevés, les impacts à l’échelle locale de ce méga-évènement de rayonnement mondial se révèlent progressivement. À Saint-Denis (93), ils tiennent notamment à un régime d’urbanisme dérogatoire qui a permis la construction accélérée d’équipements sans passer par les concertations citoyennes préalables. Les conséquences sont nombreuses tant en termes urbanistiques et d’accompagnement des processus de métropolisation que de bilan écologique et démocratique.
L’événement aura lieu le 25 septembre 2024 à 18h30 à O’Cardinal’s, place Métropole, Chambéry
-
13:28
Écrire avec les cartes
sur Cartographies numériquesLiouba Bischoff, Raphaël Luis et Julien Nègre publient un ouvrage Ecrire avec les cartes dans Épistémocritique. Revue de littérature et savoirs (à télécharger en PDF). L'ouvrage correspond aux actes du colloque « Récits avec Cartes », organisé à l’ENS de Lyon en février 2023.
« Qu’elle renvoie à des lieux réels ou fictifs, qu’elle permette de parcourir les océans ou de signaler des espaces périurbains oubliés, la carte est ici envisagée dans toute sa matérialité : elle n’est ni une métaphore visant à donner un caractère spatial aux phénomènes littéraires (carte des représentations mentales, carte cherchant à situer la littérature dans l’espace du savoir, etc.), ni un outil de modélisation des textes. Aussi passionnantes que soient les expériences permises par les méthodes de cartographies narratives, l’objectif des textes réunis ici est bien d’étudier les cartes comme objet littéraire, au même titre que les personnages ou la narration, et non comme méthode d’analyse » (extrait de l'introduction)Table des matières et résumés
1. Introduction
2. « La vue à vol d’oiseau de l’homme » : usages génétiques de la carte et mise en récit dans Les Travailleurs de la mer de Victor Hugo (1866). Par Delphine Gleizes
3. Les trésors de la carte : explorations cartographiques et intrigue aventureuse chez R. L. Stevenson et H. G. Wells. Par Julie Gay
4. L’ouverture par les cartes dans les récits réalistes et les fables de Rudyard Kipling. Par Élodie Raimbault
5. Cartographismes : Peter Sís ou l’imagier des espaces. Par Christophe Meunier
6. Tentative d’inventaire d’une carte inventée : Description d’Olonne de Jean-Christophe Bailly. Par Aurélien d’Avout
7. Faire le tour du propriétaire : défamiliariser le chez soi selon Thomas Clerc et Christophe Boltanski. Par Laurent Demanze
8. Récits d’aventure et matérialité de l’objet-livre : usages ludiques de la carte dans trois romans américains contemporains. Par Gaëlle Debeaux
9. Cartographies d’outre-tombe : la postérité cartographique de la Nouvelle-Angleterre imaginaire de Lovecraft. Par Henri Desbois
10. La matrice des cartes dans Atlas der abgelegenen Inseln de Judith Schalansky. Par Mandana Covindassamy
11. Les voyages d’Olivier Hodasava : le globe virtuel de Google, une machine à fabriquer des histoires. Par Nathalie Gillain
Articles connexes
Cartographie et littérature
Décrire la carte, écrire le monde
Au sujet du pouvoir émotionnel des cartes : « nous avons tous une carte en nous »
Cartes invisibles. Réflexions littéraires et cinématographiques sur l’image cartographique
Le tour de France des classiques de la littérature (Gallica - BNF)
Le voyage d'Ulysse. Comment cartographier un mythe ?
Cartes et fictions (XVIe-XVIIIe siècle) par Roger Chartier
Un océan de livres : un atlas de la littérature mondiale
Vers une carte interactive de la littérature de fiction dans le monde
Carte des road trips les plus épiques de la littérature américaine
Découvrir Paris à travers les grands classiques de la littérature
Les story maps : un outil de narration cartographique innovant ?
Fake Britain, un atlas de lieux fictionnels
Rubrique Cartes et atlas imaginaires
-
18:32
Petition results (to keep S2A operational after S2C’s launch)
sur Séries temporelles (CESBIO)Last week, I issued a petition to keep S2A operational, this post will give you some results. i will keep updating this post regularly, so please go-on signing the petition or forwarding it to your colleagues. Although I have not been trained as a lobbyist, and I have some regrets on how i did it, the petition and our communication has had a very large success. I guess the wood was very dry, and the fire spread very fast when I lighted the match.
The campaign started with a blog post which explained why it is important to keep S2A operational, after S2C starts its operational duty. The blog post was relayed on LinkedIn and a petition. site was created. The tool I used, based on the « pytition » open source software, which works perfectly, is very simple and straightforward to set-up, but does not allow to collect the affiliations of the persons who sign (which is a pity). I thought I would collect the affiliations from the email address, but hundreds of signatories have signed with a gmail address or with various email service providers.
Anyway, here are several statistics I gathered on these posts and on the petition on September 9th :
Publication Statistics Blog 1080 visits LinkedIn 71 000 impressions, 940 likes, 180 republications Petition 1570 confirmed, 1924 total (confirmed+unconfirmed) I would like to thank everyone who signed, liked, forwarded, republished, retweeted, retooted (on Mastodon) ! I would have never dreamed to get 1500 signatures in one week only, I increased the goal progressively from 500 to 1500 ! I think our colleagues at ESA and EU should be proud of this achievement, which shows the importance and success to this great Copernicus mission not only in Europe, but also on all continents, in academy, research, companies, agencies, regions, governments, and even NGO.
Regarding the petition, there are several caveats to be mentioned before analyzing the results :
- Signing the petition is an individual decision, it does not mean that the organism/company for which the signatory works agrees with the signature, but it should be the general case. I will preserve the identity of the signatories, and only send the petition file to ESA and the EU, and quote the affiliations.
- Even if they signed with gmail, I recognized a few of the petitioner names, and I know the company for which they work. Of course, I will not reveal their names here, but I hope you will trust me on this conversion.
- To sign a petition requires a two step process. First fill the form with a email address, and then confirm the email address after receiving an email. It turns out 1250 persons confirmed their email address, and 250 did not. My statistics are based on the total number. I swear I did not add anyone myself. The files sent to ESA and EU will mention if the email was confirmed or not.
- My network is mainly among space agencies, and then in academy. This is largely visible in the table below. However, many persons form private companies signed, including a few CEO.
- The duty of confidentiality applied among space agencies reduced the number of petitioners, but I have had feedback on the interest from many colleagues at CNES, ESA, EU. In fact, everyone I talked to would like to maintain S2A, but I know no one in charge of the funding decisions…
- It is interesting to note the presence of companies which produce earth observing satellites, but are very keen on using Sentinel-2 data as reference, thanks to the excellent quality of its data.
- The numbers between parentheses are the numbers of petitioners per affiliation, when there is more than one.
Domain Affiliations Research/ Academy AT: BOKU Vienna (3), Salzburg (4)
AU: New south Wales
BR: Sao Polo, IPAM (Amazonia), Rio de Janeiro, Ceara, Viçosa, Mato grosso,
BE: CRA -Wallonie (3), UC Louvain (7), Leuven, Bruxelles, Namur
CA: Ottawa, Carleton, Alberta, Laval, Rimouski (Quebec), Sherbrooke, Victoria
CL: Univ Chile (2)
CH: Agroscope, Zurich, Bern, Geneva, Lausanne, Zurich : Ethz (2), Uzh(2), SwissTopo (3)
CN: Chinese Academy of Science (3), Wuhan(3), Nanjing (6), Univ of Geosciences
CZ: Prague (Charles University)
DE: Fraunhofer institute Bonn, Thunen institute, Jena(2), Trier, Hamburg, Kiel (4), potsdam, Humbold Berlin (5), Osnabrueck(2), Tuebingen
DK : LBST(2)
EE: Tartu(2)
ES: CSIC (8), Cantabria (6), Granada (4), Malaga, Valencia, Salamanca
FI: Aalto (4)
FR ; INRAE (16), IRD(14), CNRS (3), CIRAD, CEREMA, CEA, IGN (3), ONERA(3), OFB, Bordeaux, Toulouse (13) UT3, Toulouse INP (3), Ecole Normale Supérieure (2), ENSAE, Lyon, Paris Saclay (5), Paris, Strasbourg (6), IMEV Villefranche (8), Supagro (2), Montpellier, Nantes, Littoral, Orleans, Marne-la-vallée, Grenoble, Réunion(3),
GR: Athens (4), Macedonia
KE; NDMA : (Drought Mapping Agency)
KR: Busan
IE: Cork
IL: Technion (4), Volcani Agri(3) Haifa(12) et jérusalem (9),
IN; IITD (2)
IT; CNR (10), Pavia, Torinio, Bologna, Napoli, Milano, Politecnico Milano, Calabria, Messina, Viterbe Tuscia (3), Venezzia,
JP: Hokudai
LE: Beyrouth,
MA: Marrakech, El jadida
NL: Wageningen (6)
PT: Lisboa (6), Evora
SG: Singapour (4)
SI: Ljubiana
SE: Lund
TU: Tunis,
TR: Istanbul (3), Bursa
UK: NPL (8) Plymouth, London, Leicester, Liverpool, Surrey, Stirling, Bath, Cambridge (8), leeds
US; MIT(3), Wisconsin(4), Michigan, Colorado, Cornell, Oregon, Oklahoma, Connecticut (2), South Florida (5)
Maryland (6), Texas, Columbia,Providence(2), Harvard, Stanford (2) Boston (13), Kansas, Delaware, California, New York (2), Washington (3)Agencies CNES (11), DLR (14), NASA(4), ESA (4), INPE (14), USGS(3), NOAA(2), VITO(15), EU (6), SATCEN (3), Eumetsat,, FAO(3), UN Companies - Satellite : Planet, Airbus (9); TAS, ConstellR, Aerospacelab (4), Earthdaily, Satellite-Vu, Spacetech-i (STI)
- Software, engineering : CS, GMV, Google, CLS, ACRI-ARGANS-ARCTUS (6), Magellium (5), CGI, SISTEMA, Brockmann (4), CAP GEMINI, TRACASA(6), cloudferro(2)
- Remote sensing Services : EOX, Kayrros (10), Hiperplan (4), Bluecham, Terranis, MEEO (3), Gamma.earth, Orbital-eos (3), Planetek, Orbital-Eye , Kermap (6), Netcarbon(4), MEOSS, I-SEA (4), Kanop (5), latitudo40 (4), mantle-labs (6), Mapsat (3) , WaterInsight (NL), remote-sensing-solutions (3), Satelligence(8), mundialis(2), DHI group(3)
- Agriculture : Arvalis, Cargill, E-leaf
- Insurance : AXA
Government/Local communities Hauts de France Région, Basque region, Canadian government, Andalucia, Umwelt Bundesamt NGO WWF (3)
-
6:03
[Story] Oslandia x QWC : épisode 2 / 8
sur OslandiaNous détaillons dans cet article les améliorations que nous avons apportées à QWC récemment, principalement sur l’interface utilisateur.
Dans l’application web, nous avons ajouté la possibilité d’avoir des couches de type MVT (Map Box Vector Tiles). Cet ajout permet par exemple d’utiliser les fonds de plan vectoriels de l’IGN avec différents styles.
L’outil d’identification de l’application permettait déjà d’interroger des données pour en extraire ses attributs. L’identification se fait par un simple clic sur l’objet, ou en dessinant un polygone sur la carte en englobant plusieurs objets. Grâce à nos développements récents, il est désormais possible d’identifier des objets dans un rayon d’une certaine distance. Cette fonctionnalité permet par exemple d’identifier les bornes incendie à moins de 300 mètres d’un carrefour.
Toujours dans l’application web, il est désormais possible de choisir le format de sortie de l’impression des mises en page. Cette fonctionnalité a été financée par la Métropole du Grand Lyon dont la migration de son application SIG Geonet est en cours de réalisation avec la mise en place de QWC.
La Métropole du Grand Lyon a également financé d’autres fonctionnalités que nous avons pu reverser dans les dépôts officiels de QWC, notamment la possibilité de zoomer sur la carte en “dessinant” des rectangles au lieu d’utiliser les traditionnels boutons “+” et “-” disponibles en bas à droite de l’application.
Pour rappel, QWC permet l’édition de données directement dans la base de données qui les contient. Nous avons eu l’occasion de renforcer le comportement de cette fonctionnalité en adaptant l’affichage des boutons d’ajout, de modification et de suppression des objets en fonction des droits paramétrés sur la couche en cours d’édition. Par exemple, si la couche est uniquement éditable par un utilisateur, alors les boutons d’ajout et de suppression d’objets ne sont plus visibles.
En modifiant le service permettant de générer des permaliens, la base de données de configuration et l’application web, nous avons ajouté la possibilité pour les utilisateurs connectés sur une instance QWC de créer des marque-pages. Cela permet de rapidement sauvegarder une emprise sur laquelle des éléments ont été remarqués par l’utilisateur. Un marque-page permettra de revenir sur ces éléments plus tard, ou de les partager à d’autres utilisateurs. Le marque-page permet de sauvegarder la configuration actuelle de l’application avec les couches affichées, le fond de plan choisi, ainsi que les annotations (dessin) ajoutées par l’utilisateur. On peut choisir d’ouvrir le marque-page sauvegardé dans la fenêtre courante du navigateur, dans un nouvel onglet, ou seulement de zoomer sur l’emprise du marque-page enregistré (sans modifier l’affichage des couches).
Vous aussi vous pouvez contribuer à QWC, directement ou en finançant les évolutions ! N’hésitez pas à nous contacter à infos@oslandia.com
-
15:24
Carte de l'influence mondiale de la Chine et des États-Unis
sur Cartographies numériques
La concurrence stratégique entre les États-Unis et la Chine est un élément déterminant du paysage géopolitique dont les décideurs, aussi bien du secteur public que du secteur privé, doivent tenir compte pour conduire leurs actions. La carte de l'indice d'influence mondiale (GII) montre l'influence réciproque des États-Unis et de la Chine dans 191 pays. Le GII utilise 28 critères différents répartis selon 3 principaux domaines (économique, politique et sécuritaire).??????????????????????????????? ??????????????????????????????????????????????????????????????????????????? ?????????????????????????????????????????????????????????????????????????????????????????????????????????????????????????????? ???????????????????????????????????????????????????????????????????????? ??????????????????????????????????????????????????????? ???????????????????????????????????????????????????????????????????????????????? ??????????????????????????????????????????????????????????????????????????????????????????????????? ?Les pays sont colorés du vert au rouge, de manière à indiquer s'ils sont plus en phase avec la Chine ou avec les États-Unis. Le vert correspond à l'alignement avec les États-Unis et le rouge à l'alignement avec la Chine. Si on clique sur « Stories », on accède à des visites guidées à l'échelle de grandes zones régionales (Afrique, Moyen-Orient, Europe, Amérique latine et Indo-Pacifique).
Global Influence Index (source : CESI)
Selon le GII, les États-Unis exercent actuellement une influence prépondérante en Europe. Cette influence est en partie due aux liens historiques entre l'Europe et les États-Unis, mais aussi aux inquiétudes croissantes de l'Europe face à la menace stratégique que représente la Chine. Dans de nombreuses autres régions du monde, par exemple en Afrique, les États-Unis sont en train de perdre la bataille de l'influence face à la Chine. Selon le GII, la Chine a poursuivi « un engagement soutenu et délibéré avec les nations de toute l'Afrique », ce qui se reflète dans son influence croissante dans la région.Selon le GII, « l'Indo-Pacifique est l'épicentre de la concurrence stratégique entre les États-Unis et la Chine ». L'Australie, l'Inde, la Corée du Sud et le Japon entretiennent des liens économiques et stratégiques très forts avec les États-Unis. Cependant, de nombreux autres pays de la région développent des liens très forts avec la Chine.
Une ventilation complète des variables et de la méthodologie utilisée pour déterminer les scores d'influence de chaque pays est disponible sur le site. Les données avec les scores d'influence sont téléchargeables au format csv. Il est possible de conduire une analyse globale ou sur chaque critère séparément.
L'indice d'influence mondiale est un produit de la China Economic & Strategy Initiative (CESI). La CESI est une organisation de recherche à but non lucratif qui s'engage à promouvoir les valeurs américaines et à développer une stratégie économique pour concurrencer et gagner contre la Chine. Le GII fait partie de la mission principale de la CESI, qui consiste à fournir aux décideurs politiques une base pour visualiser et analyser le paysage géopolitique, afin que des décisions puissent être prises sur la manière dont les États-Unis et leurs alliés doivent se positionner pour une concurrence stratégique avec la Chine.?????????????????????????????????????????????????????????????? ??????????????????????????????????????????????? ??????????????????????????????????????????????????????????? ????????????????????????????????????????????????????????????????????????????????
Articles connexes
Mesurer le rayonnement des grandes puissances à travers leurs réseaux diplomatiques
The Power Atlas. Un atlas pour aborder les éléments clés de la puissance aujourd'hui
Comment la Chine finance des méga-projets dans le monde
Les investissements de la Chine dans les secteurs de l'Intelligence artificielle et de la surveillance
Étudier l'expansion de la Chine en Asie du Sud-Est à travers des cartes-caricatures
La carte, objet éminemment politique : la Chine au coeur de la "guerre des cartes"
La carte, objet éminemment politique. Les tensions géopolitiques entre Taïwan et la Chine -
15:08
La Nouvelle-Aquitaine en 100 cartes
sur Cartographies numériques
La Plateforme de Ressources Territoriales de la Région Nouvelle-Aquitaine a publié le 5 septembre 2024 un ouvrage collectif sous la direction d'Olivier Bouba-Olga La Nouvelle-Aquitaine en 100 cartes. Cet ouvrage, disponible en téléchargement, couvre un ensemble large de sujets : il explore au fur et à mesure des chapitres les dynamiques démographiques, les dynamiques d’emploi, les spécialisations économiques, les niveaux de vie et les inégalités de revenu, les mobilités, les questions d’accessibilité en général, celles plus précises d’accessibilité à la santé, des questions liées aux dépenses d’énergie, d’autres à la consommation foncière…Où sont les "jeunes", où sont les "vieux" ? Où sont les "riches", où sont les "pauvres" ? Où travaillent-ils et comment s'y rendent-ils ? Combien dépensent-ils pour leurs déplacements en voiture ? Quand ils déménagent, c'est pour aller où ? A quelle distance vivent-ils d'une boulangerie, d'un bureau de poste ou d'un théâtre ? Combien vivent dans des déserts médicaux ?
C'est à ces questions du quotidien que répond cet ouvrage, sous forme de cartes, à l'échelle des territoires de la Nouvelle-Aquitaine, restituées le plus souvent dans l'ensemble de la France hexagonale. 100 cartes originales, qui donnent à voir de manière simple des phénomènes complexes et qui révèlent progressivement la diversité des territoires néo-aquitains et la richesse qu'elle constitue.
Cet ouvrage est issu des travaux de la Direction de l'intelligence territoriale, de l'évaluation et de la prospective (DITEP) du Pôle DATAR de la Région Nouvelle-Aquitaine.
Articles connexes
La carte du mois par le Pôle DATAR de la région Nouvelle-Aquitaine
L'Insee propose un nouveau gradient de la ruralité (La France et ses territoires, édition 2021)
L'Insee propose une nouvelle typologie des aires urbaines en fonction de leur aire d'attraction
Géographie du monde d'après : assiste-t-on à un "exode urbain" ?
Avec la crise du Covid19, les villes moyennes ont-elles bénéficié d’un regain d’attractivité ?
-
14:00
Algorithmes géométriques et code : comment cela fonctionne-t-il ?
sur GeotribuHuitième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : algorithmes et code
-
8:00
GeoDatadays 2024 : retrouvez-nous et participez à nos conférences
sur Makina CorpusLes 19 et 20 septembre, participez aux conférences animées par nos experts SIG aux GeoDataDays 2024, en Pays de la Loire à Nantes.
-
6:52
[Story] Oslandia x QWC : épisode 1 / 8
sur OslandiaDepuis plusieurs années maintenant, et notamment grâce aux stages de fin d’études de Flavie et Benoît (qui avaient donné lieu à une série d’articles), Oslandia investit dans la solution logicielle QWC (pour QGIS Web Client) afin de proposer à ses clients de publier leurs projets QGIS sur le web.
QWC est un framework applicatif et une application clefs en main, permettant de publier des projets QGIS sur le web, en partageant les mêmes données, la même configuration et le même rendu. Il comporte les éléments classiques d’un SIG web, et peut être totalement personnalisé.
QWC est un projet OpenSource développé par plusieurs acteurs de la communauté. On peut notamment citer Sourcepole ( Suisse ), qui a réalisé le développement initial de QWC et continue de contribuer.
Nous réalisons notamment des projets pour nos clients, par exemple l’EuroMétropole de Strasbourg, le groupement de recherche Silex, WKN, Amarenco, le Syndicat des Eaux de la Manche, les agences de l’eau, la Métropole du Grand Lyon et d’autres.
Au passage, on notera que Clément Zitouni de l’EuroMétropole de Strasbourg contribue régulièrement aux différents dépôts du projet pour ajouter des fonctionnalités ou corriger certains problèmes directement. Bravo à lui !
Au delà des projets client, Oslandia investit également en fonds propres sur QWC. Chaque année, environ 10% du temps de l’équipe de production est dédiée à l’auto-investissement sur les projets OpenSource que nous développons ou maintenons.
Avec ces différents projets, Oslandia a pu intégrer plusieurs collaborateurs dans le développement et la maintenance de QWC. C’est toujours le cas de Benoît Blanc, rejoint par Gwendoline Andres notamment.
Plusieurs améliorations ont été intégrées dans la solution logicielle, que ce soit de nouvelles fonctionnalités ou bien des corrections de bugs.
L’environnement QWC est composé d’une application web écrite en Javascript (avec le framework React) ainsi que de micro-services en Python. Nous sommes intervenus sur tous ces composants, avec des contributions dans le cœur de l’application.
QWC est en perpétuelle évolution avec de nombreuses fonctionnalités développées en continu.
Dans les prochains articles, nous ferons un tour – non exhaustif – de ce qui a été réalisé récemment par Oslandia.
-
17:32
Hokkaid? : un Finistère presque oublié
sur Les cafés géographiquesCe dossier a été réalisé par Maryse Verfaillie à la suite du voyage qu’elle vient de faire au Japon, particulièrement dans l’île septentrionale d’Hokkaïdo.
? Consulter le dossier Hokkaid? : un Finistère presque oublié
-
16:39
Variabilisez vos profils QGIS avec QDT
sur OslandiaPièce jointe: [télécharger]
Variables d’environnement ?Les variables d’environnement sont, comme leur nom l’indique, des paires clé/valeur permettant de décrire et paramétrer des applicatifs selon un environnement. Une variable peut intervenir à différents niveaux ou périmètres : système d’exploitation, session avec droits d’administration, annuaire/domaine, session utilisateur, applicatif, processus.
Gestion des variables d’environnement sur Windows 11
Si vous êtes familier/ère avec l’utilisation de QGIS, c’est le même principe que pour les variables prédéfinies, liées à un projet, à des couches, etc. et utilisables à différents endroits (expressions, mode atlas/rapport…). D’ailleurs QGIS gère également des variables d’environnement à l’échelle de son installation et par profil (voir la documentation).
Remplacement dynamique par QDTDans QDT, vous pouvez définir des variables dans vos fichiers de configuration `QGIS3.ini` et `QGISCUSTOMIZATION3.ini`, qui seront ensuite interpolées avec les valeurs des variables d’environnement au moment du déploiement. Cette approche permet de paramétrer de manière flexible divers aspects de la configuration de QGIS sans modifier manuellement les fichiers sur chaque machine.
3 avantages :
– Flexibilité : adapter facilement la configuration à différentes machines sans modifications manuelles des fichiers.
– Maintenance réduite : gérez une seule version des fichiers QGIS*3.ini qui s’adapte dynamiquement aux conditions locales.
– Sécurité : séparer les données sensibles de la configuration en les conservant dans les variables d’environnement.Cet usage des variables est particulièrement utile dans des environnements où les chemins d’accès ou les configurations peuvent varier significativement entre les déploiements, permettant une personnalisation sans effort et à la volée de l’installation QGIS.
En bonus, nous avons intégré un mécanisme primaire de sauvegarde des paramètres en cas de conflit entre les valeurs poussées par QDT et celles changées par l’utilisateur. Concrètement, cela se traduit par des sections préfixées directement dans le fichier INI :
-
14:00
Cherchez et contribuez à Geotribu depuis QGIS
sur GeotribuUne nouvelle fenêtre des contenus Geotribu dans le plugin QGIS QTribu, qui permet d'accéder et de contribuer aux contenus du site
-
8:00
Comprendre la Redevance d'Occupation du Domaine Public (RODP)
sur Makina CorpusDans cet article est issu d’une interview, Vivien Gueit Directeur de la société 2CT, nous livre son témoignage d’expert pour comprendre la Redevance d’Occupation du Domaine Public (RODP).
-
20:11
Les cartes de l'Ordnance Survey irlandaise ont 200 ans
sur Cartographies numériquesL'Irlande est connue pour être l'un des premiers pays à avoir été systématiquement cartographié au début du XIXe siècle. De 1825 à 1846, l'Ordnance Survey irlandaise a entrepris un relevé très détaillé de l'ensemble du pays afin de créer des cartes à l'échelle de 6 pouces pour 1 mile (environ 1:10 000). Par la même occasion, l'Ordnance Survey a recueilli des informations géographiques, archéologiques et toponymiques, notamment sur les coutumes locales, les monuments, les noms de lieux et les caractéristiques topographiques. Ces documents reflètent les paysages de l'Irlande tels qu'ils existaient dans les années 1820-1830 , ainsi que les pratiqus agricoles, la langue, le folklore, les métiers et la religion.
Les documents laissés par l’Ordnance Survey (OS) pour l’Irlande sont particulièrement importants car ils nous permettent de mieux comprendre les processus et les pratiques de cette enquête nationale qui à eu un impact profond sur le gouvernement, la politique, la société et l’économie de l’Irlande des XIXe et XXe siècles. Ces documents de l’OS dirigée par les Britanniques n’ont pas été conservés en Grande-Bretagne mais à Dublin. En effet, contrairement aux premiers documents de l’OS sur la Grande-Bretagne en grande partie détruits pendant la Seconde Guerre mondiale, les comptes rendus de l’OS sur l’Irlande ont survécu. Ces comptes rendus offrent une opportunité majeure de faire progresser notre compréhension non seulement de la cartographie de l’Irlande sous domination britannique, mais aussi de la manière dont ce pouvoir a été exercé par le biais d’activités mises en œuvre localement « sur le terrain ». Les opérations de l'OS en Irlande ont eu un impact et une influence plus larges sur les levés topographiques et la cartographie dans d'autres parties du globe. Par exemple, la mesure de la ligne de base du Lough Foyle par le colonel Colby (1827-1828) a attiré l'attention de George Everest, qui a ensuite adopté ce qu'il a appelé le « beau système » de Colby pour le Grand relevé trigonométrique de l'Inde.
Le projet OS200 « Recartographie numérique du patrimoine de l'Ordnance Survey d'Irlande », lancé par des chercheurs de l'Université de Limerick, s'appuie sur les quatre sources principales de l'Ordnance Survey créées lors de la première mission d'observation de l'Irlande : les cartes de 6 pouces, les mémoires, les lettres et les livres de noms de lieux. L'importance de ces sources réside dans leur description de l'Irlande d'avant la Grande famine.
Les sources réunies sur le site [OS200] (source : irelandmapped.ie)
Les cartes elles-mêmes sont extrêmement détaillées et magnifiquement dessinées. Grâce au travail de numérisation du projet OS200, on peut explorer ces cartes originales de l'Ordnance Survey d'Irlande dans les moindres détails sous forme de cartes interactives.
Le projet vise à rassembler des cartes et des textes historiques de l'Ordnance Survey (OS) pour former une seule ressource en ligne, librement accessible à l'usage des universitaires et du public. Les résultats numériques de l'OS200 permettent non seulement de faire progresser notre compréhension de la manière dont l'Irlande a été cartographiée il y a deux siècles, mais ouvrent à un nouveau public l'héritage et les impacts de l'OS, reconnaissant l'importance durable de ce qui a été accompli et marquant le bicentenaire de son instigation.
Le projet est soutenu par la Royal Irish Academy, le Public Record Office d'Irlande du Nord, la Bibliothèque nationale d'Irlande et le Digital Repository of Ireland.
Pour compléter
L’Ordnance Survey Ireland (OSI) (en gaélique Suirbhéireacht Ordanáis na hÉireann) est l’agence gouvernementale de cartographie de l'Irlande. Il est l’équivalent de l’IGN français. Cet organisme a pris la succession en 1922 de la division irlandaise de l’Ordnance Survey du Royaume-Uni qui existait depuis 1824. Tout son travail prend sa source dans les différentes missions menées entre 1815 et 1845 par des officiers anglais du Royal Engineers et par des membres du service des Mines qui ont à ce moment-là rédigé un ensemble de cartes d’une précision jamais atteinte sur l’île. En collaboration avec son alter ego en Irlande du Nord, cet organisme est destiné à cartographier à différentes échelles l’ensemble de l’île d’Irlande.
L’Irlande (comme le Royaume-Uni) n’utilise généralement pas les latitudes et les longitudes pour décrire un lieu qui se trouve sur leur territoire national. Ils ont mis en place un système de référence spécifique. L’île d’Irlande est divisée en 20 cases de 100 km de côté, chacune identifiée par une lettre. Chaque case possède une graduation numérique en partant du coin sud ouest. Par exemple G0305 signifie Case G 3 km est, 5 km nord. Il existe également des tirages dit Discovery Series de l'OSI. L’île d’Irlande est ainsi divisée en cases de 30 km de côté, par 40 km en largeur, à l'échelle de 1:50 000 chacune identifiée par un numero (1 à 89). Voir plan, ref: No. 41 ~ Centre de Westmeath (source : Wikipedia)
OS200. Digitally Re-Mapping Ireland’s Ordnance Survey Heritage
Irish Townland and Historical Map Viewer
PRONI Historical Map (uniquement Irlande du Nord)
GeoHive. Ireland's National Geospatial Data Hub
Ireland Mapped website
Lilley, K.D & Porter, C. (2022) 'A Journey Through Maps: Exploring Ireland’s Cartographic Heritage'" Public lecture for Armagh Robinson Library (video Youtube)
Articles connexes
L'histoire par les cartes : l'Irlande aux XIXe et XXe siècle
L'histoire par les cartes : le mouvement des enclosures en Grande Bretagne aux XVIIIe et XIXe siècles
Cartographier le parcellaire des campagnes européennes d’Ancien Régime
L'histoire par les cartes : la mappe sarde du XVIIIe siècle
La grille de Jefferson ou comment arpenter le territoire américain
La parcelle dans tous ses états (ouvrage en open access)
Derrière chaque carte, une histoire : découvrir les récits de la bibliothèque Bodleian d'Oxford
Cartes et atlas historiques
-
13:10
Barres empilées : comment s’en débarrasser ?
sur Icem7C’est l’un des graphiques les plus utilisés dans la production statistique française, mais aussi le plus paresseux et le moins efficace pour comprendre et surtout mémoriser. La plupart des responsables éditoriaux le savent, formés qu’ils/elles le sont à la sémiologie graphique. Pour autant, pas moyen de remiser ces empilements : ils collent aux publications statistiques comme le sparadrap au capitaine Haddock !
Prenons comme premier exemple ce graphique sur l’évolution des crimes en France, classés par type. Le diagramme en barres empilées traduit tel quel le tableau croisé des données, y intégrant un total. Et c’est la principale raison de son emploi : on voit en même temps l’évolution d’ensemble et le détail des catégories.
Source : ministère de la Justice/SG/SEM/SDSE, fichier statistique Casier judiciaire nationalSi l’on voit bien le mouvement général, il est plus difficile d’apprécier les détails, d’analyser la morphologie de ces rectangles colorés. Quand la base d’une série est horizontale, par exemple celle des homicides en bas, il suffit d’en suivre visuellement les sommets. Mais quand les segments flottent, le lecteur doit mener deux opérations mentales exigeantes – extraire visuellement la série et la recaler sur une base commune. Cet effort à répéter fatigue et complique la mémorisation, faute d’images prêtes à photographier mentalement.
Comment ordonner les catégories, choisir les couleurs ? “Autres crimes” est la première catégorie que l’œil rencontre, c’est aussi la moins signifiante. Et la palette adoptée crée deux groupes artificiels, un en violet et l’autre en gris.
Que va-t-on retenir d’une telle image ? Au mieux, oubliant les catégories, une tendance globale à la baisse avant la crise du covid, et une reprise post-covid qui ressemble à un rattrapage – dont on ne sait s’il est réel ou purement administratif (du fait d’instructions retardées).
Distinguons chaque série dans une collection de petits graphiques triés et catégorisésAvec un outil soucieux de sémiologie comme Datawrapper (ou Flourish), testons une variante où chaque composante peut apparaitre séparément, la comparaison avec l’évolution d’ensemble restant possible.
Retenons le même ordre de tri que le graphique d’origine, par effectifs finaux décroissants. Cette nouvelle construction graphique présente d’abord les trois catégories les plus importantes. Elles ont en commun de bien marquer l’effet de rattrapage précédemment évoqué. L’importance des viols est manifeste. Un rapide calcul visuel montre qu’ils représentent au total la moitié des crimes. Ce constat m’a particulièrement frappé.
Je le souligne donc, dans cet affinage prêt à diffuser, à l’aide d’une couleur différente et d’un titre qui reprend deux informations majeures.
Ces petits graphiques sont évidents et élégants, avec leurs axes épurés dont les étiquettes sont davantage conformes aux règles de lisibilité (écriture horizontale pour les années, séparateur des milliers pour les effectifs).
Un bon graphique présente toutes les données et dégage une ou quelques images simples (par exemple les trois graphiques de la première rangée), que le lecteur pourra relier à des enseignements verbalisés. Il les mémorisera ainsi durablement, grâce à la puissante association entre le visuel et le sémantique, quand ces deux canaux résonnent en cohérence.
C’est le mantra cher à Jacques Bertin, le grand sémiologue français : trier judicieusement ce qui peut l’être, puis catégoriser pour hiérarchiser les niveaux d’information.
Étendons la démarche à un jeu de données plus fourniIssu d’une source différente, ce nouveau diagramme empilé traite d’un sujet voisin, les actes de délinquance, en regardant plutôt les victimes et ce à quoi elles sont sujettes selon leur âge. La dimension de l’âge, en X dans ce diagramme, est ordonnée de façon logique, croissante.
Mais qu’en est-il des indicateurs de délinquance ? L’auteur ne précise pas le critère de tri en Y et l’œil du lecteur n’en saisit pas la logique. Renforcée par les contrastes lumineux, l‘impression d’ensemble est bruitée et inconfortable.
Par ailleurs, la palette de couleur n’est pas ordonnée, elle n’exprime pas la progression des âges. Le lecteur peinera à regrouper visuellement des tranches voisines.
La construction suivante utilise une palette visuellement ordonnée, désempile les barres, et reclasse les faits de délinquance pour construire l’image la plus pure, la plus significative – perceptible dans l’instant minimal de vision, selon les vœux de Bertin. Une telle image, comme il l’exprime dans sa “Sémiologie graphique”, tend vers deux critères topologiques : connexité (peu ou pas de trous, une forme ramassée) et convexité (enveloppe plutôt ronde). Idéalement, une belle diagonalisation !
Un bon outil graphique facilitera les reclassements. Après quelques essais, la tranche des 70 ans et plus fournit un bon critère de départ pour un tri. L’examen conjoint des tranches les plus jeunes m’amène à définir trois groupes. Ce nouveau graphique déroule une vague expressive.
Il faut se faire violence, parfois, pour chambouler l’ordre par défaut des nomenclatures. Bertin l’évoquait malicieusement, dans un dernier article, témoignant de sa longue – et fructueuse – expérience de collaboration avec la statistique publique : « À l’école de l’Insee, reclasser un tableau de données était une abomination ! ».
Le geste suivant, encore plus audacieux pour le statisticien, consiste à nommer ces groupes, dès lors qu’il saisit ce qui les caractérise.
Un titre informatif s’en déduit naturellement. C’est l’association entre messages de premier niveau clairs et une forme d’ensemble simple et significative qui va consolider l’inscription en mémoire de la hiérarchie des enseignements.
Pourquoi la plupart des graphiques statistiques sont-ils paresseux ?Certes, la puissance de la sémiologie graphique n’est pas suffisamment exprimée et enseignée, que ce soit à l’école ou en formation continue. Au pays de Bertin, c’est pour le moins étonnant, voire dissonant. À cela, les responsables d’enseignement ou de services statistiques peuvent facilement remédier, si ils/elles le souhaitent – et même si cela prend un peu de temps .
Mais ce déficit renvoie plus fondamentalement à la posture de l’analyste, au rôle qu’il/elle se donne ou qu’on lui donne : mettre à disposition des chiffres solides et laisser au lecteur le soin de les interpréter ?
Ou chercher en plus à transmettre, avec les outils de la sémiologie graphique, ce que soi-même, avec son expertise, sa curiosité, sa déontologie, on a fini par retirer de ses multiples explorations. C’est la voie que, pour ma part, j’approfondis comme rédacteur d’articles, et enseigne en formations sur mesure.
Pour en savoir plus- Près de 750 condamnations par an pour homicide homicide volontaire et coups mortels – Infostat Justice n° 191
- Insécurité et délinquance en 2023, une première photographie – Interstats Analyse n° 64
- Sémiologie graphique, Jacques Bertin, 1967
- Aux origines de la sémiologie graphique, Jacques Bertin, CFC 2004
L’article Barres empilées : comment s’en débarrasser ? est apparu en premier sur Icem7.
-
15:01
Let’s ask Copernicus to keep S2A operational after S2C launch
sur Séries temporelles (CESBIO)The launch of Sentinel-2C (S2C) is scheduled on the 4th of September 2024, next week ! After 3 months of commissioning phase, S2C will replace S2A, to fulfill the Sentinel-2 mission together with S2B. S2B will later be replaced by S2D. The current plans are to keep S2A as a redundant satellite, in case something happens to one of the two other satellites. It seems likely that S2A will stop acquiring images once S2C is operational.
I guess the decision not to keep S2A operational would be for cost reasons. The operation costs are high : although I have no information, I guess these costs are on the order of magnitude of one or two dozens of millions per year. My reference is the SPOT4 (Take5) experiment which cost ~1 M€ for a few months with a limited amount of data. In the case of S2, the data volumes to download, process and distribute are huge, and ESA would also need to monitor data quality, have a tighter orbit and attitude control… Anyway, the cost of operating a satellite is much lower than the cost of the satellite itself (Sentinel-2B’s price was a few hundreds of M€).
I am very proud Europe was able to build the Sentinel-2 mission with a revisit of 5 days and funding of 20 years of operations, including two replacement satellites. But we could do even better for a limited cost. I write this letter to try to convince scientific, public and private users that 5 days revisit is not enough. We should therefore try to set-up a campaign to ask ESA/UE to reconsider the decision to end S2A imaging operations when S2C is operational. Help, feedback and ideas are welcome !
A petition is available here.
Revisit needs Correlation of start of season determination as a function of the cloud free observation frequency in Germany. « 2018 was a hot and dry year with exceptionally low precipitation and cloud cover ». From Kowalski et al, 2020 : [https:]]As an example, here are the cloud free revisit needs expressed by the vegetation monitoring community.
- Land cover classification : a clear observation per month
- Biomass/Yield estimation : a clear observation per fortnight
- Phenology (start and end of season, flowering…) : a clear observation per week
Waters, especially coastal waters, tend to change even quicker, with the additional drawback to be affected by the reflection of the sun on water, on one third to one half of the acquisitions.
Very recently, several papers have studied the biases due to the insufficient and irregular observations from space optical missions. Bayle et al, 2024 show that part of the observed greening of mountains observed on the Landsat time series acquires during decades is in fact due to the increase of the revisit frequency, which is still not always sufficient to capture the short-lived peak of greenness in alpine ecosystems. Langhorst et al, 2024 show that the loss of observations due to clouds leads to miss important hydrological events that bias statistics.
5 days revisit is not enoughThe global average cloud cover is 70%, with of course large variations across seasons and location. It means that on average, for a given pixel, two observations out of three are cloudy. But if you need to observe a large area simultaneously cloud free, it is even more difficult. I don’t have statistics on that, but roughly only 10% of Sentinel-2 products on 100×100 km² are fully cloud free.
Due to the fact that the great majority of images have clouds, our users have asked for cloud free periodic syntheses. At the THEIA land data center, we produce every month surface reflectances syntheses (named « Level3A » products). Our WASP processor computes a weighted average of all the cloud free surface reflectances found during 46 days (from 23 days before to 23 days after the synthesis date). When no cloud free data is available, we raise a flag, and provide one of the cloudy reflectance values acquired during the period. These regions appear in white (but don’t confuse them with snow in mountains).
Since these syntheses use 46 days, and not 30 days, they do not meet any of the needs explained above. The 46 days duration was tuned to have less than 10% of pixels always cloudy on average per synthesis. Here are some examples.
South-Western EUOver western Europe, the top left image shows a summer drought period, with a reduced amount of always cloudy pixels. However, some are visible in the East of Belgium/Netherlands. The images in winter have large region with no cloud free data, and even in April 2023, there is a remaining cloudy region in the east of France. You might have noticed that the remaining regions often have a trapezoidal shape. It is explained by the fact that Sentinel-2 swaths overlap, and it is of course more likely to miss cloud free pixels where we have two observations every 5 daysinstead of one. More examples are available at THEIA : [maps.theia-land.fr]
: July 2022 (Drought in Europe) December 2022 January 2022 (a dry January ) April 2023 South-Western Europe is blessed by a nice weather (when it’s not too hot), but Germany has a lot of clouds. Our colleagues form DLR also process Level3A syntheses with our tools. Here are some examples. You may also see by yourselves at this address : [https:]
April 2023 November 2023 Norway cartographic agency (Kartverket) also uses our softwares MAJA and WASP to produce countrywide syntheses, but they had to change the parameters to obtain a correct result. Summer syntheses are produced each year, but they often need a manual post-processing to enhance the results where some clouds are remaining. This is despite the orbits fully overlap in Norway.
Consequences
[https:]The main consequence of persistent cloudiness on S2 images is that our observations are quite far from the expressed needs, except in the sunniest countries. As a result, studies and retrievals are not as accurate as they could be, biases and noise appear. In my sense, the main issue is the fact that persistent clouds on images introduce a random unreliability, that prevents to provide an operational service.
S2 quicklook thumbnails in June 2019 on Toulouse tile (31TCJ)One of the most acute cases in my memory happened in June 2019. The region near Toulouse suffered a long and early heat wave, but clouds were present every 5 days in the morning, when S2A or S2B were acquiring data. During a heat wave,it is very hard to explain local customers that the product didn’t work because of clouds.
As a result, insufficient revisit hampers the development of services based on optical images.
There are some ways around, using Landsat 8 and 9 (but resolution is 30m), Sentinel-1 (but SAR provides a completely different information), Planet (but only 4 bands, very expensive if you need to work at country scale, and not the same quality). Moreover, Planet uses Sentinel-2 a lot to improve its products. A better availability of S2 data would also improve the data quality of Planet data and the soon to be launched Earth Daily constellation.
Dear EU, please keep S2A operational !That’s why it would be a pity not to go on using S2A after S2C commissioning phase. With three satellites, S2A passing for instance two days after S2B, we could produce cloud free syntheses every 20 days, based on 30 days of data only. We would be closer to the needs, and would reduce a lot the unreliability of S2 services.
Of course, it means an increase of data volume and processing costs, but it is only a few % every year of the cost of one satellite. If it is really too much, let’s do it over Europe only, as S2 is funded by Europe. Maybe EU fears that if we ask for it, users of the other Sentinel missions will also ask for it. But S1 does not have clouds (and S1B has been lost) and S3 has a daily overpass already. Therefore, there are good reasons to operate a third satellite in the case of S2 only.
If you agree or disagree with me, or if you have more arguments to provide, please add a comment to this page !
PetitionI am not sure it is the best way to have influence on Copernicus, but I have set up a petition on an ethical web service provider, feel free to sign here : [https:]]
References :- Bayle, A., Gascoin, S., Berner, L.T. and Choler, P. (2024), Landsat-based greening trends in alpine ecosystems are inflated by multidecadal increases in summer observations. Ecography e07394. [https:]]
- Langhorst, T., Andreadis, K. M., & Allen, G. H. (2024). Global cloud biases in optical satellite remote sensing of rivers. Geophysical Research Letters, 51, e2024GL110085. [https:]]
-
12:36
Sélection 2025 du Prix du Livre de géographie des Lycéens et Etudiants
sur Les cafés géographiques– Rémi Barbier et Sara Fernandez (dir), Idées reçues sur l’eau et sa gestion, Le Cavalier bleu
– Marie Bonte, Nuits de Beyrouth, ENS éditions
– Marc Brosseau, Tableau de la géographie littéraire, Puppa
– François-Michel Le Tourneau, Chercheurs d’or, CNRS éditions
– Sylvain Genevois, Matthieu Noucher et Xemartin Laborde, Le blanc des cartes, Autrement
-
12:27
Journée d’étude : La carte, «oeil de l’histoire » (XVI?-XVIII? siècle), BnF / EHESS-CAK, 8 octobre 2024
sur Cartes et figures du mondeBibliothèque nationale de France, site Richelieu, Salle des conférences, entrée par le 5 rue Vivienne 75002 ParisLa géographie comme « oeil de l’histoire » est une expression courante durant la période moderne, mais elle s’articule de manière spécifique
si l’on pose l’objet cartographique comme point d’observation. L’objectif de cette journée d’étude est de réinvestir le couple carte et histoire dans l’empan chronologique du XVI? au XVIII? siècle, en Europe et dans ses prolongements impériaux, selon plusieurs directions.La journée d’étude est organisée par Oury Goldman (Paris 1 Panthéon- Sorbonne), Lucile Haguet (Bibliothèque municipale du Havre),
PROGRAMME
Catherine Hofmann (BnF, Cartes et plans) et Geoffrey Phelippot (EHESS-CAK). Elle a bénéficié de la coopération du département des
Cartes et plans (BnF) et du Centre Alexandre-Koyré (CAK).
9h15 : Accueil des participants
9h30 : Mot d’accueil de la BnF par Cristina Ion (directrice adjointe du département
des Cartes et plans de la BnF)
9h45 : Introduction générale par Oury Goldman (Paris 1 Panthéon-Sorbonne), Lucile
Haguet (Bibliothèque municipale du Havre) et Geoffrey Phelippot (EHESS-CAK)
Session 1 : La carte, un art de la mémoire au service de l’histoire
Session présidée par Antonella Romano (EHESS-CAK)
10h : Aurélien Ruellet (Le Mans Université)
« Comme la toile où l’on place en son lieu ce que l’on aprend », La carte et l’histoire dans
les collèges oratoriens (années 1640-années 1780)
10h30 : Louise McCarthy (Université Paris Cité)
La carte comme théâtre de la mémoire, « Ould Virginia » de John Smith et Robert
Vaughan (1624)
11h : Monika Marczuk (BnF, département des Cartes et plans)
Histoire en un coup d’oeil : Mappemonde historique de J.-L. Barbeau de La Bruyère
(1750)
11h30-11h45 : Pause-café
Session 2 : Quand l’historien se fait cartographe
Session présidée par Jean-Marc Besse (CNRS-EHESS)
11h45 : Éric Grosjean (École Pratique des Hautes Études)
Fabio Calvo ou les principes architecturaux de Vitruve appliqués à la cartographie
historique de la Rome Antique à l’aube du XVI? siècle
12h15 : Ghislain Tranié (Centre Roland Mousnier, Sorbonne Université)
L’oeil du polygraphe. Gabriel Simeoni et la fabrique des lieux de l’histoire au milieu du
XVI? siècle
12h45-14h : Repas
14h-15h : Présentation des cartes par Catherine Hofmann (BnF, Cartes et plans) en
Salle des vélins, sur inscription, dans la limite des places disponibles.Session 3 : Chronotopoï, deux exemples de lieux cartographiés avant tout pour leur histoire
Session présidée par Lucile Haguet (Bibliothèque municipale du Havre)
15h : Iona Zamfir (Bucharest National Museum of Maps and old Books)
Jerusalem as Chronotopos, The Tension between the Textual and Visual Mediums in
16 – Century Geographic Literature
15h30 : Pierre Salvadori (Université d’Artois)
Anatomie d’une connexion, histoires situées du pont transarctique dans la cartographie
du XVI? siècle
16h-16h15 : Pause-café
Session 4 : La carte comme outil stratégique et politique
Session présidée par Catherine Hofmann (BnF, Cartes et plans)
16h15 : Anne-Rieke Van Schaik (University of Amsterdam)
Making History, Floris Balthasar Puts Dutch Victories on the Map (c.1600-1610)
16h45 : Grégoire Binois (Institut d’histoire moderne et contemporaine)
Cartographier l’histoire militaire aux XVII? et XVIII? siècles, une activité stratégique
17h15 : Kory Olson (Stockton University)
L’oeil de la Révolution, Le Plan d’une partie de la ville de Paris de Mangin
17h45-18h00 : Conclusion générale – Oury Goldman, Lucile Haguet et Geoffrey Phelippot
-
21:14
Café géo de Paris, 24 septembre 2024 : Les territoires de l’extrême droite en France et en Europe.
sur Les cafés géographiquesAvec Béatrice Giblin, géographe, géopolitologue
Café de Flore, 24 septembre 2024, 19-21h
Béatrice Giblin, géographe et géopolitologue française, professeur émérite des universités, est l’invitée des Cafés Géographiques pour parler de l’extrême droite de France et en Europe.
En 2012, dans un numéro de la revue Hérodote, elle présentait déjà une analyse géopolitique de l’extrême droite en Europe. En 2022, toujours dans la revue Hérodote, elle posait la question d’une nouvelle géopolitique électorale en France. Aujourd’hui, en 2024, à l’heure où l’extrême droite accroît son audience dans de nombreux pays européens, la lecture géopolitique et l’analyse spatiale s’avèrent des clés de lecture indispensables de ce phénomène.
Ainsi en France, les dernières élections ont montré un net renforcement du processus de diffusion géographique du vote de l’extrême droite. Si le cœur des métropoles et leurs banlieues restent des pôles de résistance à ce vote, l’espace périurbain a constitué le principal espace de progression du vote RN. A l’échelle européenne, Béatrice Giblin a publié dans le journal Le Monde en juin 2024 une série de cartes qui traduit les ressorts communs affectant les territoires les plus affectés par le vote croissant en faveur de l’extrême droite en Europe. Il y a là matière à mieux comprendre ce phénomène et à participer à la discussion collective pendant ce café géo.
Béatrice Giblin (géographe), Sylvie Gittus et Francesca Fattori (Cartographes) : Cartographie des territoires de l’extrême droite en Europe, Le Monde, 7 juin 2024 (édition abonnés)
-
19:25
Mardi 24 septembre 2024, au Café de Flore, c’est la rentrée des Cafés Géo !
sur Les cafés géographiquesCela fait 26 ans que l’aventure des Cafés Géographiques se poursuit et une quinzaine d’années qu’elle emprunte l’adresse parisienne du Café de Flore. Cette année encore, le mardi de 19h à 21h, la salle du premier étage du Flore permettra au public curieux et intéressé d’apprendre et/ou d’échanger à l’occasion de sujets variés grâce aux intervenants invités : géographes, historiens, diplomates, économistes, géopolitologues, journalistes… Cette saison 2024-2025 proposera des sujets d’actualité mais aussi d’autres sujets moins connus pour lesquels l’analyse spatiale et les outils de la géographie proposent des lectures pertinentes et … souvent stimulantes !
Programme des Cafés géographiques de Paris
Saison 2024-2025Mardi 24 septembre 2024 : Les territoires de l’extrême droite en France et en Europe (avec Béatrice Giblin, géographe)
Mardi 15 octobre 2024 : Les Etats-Unis et le Monde (avec Philippe Etienne, diplomate)
Mardi 19 novembre 2024 : Qu’est devenue la Yougoslavie (avec Jean-Arnault Dérens et Laurent Geslin, journalistes)
Mardi 17 décembre 2024 : Géohistoire de l’humanité (avec Christian Grataloup, géohistorien)
Mardi 28 janvier 2025 : Vivre au bord de la mer (avec Annaig Oiry, géographe)
Mardi 11 février 2025 : Géographie des pandémies contemporaines (avec Guillaume Lachenal, historien)
Mardi 25 mars 2025 : Nous aurons toujours besoin des forêts (avec Laurent Testot, journaliste)
Mardi 29 avril 2025 : Littérature et géographie (avec Emmanuelle Loyer, historienne, et Jean-Louis Tissier, géographe)
Le Café géo du mardi 24 septembre 2024, 19h à 21h
Les territoires de l’extrême droite en France et en Europe
(Avec Béatrice Giblin, géographe, géopolitologue)Béatrice Giblin, géographe et géopolitologue française, professeur émérite des universités, est l’invitée des Cafés Géographiques pour parler de l’extrême droite de France et en Europe.
En 2012, dans un numéro de la revue Hérodote, elle présentait déjà une analyse géopolitique de l’extrême droite en Europe. En 2022, toujours dans la revue Hérodote, elle posait la question d’une nouvelle géopolitique électorale en France. Aujourd’hui, en 2024, à l’heure où l’extrême droite accroît son audience dans de nombreux pays européens, la lecture géopolitique et l’analyse spatiale s’avèrent des clés de lecture indispensables de ce phénomène.
Ainsi en France, les dernières élections ont montré un net renforcement du processus de diffusion géographique du vote de l’extrême droite. Si le cœur des métropoles et leurs banlieues restent des pôles de résistance à ce vote, l’espace périurbain a constitué le principal espace de progression du vote RN. A l’échelle européenne, Béatrice Giblin a publié dans le journal Le Monde en juin 2024 une série de cartes qui traduit les ressorts communs affectant les territoires les plus affectés par le vote croissant en faveur de l’extrême droite en Europe. Il y a là matière à mieux comprendre ce phénomène et à participer à la discussion collective pendant ce café géo.
Daniel Oster, Paris, le 29 août 2024
-
14:00
ESRI et FME
sur GeotribuSeptième et avant-dernière partie du tour d'horizon des SIG sur les dessous des calculs géométriques : un petit tour chez ESRI et FME.
-
20:12
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
sur Cartographies numériquesL’eau est essentielle à la santé humaine et planétaire, ainsi que les objectifs internationaux qui la sous-tendent, notamment le Programme de développement durable à l’horizon 2030, le Cadre mondial de Kunming-Montréal pour la biodiversité, le Cadre de Sendai pour la réduction des risques et l’Accord de Paris sur l'atténuation et l'adaptation au changement climatique. Pourtant, la triple crise planétaire – celle du changement climatique, de la perte de nature et de biodiversité, de la pollution et des déchets – affecte l'eau du point de vue de sa disponibilité, sa quantité, sa qualité et sa distribution.
Dans la moitié des pays du monde, un ou plusieurs types d’écosystèmes d’eau douce sont dégradés, notamment les rivières, les lacs et les aquifères. Le débit des rivières a considérablement diminué, les masses d’eau de surface se réduisent ou disparaissent, l’eau ambiante est de plus en plus polluée et la gestion de l’eau est en retard. Telles sont quelques-unes des conclusions de trois rapports de suivi des progrès en matière d’eau douce, publiés par ONU-Eau et le Programme des Nations Unies pour l’environnement (PNUE).
Ces trois rapports d’étape à mi-parcours pour les indicateurs de l’ODD 6 sur l'eau font état d'un retard alarmant et montrent qu’il faut accélérer les actions. Pour la plupart des indicateurs de l’ODD 6, le rythme actuel des progrès n’est pas assez rapide pour combler l’écart d'ici 2030. Ces priorités peuvent être respectées à consition de réaliser des investissements adéquats dans les institutions, les infrastructures, l’information et l’innovation, où une action concertée et une cohérence institutionnelle sont nécessaires, et si de nouvelles idées, de nouveaux outils et de nouvelles solutions sont développés en s’appuyant sur les connaissances existantes et les pratiques autochtones.
Initiatives conduites par l'ONU dans le cadre de l'ODD 6 sur l'eau (source : Agenda 2030)
En collaboration avec des partenaires dans le cadre de l’Initiative de surveillance intégrée de l’ODD 6 menée par l’ONU-Eau, le PNUE a officiellement publié, en août 2024, des rapports sur les trois indicateurs de l’ODD 6 dont il est le garant. Ces rapports sur les indicateurs sont les suivants :
- ODD 6.3.2 – Progrès en matière de qualité de l’eau ambiante, en mettant l’accent sur la santé avec les données par pays, région et pour le monde entier.
La cible 6.3 des ODD est la suivante : « D'ici à 2030, améliorer la qualité de l'eau en réduisant la pollution, en éliminant les déversements et en minimisant les rejets de produits chimiques et de matières dangereux, en réduisant de moitié la proportion d'eaux usées non traitées et en augmentant considérablement le recyclage et la réutilisation en toute sécurité à l'échelle mondiale ». Pour suivre les progrès vers la cible, l’indicateur ODD 6.3.2 surveille la proportion de masses d’eau dont la qualité de l’eau ambiante est bonne, conformément aux normes nationales et/ou infranationales de qualité de l’eau et sur la base de mesures de cinq paramètres de qualité de l’eau qui renseignent sur les pressions les plus courantes sur la qualité de l’eau au niveau mondial. - ODD 6.5.1 – Progrès dans la mise en œuvre de la gestion intégrée des ressources en eau, en mettant l’accent sur le changement climatique avec les données par pays, région et pour le monde entier.
La cible 6.5 des ODD est la suivante : « D’ici à 2030, mettre en œuvre une gestion intégrée des ressources en eau à tous les niveaux, y compris par la coopération transfrontière, le cas échéant. ». Pour suivre les progrès vers la cible, l’indicateur 6.5.1 surveille le degré de mise en œuvre de la gestion intégrée des ressources en eau (GIRE), en évaluant les quatre dimensions clés de la GIRE : environnement propice, institutions et participation, instruments de gestion et financement. - ODD 6.6.1 – Progrès relatifs aux écosystèmes liés à l’eau, en mettant l’accent sur la biodiversité avec les données par pays, région et pour le monde entier.
La cible 6.6 des ODD est la suivante : « D’ici à 2020, protéger et restaurer les écosystèmes liés à l’eau, notamment les montagnes, les forêts, les zones humides, les rivières, les aquifères et les lacs ». Pour suivre les progrès vers la cible, l’indicateur 6.6.1 suit les changements au fil du temps dans les écosystèmes liés à l’eau tels que les lacs, les rivières, les zones humides et les mangroves, à l’aide d’observations de la Terre.
Chaque rapport est accompagné de tableaux de données et de visuels (cartes + graphiques) utilisables pour traiter des questions relatives à la gestion de l'eau, à l'environnement, à la santé.
Il est possible de consulter l'ensemble des rapports d'avancement de l'ODD 6 sur le site ONU-Eau (UN Water).
Peu de pays disposent d'instruments pour contôler la pollution de l'eau, mais leur niveau de mise en oeuvre progresse
(source : rapport sur l'ODD 6.5.1)Pour aller plus loin
- ONU-Eau
- Eau, assainissement et hygiène (OMS)
- Rapport mondial des Nations Unies sur la mise en valeur des ressources en eau 2022 : eaux souterraines : rendre visible l’invisible
- Rapport mondial des Nations Unies sur la mise en valeur des ressources en eau 2021 : la valeur de l'eau (UNESCO)
- Le droit à l'eau et à l'assainissement (UNESCO)
- Le Haut-Commissariat des Nations Unies aux droits de l'homme et les droits à l’eau et à l’assainissement
- Rapporteur spécial sur les droits à l’eau et à l’assainissement
- Journée mondiale de l'eau (22 mars)
- Journée mondiale des toilettes (19 novembre)
Articles connexes
Progrès en matière d'eau potable, d'assainissement et d'hygiène dans les écoles (2015-2023)
Rapport mondial des Nations Unies 2019 sur la mise en valeur des ressources en eau
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Conflits liés à l'eau : les prévisions du site Water, Peace and Security
Cartes et données SIG sur les petits et moyens réservoirs d'eau artificiels dans le monde
L'évaporation des lacs dans le monde : une tendance à la hausse
Les barrages vieillissants constituent une menace croissante dans le monde (rapport de l'ONU)
Impact du changement climatique sur le niveau des nappes d'eau souterraines en 2100
Un atlas mondial pour estimer les volumes d’eau des glaciers
Connaître l'état des eaux souterraines de l'Union européenne (projet Under the Surface)
Nappes d'eau souterraine : bilan de l’évolution des niveaux en 2022-2023 (BRGM)
- ODD 6.3.2 – Progrès en matière de qualité de l’eau ambiante, en mettant l’accent sur la santé avec les données par pays, région et pour le monde entier.
-
19:41
Jeu de données SEDAC sur l'évolution des villes dans le monde entre 1975 et 2030
sur Cartographies numériques
Un nouvel ensemble de données sur les polygones et points urbains mondiaux est disponible sur le site SEDAC de la NASA. Le jeu de données (GUPPD, 1975-2030, v1) comprend 123 034 agglomérations avec noms de lieux et chiffres de population urbaine pour les années 1975-2030.
Le jeu de données s'appuie sur la base de données 2015 des établissements humains mondiaux (Global Human Settlement, GHS) et les centres urbains (UCDB) du Centre commun de recherche (JRC). L'ensemble de données du modèle d'établissement du JRC (GHS-SMOD) comprend une hiérarchie d'établissements urbains, du centre urbain (niveau 30) au groupe urbain dense (niveau 23) et au groupe urbain semi-dense (niveau 22). L'UCDB ne comprend que le niveau 30, tandis que le GUPPDv1 ajoute les niveaux 22 et 23, et utilise des sources de données ouvertes pour vérifier et valider les noms attribués par le JRC à ses polygones UCDB et pour étiqueter les établissements nouvellement ajoutés. La méthodologie décrite dans la documentation a permis d'étiqueter systématiquement un pourcentage plus élevé de polygones UCDB que ceux précédemment étiquetés par le JRC.
Les données sont disponibles aux formats Geodatabase (.gdb) et GeoPackage (.gpkg) sous forme de polygones et de points (2,9 Gigaoctets). Il faut au préalable s'inscrire sur le site pour pouvoir les télécharger.
Un affichage rapide du fichier Geodatabase dans le logiciel QGIS permet de voir qu'il est possible de faire des comparaisons entre villes et par tranches de 5 ans de 1975 à 2030.
En plus de ces données chiffrées, on dispose également de l'emprise spatiale des aires urbaines.
Le site femaFHZ.com a mis à disposition une interface interactive pour visualiser les données sans avoir à les télécharger. Les points sont affichés si la population est supérieure à 200 000 entre les niveaux de zoom 1 et 6. Au-delà du niveau de zoom 6, tous les polygones sont affichés. En cliquant sur un point ou un polygone, on obtient le graphique de la population de 1975 à 2030 de la ville que l'on souhaite.
Pour rappel, les données SEDAC ne reposent pas sur des recensements de population, mais sur des estimations à partir de la densité du bâti. La méthode GHSL (Global Human Settlement Layer) repose sur un continum urbain-rural visant à dégager des degrés d'urbanisation. Seuls l'urbain dense et semi-dense sont pris en compte ici.
La grille d'urbanisation qui a servi de référence pour l'élaboration de ce jeu de donnée est celle de 2019 (Urban Centre Database UCDB R2019). L'extension spatiale des aires urbaines est donc référée à cette année et ne reflète pas les évolutions entre 1975 et 2030. Voir la documentation détaillée.
Articles connexesCartographier l'empreinte humaine à la surface du globe
Utiliser la plateforme Urban TEP pour étudier les régions urbaines dans le monde
Un atlas de l'expansion urbaine à partir de 200 villes dans le monde
Data visualisations pour étudier l'expansion urbaine
Pollution de l'air et zones urbaines dans le monde
Urbanisation horizontale ou verticale : un enjeu majeur notamment pour les métropoles du Sud
Africapolis, un projet pour cartographier au plus près l'Afrique urbaine
Jeu de données SIG sur le classement des métropoles mondiales
-
14:57
Air quality stripes, un site pour comparer la pollution de l'air en ville depuis 1850
sur Cartographies numériquesLe site AirQualityStripes.info s'est inspiré des bandes climatiques (climate stripes) du professeur Ed Hawkins de l'Université de Reading. Créé par des scientifiques, ce site permet de comparer la qualité de l'air de 1850 à 2021 dans des villes du monde entier.
Les données PM2,5 proviennent du modèle climatique UKESM combiné à des observations par satellite. L'échelle de couleurs a été élaborée par un artiste qui a analysé des images Google de la pollution de l'air. Les couleurs bleu clair représentent le ciel bleu pur, tandis que les rouges et les bruns plus foncés indiquent des quantités croissantes de pollution atmosphérique.
« Les images montrent qu’il est possible de réduire la pollution de l’air. L’air de nombreuses villes européennes est beaucoup plus propre aujourd’hui qu’il y a 100 ans, ce qui améliore notre santé. Nous espérons vraiment que des améliorations similaires pourront être obtenues dans le monde entier. »
« En fin de compte, la pollution de l'air est l'un des principaux facteurs de risque de décès dans le monde. On estime qu'elle est responsable d'un décès sur dix dans le monde. Les bandes de qualité de l'air montrent la diversité des tendances et des concentrations à travers le monde. Nos bandes démontrent qu'il reste encore beaucoup à faire pour réduire l'exposition des personnes à une mauvaise qualité de l'air, et dans certains endroits, beaucoup plus ! »
Air Quality Stripes contribue à faire prendre conscience du problème et à sensibiliser la population ainsi que les décideurs afin de réduire la pollution de l'air en milieu urbain. Ces schémas peuvent être aussi utilisées pour comparer les effets de la mise en place de mesures de limitation de la pollution (très variables selon les villes). De manière indirecte, ils reflètent les vagues d'industrialisation et de désindustrialisation à travers le monde.
Mais il convient de prendre ces graphiques et ces données avec précaution, car tout ce qui s'est passé avant 1998 a été modélisé et non observé. Pour les années les plus récentes (2000-2021), le site utilise un ensemble de données qui combine des observations au niveau du sol et par satellite des concentrations de particules PM2,5 de Van Donkelaar et al. (2021, résolution V5 0,1 degré), cet ensemble de données peut être trouvé ici . Les observations par satellite de particules PM2,5 ne sont en revanche pas disponibles pour les années antérieures à 1998. Les auteurs ont donc utilisé des modèles informatiques pour dégager les tendances historiques concernant la pollution atmosphérique (Turnock 2020). Les données de modèles accessibles au public ont été tirées du Coupled Model Intercomparison Project (CMIP6) mis à disposition gratuitement via la Earth System Grid Federation (ESGF). Ce sont les modèles climatiques qui ont été utilisés pour le rapport d'évaluation du GIEC. La modélisation des concentrations mondiales de polluants est très difficile, et les modèles sont continuellement réévalués par rapport aux observations afin d'améliorer leur représentation des processus physiques et chimiques. Il s'agit des premières versions des bandes de qualité de l'air. Elles seront mises à jour au fur et à mesure que des simulations et des observations améliorées seront disponibles.
Les données qui ont servi à faire ces graphiques sont disponibles sur Zenodo.
Pour compléter
Les bandes climatiques peuvent-elles changer notre façon de penser la pollution de l’air ? (The Guardian)
Articles connexes
La pollution de l'air est la première menace mondiale pour la santé humaine (rapport de l'EPIC, août 2023)
L'empreinte carbone des villes dans le monde selon le modèle GGMCF
Pollution de l'air et zones urbaines dans le monde
Les plus gros émetteurs directs de CO2 en FranceUtiliser la plateforme Urban TEP pour étudier les régions urbaines dans le monde
Un atlas de l'expansion urbaine à partir de 200 villes dans le monde
Data visualisations pour étudier l'expansion urbaine
Urbanisation horizontale ou verticale : un enjeu majeur notamment pour les métropoles du Sud
Africapolis, un projet pour cartographier au plus près l'Afrique urbaine
Jeu de données SIG sur le classement des métropoles mondiales
-
21:59
Michel Bruneau, un « géographe de transitions »
sur Les cafés géographiquesMichel BRUNEAU, Parcours d’un géographe de transitions. L’Harmattan, 2023
Ce « parcours » est le parcours d’une vie, d’une vie professionnelle de géographe bien sûr, mais aussi d’une vie personnelle où amitiés et rencontres intellectuelles jouent un grand rôle, dans le milieu universitaire français comme sur ses terrains d’études en Thaïlande ou en Asie Mineure. En utilisant le terme « transitions » pour qualifier une carrière de plus de 60 ans, Michel Bruneau se réfère à l’espace -passage de l’Asie du Sud-Est au terrain pontique de la Grèce au Caucase -, mais aussi à son évolution personnelle sur les plans méthodologique et épistémologique.
Le géographe est avant tout un homme de « terrain », terme qui définit à la fois un espace, des méthodes et le discours produit sur cet espace. Pour ce faire il collecte des données selon des moyens traditionnels (enquêtes, questionnaires…) mais aussi des techniques novatrices dans les années 1960/1970 (images de télédétection…) et utilise les travaux des autres sciences humaines (anthropologie, histoire…). Le choix des deux grands terrains d’études de Michel Bruneau, l’Asie du Sud-Est et le monde grec pontique, est en grande partie lié à son histoire familiale : un grand-père fonctionnaire en Indochine et un père élève de Pierre Gourou à Hanoï dans le premier cas, des vacances et l’étude du grec ancien au lycée dans le second cas. C’est ainsi que le jeune géographe a commencé sa carrière à l’université de Chiang Mai, dans le nord de la Thaïlande dans le cadre du service civil de coopération afin d’y étudier « Les populations de riziculteurs des bassins et vallées ».
A travers les longues années passées en Thaïlande, nous pouvons suivre l’évolution intellectuelle de l’auteur mais aussi celle de la pensée géographique de l’époque.
Les premiers travaux de M. Bruneau se font dans le cadre de la géographie tropicale telle qu’elle a été définie par P. Gourou, une géographie classique post-vidalienne. Il recueille de nombreuses données qualitatives et quantitatives auprès des paysans dont il partage la vie, avec l’aide des étudiants locaux, notamment chez les Karen de la montagne et dans les villages du bassin de Chiang Mai. Ces travaux qui intègrent déjà les images de télédétection Landsat pour la cartographie et le traitement informatique des données chiffrées, sont la base de sa thèse préparée au Centre d’Etudes de Géographie tropicale (CEGET) de Bordeaux.
Au cours des années1970, un clivage divise les géographes selon des facteurs intellectuels et politiques. La géographie post-vidalienne de P. Gourou est vivement contestée par les tenants de la « géographie critique » qui utilise les concepts marxistes de mode de production. Ces derniers expliquent la différenciation des espaces ruraux thaïlandais par la pénétration du mode de production capitaliste sous la pression des impérialismes anglais et français. M. Bruneau, ancien soixante-huitard, sensible aux thèses marxistes d’analyse des sociétés et converti au catholicisme de Témoignage Chrétien, adopte l’approche de la géographie critique dans sa thèse, dirigée par Jean Delvert. La soutenance de celle-ci, en 1977, suscite de vives controverses. D’un côté, les géographes conservateurs – dont le directeur de thèse –, tenants de la géographie tropicale, s’étonnent de l’utilisation de concepts marxistes et refusent l’utilisation de l’histoire et des méthodes nouvelles. De l’autre côté, les « nouveaux » géographes, de gauche, tiers-mondistes, valorisent la problématique marxiste et dénoncent la filiation entre géographie coloniale et géographie tropicale. Sous la pression de J. Delvert, il n’y eut pas de compte rendu de la thèse de M. Bruneau dans les Annales de géographie.
Troisième étape dans son itinéraire intellectuel : l’abandon du schéma marxiste d’explication. La poursuite de ses recherches en Thaïlande l’amène à formuler des limites à la géographie critique. La lutte des classes des années 70 n’a pas débouché sur une réforme agraire. La forte croissance économique et industrielle capitaliste du pays a amené la création d’une nouvelle paysannerie aisée, intégrée dans une force de travail mondialisée. On peut parler de villageois urbanisés dont la cohésion est assurée par une forte identité culturelle.
Les derniers travaux de M. Bruneau sur son terrain asiatique sont marqués par la prédominance de la dimension géohistorique dont les maîtres sont F. Braudel puis C. Grataloup. Il a ainsi montré qu’en Asie de l’Est, deux modèles spatiaux ont été élaborés sur la longue durée, l’un polycentrique et hétérarchique (1), sur le modèle indien, qu’il appelle Etat-mandala, l’autre, de type hiérarchique autour d’une autorité centrale forte, sur le modèle chinois.
Le second grand terrain du géographe concerne les Grecs pontiques et l’amène à se déplacer de la Grèce à la Turquie et au Caucase russe et géorgien, mais aussi dans d’autres parties du monde (France, Amérique du Nord, Australie). Ces recherches ont été faites dans le cadre d’une nouvelle unité de recherche, « Territorialité et Identité dans le domaine européen » (TIDE). Le travail porte sur les diasporas et les communautés transnationales. En effet, le traité de Lausanne (1923) a contraint les Grecs d’Asie Mineure, du Pont et de Thrace orientale à quitter la nouvelle République turque pour l’Etat grec puis le reste du monde.
Bruneau s’engage dans ces recherches avec une nouvelle approche scientifique, celle de la géographie culturelle, telle qu’elle a été définie par Paul Claval. Les descendants des migrants pontiques ont gardé une forte mémoire du territoire d’origine de leurs ancêtres. La transmission de la mémoire des lieux d’origine, assurée par des associations culturelles, utilise une iconographie très riche et des voyages-pèlerinages. Monuments commémoratifs, images murales, toponymes évoquent aussi bien les mythes antiques que les violences turques plus récentes. On part à la découverte du village où vivaient les ancêtres ; même s’il est difficile de retrouver leurs maisons et si l’église a été transformée en mosquée, on reçoit un bon accueil des habitants actuels. La mémoire est aussi entretenue par les œuvres littéraires, comme les romans historiques de Christos Samouelidis ou les articles de Photis Kontoglou.
Le travail sur les migrations des Grecs pontiques a amené M. Bruneau à élaborer un nouveau concept, celui de « peuple-monde de la longue durée » (2). Un peuple-monde est une entité socio-politique et culturelle dont la dimension excède celle d’un seul Etat. Les enquêtes de terrain sont fondamentales dans ce nouveau champ de recherche, mais l’utilisation de données statistiques et la cartographie des paysages n’y ont pas leur place. De nombreuses références scientifiques ont guidé notre géographe, celles de F. Braudel et de de C. Grataloup déjà cités, mais aussi celles de P. Nora, de J. Gottman, d’A. Smith (l’approche mytho-symbolique de « peuple ») ou de J. Lacarrière (continuité de l’hellénisme de l’Antiquité à nos jours). Un peuple-monde a un Etat territorial et une diaspora mondiale.
Chez les Grecs, la continuité historique a été assurée par la langue, porteuse d’une culture, l’hellénisme. Une même langue parlée depuis l’Antiquité et une même spiritualité chrétienne depuis Byzance, l’orthodoxie. Un modèle spatial en cinq auréoles concentriques permet de comprendre la dimension spatiale de l’hellénisme, depuis l’espace égéen central jusqu’aux auréoles externes de la diaspora dans le Nouveau Monde et en Afrique.
A partir de ses analyses sur l’hellénisme, M. Bruneau a pu distinguer cinq autres peuples-monde de la longue durée : Indiens, Chinois, Juifs, Arméniens et Iraniens. La longévité de leur culture est exceptionnelle (même s’ils ont assimilé d’autres éléments culturels).
En conclusion, M. Bruneau reconnait qu’au cours de sa vie de chercheur-géographe, il a suivi deux approches différentes, celle d’une étude spatiale à différentes échelles (village, Etat, ensemble d’Etats) en Asie du Sud-est et celle des réseaux et des lieux à l’échelle mondiale pour la diaspora grecque. Mais au-delà de leurs différences, ces approches ont des caractères communs : immersion dans les cultures étudiées sur une longue période, approche interdisciplinaire, modélisation graphique, importance des relations amicales pour la compréhension du milieu…). Les inflexions de son itinéraire scientifique reflètent l’évolution des courants de la pensée géographique en un demi-siècle.
Notes :
(1) hétérarchique : relatif à un système d’organisation non hiérarchique qui est caractérisé par l’interrelation et la coopération entre les entités qui la composent.
(2) peuple-monde de la longue durée : concept élaboré par le géographe Michel Bruneau. Voir la synthèse : Michel Bruneau, Peuples-monde de la longue durée. Chinois, Indiens, Iraniens, Grecs, Juifs, Arméniens, CNRS Editions, 2022.
Michèle Vignaux, juillet 2024
-
14:00
Revue de presse du 23 août 2024
sur GeotribuUne GeoRDP à lire sur le retour des vacances ! -
14:00
SFCGAL c'est trop de la balle !
sur GeotribuSixième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : utilisation de SFCGAL pour des calculs plus robustes -
14:00
La topologie à la rescousse du spaghetti
sur GeotribuCinquième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : la topologie à la rescousse du spaghetti ! -
14:00
Les opérations géométriques dans PostGIS, Oracle et SQL Server
sur GeotribuQuatrième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : comparons les systèmes de gestion de bases de données relationnelles et spatiales PostGIS, Oracle et Microsoft SQL Server.
-
9:00
Rando Vosges du Nord se réinvente avec Geotrek-Rando v3 : nouveau site de randonnée
sur Makina CorpusSi vous êtes un amateur de randonnée, vous serez ravi d’apprendre que le Parc naturel régional des Vosges du Nord a lancé la dernière version de son site de randonnées e
-
14:00
geOcom 2024
sur GeotribuSynthèse de l'édition 2024 des rencontres annuelles de la communauté geOrchestra qui a eu lieu en juin à Lille -
14:00
Olympiades de géométrie : GRASS et SAGA
sur GeotribuTroisième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : GEOS et QGIS, au tableau !
-
9:00
Découvrez notre nouvelle formation Nuxt : créez une application web
sur Makina CorpusAvec la nouvelle formation Nuxt découvrez la création d’une application web à partir de ce framework afin d’appréhender son architecture, ses modes de rendu (SSR/CSR/ESR…) et ses spécificités.
-
8:00
Découvrez les dernières avancées de Geotrek-widget
sur Makina CorpusNous sommes ravis de vous présenter les dernières avancées de Geotrek-Widget, qui a fait l’objet de nombreux développements ces derniers mois pour améliorer son interface et ses fonctionnalités.
-
10:16
Lettre ouverte à la commission Européenne – Défendons le programme NGI
sur OslandiaCette lettre a été publiée initialement par les petites singularités. Si vous souhaitez signer la lettre, vous pouvez la publier sur votre site et compléter le tableau ici.
Le CNLL a également publié une tribune, s’alarmant de la suppression des programmes NGI. Oslandia, en tant que membre du CNLL, soutient aussi ce texte.
Lettre ouverte à la Commission Européenne
Depuis 2020, les programmes Next Generation Internet (NGI), sous-branche du programme Horizon Europe de la Commission Européenne financent en cascade (via les appels de NLNet) le logiciel libre en Europe. Cette année, à la lecture du brouillon du Programme de Travail de Horizon Europe détaillant les programmes de financement de la commission européenne pour 2025, nous nous apercevons que les programmes Next Generation Internet ne sont plus mentionnés dans le Cluster 4.
Les programmes NGI ont démontré leur force et leur importance dans le soutien à l’infrastructure logicielle européenne, formant un instrument générique de financement des communs numériques qui doivent être rendus accessibles dans la durée. Nous sommes dans l’incompréhension face à cette transformation, d’autant plus que le fonctionnement de NGI est efficace et économique puisqu’il soutient l’ensemble des projets de logiciel libre des plus petites initiatives aux mieux assises. La diversité de cet écosystème fait la grande force de l’innovation technologique européenne et le maintien de l’initiative NGI pour former un soutien structurel à ces projets logiciels, qui sont au cœur de l’innovation mondiale, permet de garantir la souveraineté d’une infrastructure européenne. Contrairement à la perception courante, les innovations techniques sont issues des communautés de programmeurs européens plutôt que nord-américains, et le plus souvent issues de structures de taille réduite.
Le Cluster 4 allouait 27.00 millions d’euros au service de :
- « Human centric Internet aligned with values and principles commonly shared in Europe » ;
- « A flourishing internet, based on common building blocks created within NGI, that enables better control of our digital life » ;
- « A structured eco-system of talented contributors driving the creation of new internet commons and the evolution of existing internet common ».
Au nom de ces enjeux, ce sont plus de 500 projets qui ont reçu un financement NGI0 dans les 5 premières années d’exercice, ainsi que plus de 18 organisations collaborant à faire vivre ces consortia européens.
NGI contribue à un vaste écosystème puisque la plupart du budget est dévolue au financement de tierces parties par le biais des appels ouverts (open calls). Ils structurent des communs qui recouvrent l’ensemble de l’Internet, du matériel aux applications d’intégration verticale en passant par la virtualisation, les protocoles, les systèmes d’exploitation, les identités électroniques ou la supervision du trafic de données. Ce financement des tierces parties n’est pas renouvelé dans le programme actuel, ce qui laissera de nombreux projets sans ressources adéquates pour la recherche et l’innovation en Europe.
Par ailleurs, NGI permet des échanges et des collaborations à travers tous les pays de la zone euro et aussi avec ceux des widening countries [1], ce qui est actuellement une réussite tout autant qu’un progrès en cours, comme le fut le programme Erasmus avant nous. NGI0 est aussi une initiative qui participe à l’ouverture et à l’entretien de relation sur un temps plus long que les financements de projets. NGI encourage également à l’implémentation des projets financés par le biais de pilotes, et soutient la collaboration au sein des initiatives, ainsi que l’identification et la réutilisation d’éléments communs au travers des projets, l’interopérabilité notament des systèmes d’identification, et la mise en place de modèles de développement intégrant les autres sources de financements aux différentes échelles en Europe.
Alors que les États-Unis d’Amérique, la Chine ou la Russie déploient des moyens publics et privés colossaux pour développer des logiciels et infrastructures captant massivement les données des consommateurs, l’Union Européenne ne peut pas se permettre ce renoncement. Les logiciels libres et open source tels que soutenus par les projets NGI depuis 2020 sont, par construction, à l’opposée des potentiels vecteurs d’ingérence étrangère. Ils permettent de conserver localement les données et de favoriser une économie et des savoirs-faire à l’échelle communautaire, tout en permettant à la fois une collaboration internationale. Ceci est d’autant plus indispensable dans le contexte géopolitique que nous connaissons actuellement. L’enjeu de la souveraineté technologique y est prépondérant et le logiciel libre permet d’y répondre sans renier la nécessité d’œuvrer pour la paix et la citoyenneté dans l’ensemble du monde numérique.
Dans ces perspectives, nous vous demandons urgemment de réclamer la préservation du programme NGI dans le programme de financement 2025.
[1] Tels que définis par Horizon Europe, les États Membres élargis sont la Bulgarie, la Croatie, Chypre, la République Tchèque, l’Estonie, la Grèce, la Hongrie, la Lettonie, la Lithuanie, Malte, la Pologne, le Portugal, la Roumanie, la Slovaquie et la Slovénie. Les pays associés élargies (sous conditions d’un accord d’association) l’Albanie, l’Arménie, la Bosnie Herzégovine, les Iles Feroé, la Géorgie, le Kosovo, la Moldavie, le Monténégro, le Maroc, la Macédoine du Nord, la Serbie, la Tunisie, la Turquie et l’Ukraine. Les régions élargies d’outre-mer sont : la Guadeloupe, la Guyane Française, la Martinique, La Réunion, Mayotte, Saint-Martin, Les Açores, Madère, les Iles Canaries.Photo de Maximalfocus sur Unsplash
-
14:00
Journée annuelle Prodige 2024
sur GeotribuSynthèse de la journée annuelle Prodige qui s'est tenue en ligne le 3 juin 2024 -
14:00
GEOS au cœur de QGIS
sur GeotribuDeuxième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : GEOS et QGIS, au tableau !
-
9:00
Nouvelle formation MapLibre : création de cartes web interactives
sur Makina CorpusCette formation MapLibre enseigne aux développeurs web à créer et personnaliser des cartes interactives pour leurs applications.
-
6:49
GéoDataDays 2024
sur OslandiaOslandia est cette année encore sponsor des GéoDataDays qui se tiendront les 19 et 20 septembre 2024 à Nantes ! Retrouvez-nous sur notre stand pour découvrir nos solutions et notamment Piero, l’application Web 3D SIG/BIM open source et sur l’espace Démo pour un atelier Métropoles OpenSource !
Venez discuter des dernières avancées de l’open source Geospatial, voir les projets que nous avons réalisés, et découvrir comment nous pouvons répondre à vos problématiques.
Vous y croiserez notamment Bertrand Parpoil, Vincent Picavet, Julien Moura et Vincent Bré !
Inscription : [https:]]
-
8:08
Partez à l'aventure sur les chemins éco-responsables du PNR Loire-Anjou-Touraine
sur Makina CorpusLa mise en place de l’écosystème GeotrekÀ partir de l’année 2022, le Parc naturel régional Loire-Anjou-Tour
-
9:24
CANARI France devient Climadiag Agriculture
sur Makina Corpus
-
6:55
[1’Tech by Oslandia] open data
sur OslandiaDans cette minute Tech, nos collaborateurs vous proposent d’expliquer une technologie, une méthodologie, un concept. Après open source, LiDAR, webGL, réversibilité, TCO et même télétravail, on a brainstormé sur GitLab pour donner notre meilleure définition de l’open data
L’open data ( « Donnée ouverte » ), est la donnée librement accessible. Elle concerne notamment toutes les données publiques accessibles aux usagers : citoyens, entreprises, collectivités, … Elles peuvent être d’origine privée mais sont la plupart du temps mises à disposition par une collectivité ou un établissement public.
L’Open Knowledge Foundation en 2005 donnent les critères essentiels de l’open data : la disponibilité, la réutilisation et la distribution, et la participation universelle. En France, il existe un cadre légal obligeant à l’ouverture de certaines données.
Ces ressources ouvertes accessibles dans des catalogues de données, permettent de construire des outils comme des observatoires pour lesquels la représentation cartographique est utilisée.Oslandia a travaillé sur de nombreux projets mobilisant de l’open data, c’est le cas de Terristory®, un outil partenarial d’aide au pilotage de la transition des territoires ou sur des projets avec Bruxelles Environnement. Nous avons également une connaissance approfondie de la donnée OpenStreetMap.
L’open data permet d’alimenter ces outils numériques avec de la donnée de qualité permettant ainsi des services de qualité.
OpenData et OpenSource forment le combo libre et efficient !
-
15:05
DbToolsBundle : sortie de la version 1.2
sur Makina CorpusDécouvrez les nouveautés de cette nouvelle version ainsi que les fonctionnalités à venir de la prochaine version majeure.
-
14:00
Le constat : les calculs géométriques ne sont pas bons
sur GeotribuDeuxième partie du tour d'horizon des SIG sur la précision des calculs géométriques : analyse des opérations de superposition et de leurs limites. -
14:00
Le constat : les calculs géométriques ne sont pas bons
sur GeotribuPremier chapitre du tour d'horizon des SIG sur la précision des calculs géométriques : analyse des opérations de superposition et de leurs limites.
-
7:30
[Équipe Oslandia] Jean-Marie, développeur C++ / Python
sur OslandiaJean-Marie a toujours aimé l’électronique et tout ce qui touche au traitement du signal. Il rejoint l’INSA Rennes, une école d’ingénieur généraliste en spécialité ESC – Electronique et Systèmes de Communication (aujourd’hui E&T) sur les problématiques télécommunications.
Il réalise son stage de fin d’étude chez Silicom à Rennes sur le sujet « Modélisation de systèmes de communication » sous Matlab avant d’être embauché par la même entreprise mais pour une toute autre mission …le développement d’une application informatique de simulation de réseaux télécom pour la DGA avec QT en C++ !
« Je ne connaissais pas trop l’informatique, quelques notions pendant mes études, mais j’aimais bien, ça me plaisait de pouvoir me lancer là dedans. J’ai acquis des connaissances en pratiquant, c’est comme ça qu’on apprend ! »
Ensuite, Jean-Marie saisit l’opportunité de travailler sur le passage au tout numérique via la TNT. « J’ai travaillé pendant 2 ans et demi au CSA, j’ai réalisé des études sur la planification de fréquences, étudié les couvertures des émetteurs TNT. C’était une super expérience, j’ai travaillé sur un projet qui a impacté les français au quotidien ! »
De retour à Rennes, il reprend le développement en C++ avec QT, notamment pour un projet d’analyse de signaux sismiques du CEA et découvre QGIS. Une nouvelle compétence qu’il mobilise pour la DGA et le développement d’un outil basé sur QGIS pour l’affichage de données relatives à l’aide à la planification de missions satellites.
« 14 ans chez Silicom, il était temps de passer à autre chose »
Jean-Marie rejoint Oslandia en novembre 2021 en tant que développeur C++ / Python où il réalise des missions de développement et DevOps, notamment pour Viamichelin sur la refonte du calcul d’itinéraire de l’outil en ligne ou pour l’IGN pour la mise en place du calcul d’itinéraire sur la nouvelle Géoplateforme.
Projet emblématiqueJean-Marie a produit 80% du code d’OpenLog, un outil de visualisation de données de sondage open source porté par Apeiron (filiale d’Oslandia).
« Ce projet m’a permis de mobiliser mes connaissances sur la représentation de données »
Technologies de prédilectionPython et C++
Ta philosophieLe partage ! Ce qu’on produit peut être utilisé par d’autres, nous partageons nos connaissances et notre travail !
Oslandia en 1 motOuverture par rapport à l’open source et dans le sens où tout est transparent dans l’entreprise, tout le monde peut donner son avis, les décisions sont prises collectivement.
-
13:57
Publication du rapport annuel du CNIG 2023
sur Conseil national de l'information géolocaliséeLe rapport annuel du CNIG est sorti : le CNIG dans toutes ses dimensions
-
14:00
De la tolérance en SIG
sur GeotribuUn tour d'horizon des SIG sur la précision des calculs géométriques. -
14:00
De la tolérance en SIG
sur GeotribuUn tour d'horizon des SIG sur la précision des calculs géométriques.
-
10:27
Une vision multiscalaire des rapports de force politiques
sur Carnet (neo)cartographiqueCamarades cartographes, nous sortons d’une séquence politique inédite. Le pays semble fracturé en trois blocs avec une extrême droite au plus haut. Mais comment rendre compte cartographiquement des clivages géographiques qui fracturent le pays ?
Dans un billet réalisé avec Antoine Beroud et Ronan Ysebaert pour le journal l’Humanité (voir), nous proposons une série de cartes avec des représentations continues à plusieurs échelles. La méthode d’interpolation spatiale utilisée ici est connue sous le nom de potentiel, de potentiel gravitationnel ou d’accessibilité gravitationnelle. Le concept a été développé dans les années 1940 par le physicien John Q. Stewart à partir d’une analogie avec le modèle gravitationnel. Ce potentiel est défini comme un stock – un nombre de voix – pondéré par une distance définie ici par une fonction gaussienne (courbe en cloche). En faisant varier la portée de cette fonction, l’algorithme permet de dessiner des cartes plus ou moins généralisées pour montrer les grandes structures spatiales selon différentes échelles d’analyse, en faisant abstraction des irrégularités du maillage sous-jacent.
In fine, la méthode permet de rendre compte avec différents filtres d’observation, des lignes de force des différents blocs politiques qui structurent géographiquement le pays.
Bloc de gauche
Bloc de droite
Bloc d’extrême droite
Des comparaisons deux à deux sont également possibles.
Article initial et explications méthodologiques : [https:]]
Code source : [https:]] & [https:]]
Ingénieur de recherche CNRS en sciences de l'information géographique. Membre de l'UMS RIATE et du réseau MIGREUROP / CNRS research engineer in geographical information sciences. Member of UMS RIATE and the MIGREUROP network.
-
9:00
Nouveautés Geotrek : le volet éditorial s'étoffe pour répondre à tous vos besoins
sur Makina CorpusLe Parc National des Écrins a modernisé son portail Rando Pays des Écrins avec de nouvelles fonctionnalités éditoriales et de navigation.
-
7:04
TerriSTORY® – Une histoire de territoires OpenSource
sur OslandiaLorsque nous avons commencé à travailler sur Terristory en 2018, c’était alors un POC (Proof Of Concept) commandé par AURA-EE, Auvergne Rhône-Alpes Énergie Environnement. Le premier sprint devait convaincre de la faisabilité et projeter les ambitions de l’association. 6 ans plus tard, la plateforme devenue publique est un projet OpenSource maintenu de façon autonome directement par AURA-EE.
Le développement de la plateforme s’est déroulé sur plusieurs années. Au départ Oslandia était le prestataire chargé de réaliser et conseiller l’AURA-EE sur le projet, mais il était prévu aussi de former petit à petit les équipes côté association et de transmettre le savoir pour un jour permettre une totale autonomie. En parallèle, il y avait une volonté forte de la part d’Oslandia d’arriver à terme à une ouverture du code source de l’application, ce qui était également une volonté d’AURA-EE dès le départ.
Publier le code source d’une application (ici un site web) n’est pas forcément une tâche difficile en apparence. On pourrait penser qu’il s’agit juste de créer un répertoire gitlab et d’y déposer le code. Dans les faits, c’est ce qui se passe. Néanmoins, une bonne préparation en amont est nécessaire si on souhaite une ouverture de qualité.
De nombreuses questions se bousculent alorsQuand doit-on publier ? Est-ce que la documentation est prête ? Dois-je traduire en anglais ? A-t-on résolu tous les bugs critiques ? Comment va se passer la publicité ? Y-a-t il un formalisme à respecter ? Les aspects juridiques sont-ils couverts ? Est-on prêt à recevoir les retours de la communauté ?
Les étapesLa première chose à faire était de choisir la licence. Dans le cas de Terristory c’est la GNU Affero (ou AGPL) version 3 qui a été sélectionnée, après étude des tenants et des aboutissants. Ici il s’agit d’un outil serveur, sur lequel AURA-EE et les différents partenaires impliqués au sein d’un consortium national voulaient que les modifications faites par les utilisateurs soient reversées.
Un premier travail de documentation et de structuration du code a été entrepris par AURA-EE. Avoir une bonne documentation, des guidelines sont essentiels pour s’assurer que toute personne intéressée par la réutilisation ou par la contribution au code puisse aisément installer, tester et ajouter de nouvelles fonctionnalités.
Le code de Terristory a également connu de nombreuses phases de refactoring, c’est à dire de réécriture de certaines parties parce qu’obsolète, pas assez efficaces ou suite à des changements de librairies utilisées. Outre les évolutions fonctionnelle d’une telle application, le refactoring constitue une partie importante de la vie du logiciel. D’autant plus sur les applications Web où les avancées technologiques sont rapides. Il faut maintenir le code, et suivre l’évolution des librairies sous-jacentes si on veut pouvoir faire évoluer le site plus facilement et par un maximum de personnes. Côté Oslandia, nous anticipons au mieux ces phases de développement pour éviter le jour J de devoir faire une revue totale et potentiellement complexe du code juste avant la publication.
Oslandia a accompagné AURA-EE sur toutes ces années, et a réussi à lui transmettre la culture de l’OpenSource, aussi bien techniquement que dans les méthodes de travail. Ainsi, les collaborateurs d’AURA-EE sont vite devenus des utilisateurs experts de Gitlab, des utilisateurs experts de la solution, puis des développeurs de l’application, pour enfin procéder eux-même à la libération publique du code. En tant qu’ancien développeur principal de l’application pendant plusieurs années, je suis personnellement assez fier du travail accompli et de la manière dont les choses se sont déroulées.
[Témoignage]Pierrick Yalamas, Directeur intelligence territoriale et observatoires à Auvergne-Rhône-Alpes Énergie Environnement :
Notre vision
« Oslandia a su nous accompagner durant les premières années du projet TerriSTORY® : des premiers développements à l’appui juridique (choix de la licence) pour l’ouverture du code. L’équipe est maintenant complètement autonome. L’ouverture du code début 2023 a déjà donné lieu (mi-2024) à plusieurs réutilisations, qui permettent d’enrichir les fonctionnalités de TerriSTORY®. »Le projet TerriSTORY® et la manière dont il s’est déroulé correspond à la vision d’Oslandia de la relation client : notre objectif est de fournir les outils et les méthodes permettant aux organisations que nous accompagnons d’être le plus efficace et le plus autonome possible. Et ce, sur tous les aspects d’un projet logiciel : technique, mais aussi organisationnel, juridique, sur l’infrastructure de développement et les process mis en place. Voir des solutions que nous avons ébauchées prendre leur propre autonomie, dans le respect de l’esprit du logiciel libre est une satisfaction et une fierté pour toute l’équipe, et nous sommes reconnaissants à l’AURA-EE de nous avoir fait confiance pour cela.
-
18:55
Premiers MNT LidarHD
sur Séries temporelles (CESBIO)Pièce jointe: [télécharger]
L’IGN communique actuellement sur la mise à disposition des premiers MNT dérivés des nuages de points LiDAR HD.
[Thread LiDAR HD ] Vous les attendiez Les premiers modèles numériques #LiDARHD sont maintenant disponibles et accessibles à tous en #opendata
La Charente-Maritime (bloc FK), le Nord (KA) et le Pas-de-Calais (JA) sont les premiers… pic.twitter.com/1UFOZabImE
— IGN France (@IGNFrance) July 10, 2024
A mon avis, cet exemple est mal choisi puisqu’un MNT de la citadelle de Gravelines de qualité équivalente était déjà disponible dans le RGE ALTI® 1m en libre accès depuis le 1er janvier 2021. Sur ce secteur les métadonnées du RGE ALTI® indiquent que la source est un LiDAR de densité d’acquisition à 1 points au m². On pouvait donc déjà voir ces fortifications dans mon interface de visualisation du RGEALTI.
Comparaison des MNT RGE ALTI® 1m et LiDAR HD sur le fort de GravelinesEn effet, le RGE ALTI® est un composite de plusieurs sources de données… La qualité du produit final est très variable ! En l’occurrence Gravelines était déjà couvert en lidar comme le reste du littoral.
Sources du RGE ALTI® (oui sans la légende) : corrélation (en général), lidar (littoral, rivières et villes) ou radar (montagnes). Pour en savoir plus consulter l’annexe B de ce document [https:]]Pour le littoral, le nouveau MNT LiDAR HD présente un intérêt plus marquant là où la surface terrestre a changé récemment. On peut ainsi comparer les MNT RGE ALTI® et LiDAR HD pour observer l’évolution des dunes de la Slack près de Wimereux. Malheureusement je ne connais pas les dates d’acquisition de ces deux produits.
document.createElement('video'); [https:]]Mais le véritable intérêt du MNT LiDAR HD se situe plutôt dans les zones où la source des données pour construire le RGE ALTI® n’était pas du lidar. Par exemple dans le département du Pas-de-Calais se trouve la plus grande carrière de France, les Carrières du Boulonnais.
Comparaison des MNT RGE ALTI® 1m et LiDAR HD sur les Carrières du BoulonnaisVivement la mise à disposition des autres régions de France !
Photo en-tête : Zoom sur la partie centrale de la carrière de Ferques (Pas de Calais) par Pierre Thomas. Source : Planet Terre [https:]]
-
2:27
Crue du Vénéon : que nous apprennent les images satellites ?
sur Séries temporelles (CESBIO)Pièce jointe: [télécharger]
Le 21 juin 2024, la crue torrentielle du Vénéon et de son affluent le torrent des Étançons a dévasté le hameau de la Bérarde dans le massif des Écrins. Cette crue a résulté des fortes pluies et de la fonte de la neige, et a peut-être été aggravée par la vidange d’un petit lac supra-glaciaire.
L’année en cours est particulièrement excédentaire en neige dans les Alpes, en particulier à haute altitude. Le stock de neige dans le bassin du Rhône au printemps 2024 est bien supérieur à la normale des trente dernière années mais proche de celle des années 1961-1990. Or une telle crue ne s’est pas produite depuis la moitié du 20e siècle au moins à la Bérarde. Que s’est-il passé ?
Le secteur est bien instrumenté avec une station hydrométrique sur le Vénéon à 3 km en aval de la Bérarde (1581 m) et une station météorologique située à 6 km de route près du bourg de Saint-Christophe-en-Oisans (1564 m).
Séries horaires de précipitations et de débit entre le 19 juin 00h et le 21 juin 18h TU.Le cumul de précipitation mesuré entre le 19 et le 21 juin est considérable, précisément 100 mm en 34 heures. J’ai calculé le bassin versant du Vénéon à cette station hydrométrique Saint-Christophe-en-Oisans à partir du modèle numérique de terrain RGE ALTI® 5m fourni par l’IGN. Sa superficie est de 104 km², le volume d’eau reçu pendant ces 34 heures est donc 10 millions de mètres cube, soit 84 m³/s. On constate que le débit de crue s’approchait de 80 m³/s avant que l’enregistrement ne cesse. Il est probable que ces 100 mm de pluie intense expliquent l’essentiel de la crue. Malheureusement la série de débit est interrompue et à ce jour il est impossible de fermer le bilan hydrologique. Peut-on en savoir plus sur la contribution du manteau neigeux à partir des images satellitaires ?
Bassin versant du Vénéon à la station hydrométrique de St-Christophe-en-Oisans (marqueur rouge) et la station météorologique associée (marqueur bleu).Ce bassin draine des zones de haute montagne dont l’antécime de la Barre des Ecrins qui culmine à plus de 4000 m d’altitude. Les fluctuations diurnes de débit indiquent que la fonte des neiges avait commencé à alimenter le Vénéon depuis le début du mois de juin (la taux de fonte est en grande partie contrôlé par l’énergie solaire donc il suit le rythme des journées).
Série journalière des précipitations et série horaire du débit du Vénéon à St-Christophe-en-Oisans. La série de débit est interrompue à partir du 21 juin sans doute à cause des dégâts causés par la crue.Les images Sentinel-2 avant et après la crue montrent que le manteau neigeux a bien réduit entre les deux dates car sa limite basse remonte en altitude. Un autre détail intéressant est le changement de couleur : les zones enneigées blanches de haute altitude ont disparu, ce qui suggère que la fonte a eu lieu jusqu’aux plus hauts sommets du bassin versant. En effet, les poussières sahariennes ont été déposées à la fin du mois de mars 2024.
[https:]]On peut analyser l’évolution de l’enneigement à partir des cartes de neige Theia ou Copernicus. Voici par exemple celle du 2 juillet 2024.
Une façon de résumer l’enneigement et de s’affranchir des nuages est de calculer la « ligne de neige », c’est-à-dire l’altitude qui délimite en moyenne la partie basse de l’enneigement. Pour la calculer j’utilise l’algorithme de Kraj?í et al. (2014) qui minimise la somme de la surface enneigée sous la ligne de neige et de la surface non-enneigée au dessus de la ligne de neige. Dans cet exemple on obtient 2740 m.
Les cartes de neige sont disponibles depuis 2015 (Landsat 8, Sentinel-2). La série complète sur le bassin versant du Vénéon à St Christophe permet de voir la remontée de la ligne de neige entre avril (01/04 = jour 91) et août (01/08 = jour 213).
L’année 2024 se distingue par une limite d’enneigement plus basse que les huit années précédentes.
Si on superpose cette ligne de neige avec l’isotherme 0°C donnée par ERA5 on constate que l’intégralité du bassin versant était sous l’iso 0°C quelques jours avant la crue, ce qui suggère (1) qu’il a plu à très haute altitude (2) qu’il y a eu un apport de fonte, d’autant que le manteau neigeux avait déjà été bien réchauffé au début du mois de juin.
Des images satellites à très haute résolution (Pléiades Neo) ont été acquises dans le cadre de la CIEST2. Ces images permettent de voir les traces des pluies abondantes sur la neige lessivée et des avalanches de neige humide autour du glacier de Bonne Pierre.
Image satellite du manteau neigeux sur le glacier de Bonne Pierre (Pléiades Neo 04 juillet 2024, composition colorée)En conclusion, les données disponibles montrent cette crue est une crue de pluie sur neige (Rain-On-Snow). On trouve tous les ingrédients favorables à ce type de crue :
- une pluie intense ;
- un manteau neigeux particulièrement étendu avec une ligne de neige basse pour la saison ;
- un manteau neigeux déjà en régime de fonte ou proche (isothermal, ripe snowpack) ;
- un apport de chaleur pendant l’évènement, ici une atmosphère chaude et humide qui a dû émettre de forte quantités de rayonnement thermique.
Les taux de fonte peuvent dépasser 20 mm/jour dans les zones de montagne. Cet apport de fonte doit être pondéré par la fraction enneigée du bassin. Le 17 juin 60% de la surface du bassin était enneigée donc on peut estimer une contribution potentiellement de l’ordre de 15 mm/jour pendant la crue à comparer aux 100 mm de pluie mesurés à St-Christophe pendant l’épisode. Donc le manteau neigeux a pu augmenter significativement l’apport d’eau liquide dans ce bassin versant. Néanmoins, d’autres facteurs aggravants sont à considérer :
- une augmentation du taux de précipitation par effet orographique : les précipitations mesurés à St-Christophe à 1564 m sont probablement sous-estimées à l’échelle du bassin versant de la Bérarde qui s’étend jusqu’à 4086 m (Pic Lory) ;
- la saturation des sols et des nappes d’eau souterraines (y compris le thermokarst glaciaire) suite à un printemps bien arrosé et une fonte des neiges en cours depuis plusieurs semaines.
Ces évènements Rain-On-Snow sont bien étudiés aux USA où ils sont connus pour déclencher des crues dévastatrices (comme le débordement du lac Oroville en Californie). Plusieurs études montrent que le changement climatique augmente le risque de crue Rain-On-Snow en haute montagne [1, 2].
Les images Pléiades Neo étant des prises stéréo, elles devraient également permettre aux géomorphologues de calculer les volume de sédiments charriés lors de cette crue exceptionnelle.
Mise à jour 15/07/2024. Le SYMBHI nous apprend que « Le débit du Vénéon a atteint 200 m3/s (source EDF) à plan du Lac (St Christophe en Oisans) ». Cela ferait une lame d’eau horaire de 7 mm, ce qui reste compatible avec les mesures du pluviomètres de St Christophe (on observe 3h avec des taux supérieurs à 8 mm/h).
-
19:42
Typologie communale de l'accessibilité aux soins de premier recours en France (IRDES)
sur Cartographies numériques
L'Institut de recherche et documentation en économie de la santé (IRDES) propose une typologie communale de l'accessibilité aux soins de premier recours en France.Dans un contexte de raréfaction et de répartition inégale des médecins généralistes sur le territoire, il apparaît nécessaire de renouveler la description de l'accessibilité aux soins de premier recours en considérant la présence d'un ensemble de professionnels de santé aux côtés du médecin généraliste.
Cette typologie à l'échelle de la commune décrit ainsi l'accessibilité aux soins de premier recours en tenant compte du médecin généraliste, de ses partenaires du quotidien (infirmier?ière?s, kinésithérapeutes, pharmacies), de ceux servant d'appui au diagnostic (laboratoires et radiologues) et des services d'urgence. Elle s'appuie sur un classement des communes selon leur niveau d'accessibilité, son évolution récente et les besoins potentiels de soins.
La typologie repose sur trois critères principaux :
- le classement des communes selon leur niveau d'accessibilité à partir d'une matrice de distance (temps d'accès moyen en voiture)
- l'évolution récente de l'offre en densité de soins (en fonction du type de soins)
- les besoins potentiels en fonction du type de population (âge et revenu), ce qui permet de définir une accessibilité potentielle localisée (APL).
La méthode utilisée est la classification ascendante hiérarchique (CAH) qui permet de classer les communes en catégories selon les différentes dimensions (groupes de professions, offre dynamique et besoins de soins). Elle permet de dégager 7 niveaux d'accessibilité :
- Classe 1 : communes avec la moins bonne accessibilité aux soins tous services confondus
- Classe 2 : communes avec une faible accessibilité aux soins, en désertification médicale et avec de forts besoins
- Classe 3 : communes avec une faible accessibilité aux soins de proximité et favorisées aux plans socio-économique et sanitaire
- Classe 4 : communes maintenant une bonne accessibilité aux médecins généralistes mais avec une faible accessibilité aux autres soins
- Classe 5 : communes avec une accessibilité aux soins relativement bonne qui se raréfie et avec de forts besoins
- Classe 6 : communes favorisées sur le plan socio-sanitaire avec une bonne accessibilité aux soins
- Classe 7 : communes avec l’accessibilité aux soins la plus élevée pour tous les types de soins
La répartition des clusters dessine principalement deux types de structures spatiales : un gradient urbain-rural et des contrastes régionaux nord/sud pour la France métropolitaine. Tout d’abord, cette classification fait apparaître un gradient urbain/rural classique pour les services d’urgence et les partenaires diagnostiques intermédiaires avec une meilleure accessibilité au centre urbain (clusters 7 et 5), puis une bonne accessibilité en première couronne (cluster 6), pour se déplacer progressivement vers les banlieues plus éloignées avec une accessibilité moyenne (cluster 3) et enfin une plus faible accessibilité dans les marges rurales (clusters 4, 1 et 2). Cependant, ce gradient n’est pas le même pour les services de proximité les plus proches comme les médecins généralistes, les infirmières, les kinésithérapeutes et les pharmacies. Au-delà de l’opposition classique urbain/rural, c’est l’importance des petites centralités dans l’accessibilité aux services de proximité qui est soulignée. Le cluster 4, bien que situé dans des zones rurales isolées, présente un niveau d’accessibilité aux médecins généralistes aussi élevé que les clusters 5 et 6, voire meilleur que le cluster 3, plus proche des grands centres urbains. Cela tient au fait que le cluster 4 est structuré en petites villes qui jouent le rôle de centralités locales et leur permettent d’être bien desservies par les services de proximité. Cela illustre le rôle des petites villes dans l’offre de soins en milieu rural. L'accessibilité ne dépend plus de l'éloignement des grandes villes mais de l'éloignement des centres de services et d'équipements locaux.
Cette typologie de l'IRDES permet de nuancer la notion de "déserts médicaux". Construite à l'échelle des communes, elle est plus précise que celle établie à l'échelle des départements ou des bassins de vie.
Ce travail a été réalisé dans le cadre du projet prOmoting evidence-bASed rEformS on medical deserts (OASES), financé par la Commission européenne (Programme 2020 du 3e Programme sur la santé). Il a donné lieu à une publication :
Bonal M., Padilla C., Chevillard G., Lucas-Gabrielli V. (2024). A French classification to describe medical deserts: A multi-professional approach based on the first contact with the healthcare system. International Journal of Health Geographics, vol.23, 5.
Articles connexes
Cartes et données sur les « déserts médicaux » en France
Géodes, la plateforme cartographique pour accéder aux données de santé
La pollution de l'air est la première menace mondiale pour la santé humaine (rapport de l'EPIC, août 2023)
Surmortalité attribuée à la chaleur et au froid : étude d'impact sur la santé dans 854 villes européennes
La santé des Franciliens. Diagnostic pour le projet régional de santé 2023-2027 (ORS)
Géographie du moustique Aedes (aegypti et albopictus) en France et dans le monde
Consommation d’alcool en France : des variations en fonction des régions, de l'âge ou du sexe
Comment expliquer les disparités de vaccination Covid-19 en France ?
-
14:00
Revue de presse du 12 juillet 2024
sur GeotribuLe train de la GeoRDP entre en gare !
-
12:09
Exposition “Cartes et cartographie du bas-Limousin et de la Corrèze”, Tulle, 8 juillet-31 décembre 2024
sur Cartes et figures du mondeExposition aux Archives départementales de Corrèze, 4 rue du Touron à Tulle, 8 juillet-31 décembre 2024 Catalogue d’exposition : Cartes et cartographie du Bas-Limousin et de la Corrèze, d’une province méconnue aux contours d’un département, par Julien MENDES, sous la dir. de Justine BERLIÈRE, Tulle, 2024, 148 p.Fruit d’un patient et minutieux travail, cette exposition des Archives départementales de la Corrèze retrace l’histoire de la représentation géographique d’un territoire particulièrement important dans l’histoire de la cartographie française qui s’y illustra dès le XVIe siècle. Elle évoque ainsi l’histoire de la cartographie à la lueur de l’exemple corrézien.
Au fil des documents présentés et des pages du catalogue qui accompagne l’exposition, on voit peu à peu se dessiner un ensemble, le Bas-Limousin, constitué de diverses strates de seigneuries, juridictions, paroisses… La Révolution reconnaît ensuite son identité propre en créant le département de la Corrèze, dont le découpage devait permettre d’accéder au chef-lieu en une journée de cheval.
Il faut se plonger dans la lecture de ce catalogue richement illustré, qui invite à voyager dans le temps, depuis les premières représentations cartographiques du Limousin à la fin du Moyen Âge jusqu’aux Systèmes d’information géographique actuels, en passant par la carte de Cassini et celle de l’état-major aux XVIIIe et XIXe siècles.
Autant de supports, conservés dans différents dépôts d’archives et bibliothèques, qui sont un régal pour les yeux et font voir sous un jour nouveau les contours de ce beau département et l’évolution de la cartographie.
-
9:52
Fin de la phase d’acquisitions d’images de VENµS
sur Séries temporelles (CESBIO)C’est avec une certaine tristesse mais aussi beaucoup de fierté que je vous rappelle que la phase opérationnelle de VENµS se terminera fin juillet après 7 ans de bon travail. La phase d’acquisition actuelle (VM5) s’arrêtera le 12 juillet. Les semaines restantes seront consacrées à quelques expériences techniques (les acquisitions au-dessus d’Israël se poursuivront jusqu’à fin juillet), puis, nos collègues israéliens videront les réservoirs en abaissant l’orbite, « passiveront » le satellite, puis laisseront les hautes couches de l’atmosphère réduire sa vitesse et abaisser son altitude avant de brûler dans l’atmosphère dans quelques années.
Les agences spatiales de France (CNES) et d’Israêl (ISA) ont lancé le micro-satellite VENµS en août 2017, et pour un micro-satellite, il a eu une vie assez particulière ! VENµS a d’abord été injecté en orbite à 720 km d’altitude. Il y est resté 3 ans (phase 1 de la mission VENµS, VM1), puis son orbite a été abaissée à 400 km (VM2), il y a été maintenu quelques mois (VM3), avant d’être remonté (VM4) à 560 km (VM5) où il est resté deux ans et demi.
VENµS avait en effet deux missions :
- tester un moteur à propulsion ionique et démontrer qu’il était capable de changer d’orbite et même de maintenir le satellite à 400 km d’altitude et de compenser le freinage atmosphérique dû aux couches les plus élevées de l’atmosphère terrestre
- prendre des images répétitives de sites sélectionnés à haute résolution (4 à 5 m), avec des revisites fréquentes (1 ou 2 jours), avec 12 bandes spectrales fines, et un instrument de haute qualité.
Les deux phases VM1 et VM5 ont été utilisées pour observer environ 100 sites (différents sites pour chaque phase), avec une revisite de deux jours pendant VM1, et d’un jour pour certains sites pendant VM5. Toutes les images ont été traitées au niveau 1C et au niveau 2A. En ce qui concerne VM5, un retraitement complet sera effectué fin 2024 afin d’avoir un jeu de données cohérent, avec les derniers paramètres de correction géométrique et radiométrique mis à jour, et les mêmes versions des chaines de traitement, pendant toute la durée de vie du VENµS. le même retraitement avait été effectué après la fin de VM1 en 2022.
Tableau de bord actuel du site web de distribution du CNES, avec le nombre de produits disponibles. Seules les images avec une proportion suffisante de pixels sans nuages sont fournies, et les statistiques ne tiennent pas compte des produits sur Israël distribués par l’université Ben Gurion du Neguev.Bien que l’impact scientifique de VENµS n’ait pas été à la hauteur des espérances initiales en raison de son lancement tardif (VENµS devait démontrer la puissance des observations optiques multitemporelles, mais a finalement été lancé après Sentinel-2), il nous a néanmoins incités à préparer intensivement l’arrivée des observations de Sentinel-2. Le développement de nombreuses méthodes telles que celles des processeurs MAJA, WASP,et Iota2 ont été motivées par l’existence du projet VENµS.
De plus, les données acquises par VENµS vont rester disponibles [https:] et nous espérons que sa combinaison unique de résolution (4m) et de revisite (1 jour) avec 12 bandes, sera encore utile pour plusieurs années à venir. Notre petit satellite est de plus en plus connu dans la communauté de l’apprentissage profond, puisqu’il a été utilisé pour construire le jeu de données Sen2VENµS afin d’apprendre à améliorer la résolution de Sentinel-2, ou pour tester les méthodes de fusion de données entre Sentinel-2 et VENµS.
Par ce billet, nous souhaitons remercier toutes les équipes en France et en Israël qui ont contribué à la décision, au financement, à la construction, à l’exploitation et au traitement des données de ce satellite. La liste des personnes ayant apporté une contribution significative serait trop longue (des centaines), et le risque d’oublier quelqu’un serait trop élevé, aussi nous ne citerons que Gerard Dedieu and Arnon Karnieli, les PI français et israélien initiaux (Arnon est toujours PI), qui ont consacré de nombreuses années de leur carrière à la réussite de ce petit satellite.
Rédigé par Olivier Hagolle (CNES/CESBIO) avec l’aide d’Arnon Karnieli (BGU)
PS : La fin du VM5 a été une période difficile avec un satellite vieillissant qui a largement dépassé sa durée de vie nominale de 3 ans avec un objectif fixé à 5 ans. Une proportion non négligeable des tentatives d’acquisition a échoué, et certains sites n’ont pas produit les séries temporelles attendues. Nous nous excusons si la collecte de données n’a pas été à la hauteur de vos attentes. Cependant, notre collection de données comprend plus de 82 000 produits, 56 000 pour VM1 et 26 000 pour VM5, ce qui nous permet de disposer de nombreuses et belles séries de produits prêts à l’emploi (Analysis Ready Data).
-
12:05
The end of VENµS imaging phase
sur Séries temporelles (CESBIO)It is with some sadness but also a lot of pride that I remind you that the VENµS operational phase will end at the end of July after 7 years of good work. The current acquisition phase (VM5) will stop on the 12th of July. The remaining weeks will be devoted to a few technical experiments (acquisitions over Israel will go on until end of July), and then, our Israeli colleagues will empty the tanks by lowering the orbit, passivate the satellite, and then let the higher layers of the atmosphere reduce its speed and lower its altitude before burning in the atmosphere in a few years.
The French and Israeli space agencies (CNES and ISA) launched the VENµS micro-satellite in August 2017, and for a micro-satellite, it has had quite a special life ! VENµS was first injected into orbit at 720 km altitude. It stayed there for 3 years (VENµS Mission 1 phase, VM1), then its orbit was lowered to 400 km (VM2), it was maintained there for a few months (VM3), before being raised again (VM4) to 560 km (VM5) where it stayed for two and a half years.
VENµS indeed had two missions :
- test a ionic propulsion engine and verify it was able to change orbits and even maintain the satellite at 400 km altitude with all the atmospheric drag due to the highest levels of the earth atmosphere
- take repetitive images of selected sites at a high resolution (4 to 5 m), frequent revisit (1 or 2 days), with 12 thin spectral bands, and a high-quality instrument
The two phases VM1 and VM5 were used to observe around 100 sites (different sites for each phase), with a revisit of two days during VM1, and one day for some sites during VM5. All the images have been processed to Level 1C and Level 2A. Regarding VM5, a full reprocessing will be done at the end of 2024 to have a consistent data set with the latest updated geometric and radiometric correction parameters, and the same updated versions of software during the whole life of VENµS. The same reprocessing had been done after the end of VM1 in 2022.
Current dashboard of CNES distribution website, with the number of available products. Only images with a sufficient proportion of cloud free pixels are produced, and the statistics do not account for the products over Israel distributed at BGU.Although VENµS’ scientific impact was not as high as expected due to its late launch (VENµS was meant to demonstrate the power of multi-temporal optical observations, but was finally launched after Sentinel-2), it nevertheless incited us to prepare the arrival of Sentinel-2 observations intensively. The development of many methods such as those in MAJA, WASP, Iota2 or LIS processors were motivated by the existence of the VENµS project.
Moreover, the data acquired by VENµS are here to stay ( [https:]] ), and we hope its unique combination of resolution (4m) and revisit (1 day) with 12 bands, will still be useful for several years to come. Our little satellite is getting very well known in the deep learning community, as it has been used to build the Sen2VENµS data set for learning to improve the resolution of Sentinel-2, or to test data fusion methods between Sentinel-2 and VENµS.
With this post, we would like to thank all the teams in France and Israel who contributed to the decision, funding, building, exploitation and data processing of this satellite. The list of persons who brought a meaningful contribution would be too long (hundreds), and the risk of forgetting someone will to too high, so we will only cite Gerard Dedieu and Arnon Karnieli, the initial French and Israeli PIs (Arnon is still PI), who devoted many years of their career to the success of this little satellite.
Written by VENµS PI: Olivier Hagolle (CNES/CESBIO) with the help of Arnon Karnieli (BGU)
PS : The end of VM5 was a difficult period with an aging satellite that was well over its nominal life of 3 tears with a goal set to 5 years. A non-negligible proportion of the attempted acquisitions failed, and some sites did not yield the expected time series. We apologize if the data collection was not as good as your expectations. However, our data collection includes more than 82,000 products, 56,000 for VM1, and 26,000 for VM5, bringing much analysis-ready data
-
3:44
Les lignes de force du vote RN en 2024 : une cartographie lissée avec la grille H3
sur Icem7Les résultats des dernières élections françaises sont maintenant disponibles à un niveau fin, à la commune et même jusqu’au bureau de vote. Mais comment produire une cartographie lisible et synthétique à partir de données si détaillées ?
Ce travail récent de Karim Douïeb, largement repris, illustre bien le dilemme : il dénonce le caractère trompeur de la carte (choroplèthe) de gauche et propose à la place la variante (à symboles) de droite.
Les cartes choroplèthes sont faciles à lire avec leur coloration continue de tout le territoire. Mais l’œil voit seulement des surfaces, il ne peut faire le tri entre les territoires plus peuplés et les moins peuplés.
Les cartes à pastilles proportionnelles rendent mieux compte des populations en présence, mais les petits ronds se voient peu, ou alors coagulent en amas artificiels là où le maillage communal est très serré (par exemple dans les Hautes-Pyrénées, voisines des Landes où c’est l’inverse). Les cartogrammes qui distordent la géographie pour prévenir les superpositions accentuent souvent ces artefacts.
Une autre voie respecte la géographie, préserve la continuité de l’image et prend en compte les différences de population : celle où le résultat d’un candidat (part en %) est lissé par disques mobiles.
Les spécialistes des études locales la connaissent depuis longtemps – je la pratique depuis 35 ans. Certes, les calculs requis par le lissage en limitent l’usage, même avec des librairies spécialisées. Il est toutefois possible en 2024 de construire simplement de solides cartes lissées, sans logiciel lourd.
Voyons comment faire avec 3 petits bijoux d’efficacité : un moteur SQL autonome (DBeaver/DuckDB), une grille hexagonale (H3) et un outil de cartographie web (Mapshaper).
A - Lissage appliqué aux résultats communaux des européennes de 2024Comparons ci-dessous les résultats bruts des élections européennes et la représentation lissée par disque mobile. Le lissage améliore spectaculairement la lisibilité de l’image.
Européennes 2024 – Part des votes RN et Reconquête (%)
Lissé BrutLes grandes agglomérations éloignent le vote RNR, mais cet effet est moins visible dans un grand Nord-Est ou sur le littoral méditerranéen. Quelques contrastes locaux sont frappants, par exemple entre le Lot et Tarn-et-Garonne, ou l’agglomération bordelaise et sa frange nord.
Note : les petits points gris signalent les capitales régionales.Comme le pinceau de l’archéologue dépoussière un bas-relief, ou la restauratrice révèle sous les vernis et les taches le tableau originel, le lissage dégage les lignes de force qui traversent les territoires – et bien souvent celles qui résistent au temps et aux soubresauts politiques.
Je vais décrire la méthode, car en saisir le principe, c’est mieux comprendre les limites et les avantages de cette technique. Le lissage n’est pas une moyenne locale des valeurs communales (ici la part de telle liste). Il repose sur une agrégation de deux grandeurs que l’on va ensuite diviser pour recalculer le taux « ambiant ». Cette agrégation se fait sur une étendue plus ou moins large, le rayon du disque de lissage.
En un endroit donné, on additionne par exemple le nombre de votants RNR au sein d’un rayon de 20 km, et l’on procède de même pour l’ensemble des votants ; le nouveau taux se calcule sur ces deux grandeurs étendues. Ainsi, d’une commune à sa voisine, les taux ambiants vont faiblement varier. Les aléas locaux sont lissés, et les territoires localement plus peuplés contribuent davantage à la représentation.
B - La méthode en imagesConsidérons les deux cartographies traditionnelles du résultat d’une liste, dans notre exemple la part du vote RN et Reconquête (en abrégé, RNR). Sur une carte zoomée, la technique des ronds coloriés a bien des avantages, car les symboles sont tous visibles, leur couleur aussi. Ce mode présente à la fois une grandeur absolue (les votants), et la part du vote RNR.
Ronds ChoroComme on le constate dans cette vue de la périphérie toulousaine, les communes sont de taille fort variable. Le découpage communal influence fortement la morphologie de l’image. C’est la raison pour laquelle certains politiques s’échinent à redéfinir les maillages électoraux, pour tourner l’addition locale des votes à leur avantage.
Passer d’un maillage hétérogène à une grille régulière donnera une assise plus solide à la méthode de lissage.
La grille H3, conçue d’abord pour les besoins d’Uber, maille l’ensemble de la planète avec des hexagones. En voici une représentation au niveau de précision 7 (sur une échelle allant de 0 à 15).
38 hexagones de niveau 7 recouvrent la commune de Toulouse. Une première idée consiste à répartir le total des votants à Toulouse de façon égale sur ces 38 hexagones. Je pourrais affiner cette répartition sur les hexagones frontières, par un prorata de la surface intersectée. Mais ce serait me compliquer la vie inutilement, car en définitive, je vais lisser !
Toulouse et les hexagones H3
Grille H3 de niveau 7, intersectant Toulouse Votants à Toulouse répartis fictivement en 38 pointsLes hexagones sur les frontières communales vont ainsi recevoir des votants venus de deux, parfois trois communes limitrophes. Cela produit déjà, de fait, un premier microlissage.
En voici le résultat cartographié, après recalcul du taux pour chaque hexagone.
H3 BrutLe principe du lissage par fenêtre mobile est toutefois bien plus puissant. H3 permet très facilement (c’est aussi une librairie avec quantité de fonctions utilitaires) de lister les hexagones voisins, avec un pas variable – de 1 à 10 dans cet exemple :
Avec ce rayon de lissage de 10 (soit un peu plus de 20 km), je m’emploie à additionner, en un centre donné, les votants et les votants RNR sur l’ensemble de ce disque. Je prends garde à donner de moins en moins d’importance aux hexagones qui s’éloignent, par une pondération inverse de la distance au centre.
Mon lissage intègre ainsi deux paramètres d’ajustement : le rayon du disque mobile (en fait un grand hexagone mobile), et la fonction de pondération (quelle importance j’accorde aux hexagones les plus éloignés pour calculer le taux ambiant).
Voici deux cartes, avec des rayons de lissage différents : 5 (soit environ 12 km) et 10 (20-25 km).
++ + C - Comment lisser, en pratique ?Je conduis les calculs en SQL, avec le moteur DuckDB et son extension H3, dans l’interface DBeaver. DBeaver donne un premier aperçu du résultat des requêtes spatiales, ce qui s’avère très pratique.
Pour la cartographie thématique, Mapshaper, utilisable en ligne, dessine et colorie avec une vélocité remarquable.
Cette démarche procède d’un principe pédagogique auquel je suis attaché : ouvrir des portes pour le plus grand nombre, privilégier les outils les plus simples, les plus accessibles, les mieux conçus.
Commençons par récupérer les résultats des européennes 2024, à partir de la base électorale consolidée par l’équipe data.gouv au format parquet :
-- source : [https:] CREATE OR replace TABLE s_com_europ2024 as WITH t1 AS ( FROM 'candidats_results.parquet' SELECT "Code du département" || "Code de la commune" codgeo, nuance, sum(voix) tvoix, sum(tvoix) over(PARTITION BY "Code du département" || "Code de la commune") exprimes, WHERE id_election = '2024_euro_t1' GROUP BY codgeo, nuance ), t2 AS ( PIVOT t1 ON nuance USING(sum(tvoix)) ) FROM t2 SELECT codgeo,exprimes,LREC+LRN RN,LENS,LFI+LUG+LVEC+LCOM LNFP ORDER BY codgeo ;
J’utilise DuckDB dans sa version la plus récente (dev 1.0.1), qui simplifie davantage encore les écritures.
Deux extensions vont me servir, SPATIAL pour les requêtes géographiques, H3 pour créer et manipuler le maillage hexagonal.
INSTALL H3 FROM COMMUNITY ; LOAD H3 ; -- pour récupérer, si besoin, la version de dev : -- FORCE INSTALL spatial FROM 'http://nightly-extensions.duckdb.org'; LOAD SPATIAL ;
À partir du contour de la France métropolitaine, je crée une enveloppe, et je peux la voir immédiatement dans DBeaver.
CREATE OR REPLACE VIEW e_fra AS FROM st_read('a_frametro.json') SELECT st_convexHull(geom).st_buffer(0.1) AS geom ;
Notre première fonction H3, l’une des plus puissantes, est en mesure de mailler ce polygone avec plein de petits hexagones de niveau 7. Ils sont 182 000. DBeaver ne m’en montre qu’un échantillon, mais c’est déjà impressionnant !
FROM e_fra SELECT h3_polygon_wkt_to_cells(geom, 7) -- ids .unnest() .h3_cell_to_boundary_wkt() .st_geomfromtext() ; -- géométries
h3_polygon_wkt_to_cells() renvoie une valeur qui est en fait une liste d’identifiants d’hexagones. unnest() permet de déplier cette valeur/liste en autant de lignes de la table résultante.
h3_cell_to_boundary_wkt(), autre fonction très utile, génère la géométrie hexagonale d’un identifiant.
On peut ainsi fabriquer un grillage spatial sans écrire soi-même aucun calcul mathématique.
Pour remplir une forme plus complexe que le simple POLYGON précédent, la France par exemple, il faut la décomposer en formes plus élémentaires, et assembler le résultat pour constituer une table homogène.
CREATE OR REPLACE TABLE fra_h3_res7 AS WITH france_polys AS ( FROM st_read('a_frametro.json') -- décomposition MULTIPOLYGON -> POLYGON SELECT st_dump(geom).unnest(recursive := true) AS geom ), h3_ids AS ( FROM france_polys SELECT list(h3_polygon_wkt_to_cells(geom, 7)) .flatten().unnest() AS id -- concaténation des ids d'hexagones ) FROM h3_ids SELECT id, -- conversion en géométries h3_cell_to_boundary_wkt(id).st_geomfromtext() AS geom ;
Voici un aperçu des 115 000 hexagones du niveau 7 qui recouvrent la France métropolitaine.
Passons dans MapshaperLes fonctions cartographiques de DBeaver sont pratiques, mais limitées. L’outil Mapshaper affiche sans aucune difficulté l’ensemble de la couche.
Au préalable, on aura procédé, dans DBeaver, à un export Geojson.
COPY fra_h3_res7 TO 'fra_h3_res7.json' WITH (format GDAL, driver GeoJSON) ;
Il suffit ensuite de faire glisser ce fichier dans l’interface de Mapshaper. La console de cet outil permet d’écrire de puissantes instructions de manipulation, dont je vais profiter.
Je souhaite enrichir cette grille par jointure spatiale avec deux autres couches géographiques. Je vais ainsi relier chaque hexagone aux département, région et commune(s) qui le recouvrent ou l’intersectent.
target fra_h3_res7 \ join a-depmetro calc='reg=first(reg), dep=first(dep)' largest-overlap \ join a-com2022 calc='com2022=first(codgeo), coms2022=collect(codgeo)' largest-overlap \ join a-com2022 calc='coms2022=collect(codgeo)'
Ces opérations complexes prennent moins de 10 secondes dans mon navigateur.
J’utilise ce fond de carte communal.
L’identifiant d’un hexagone est un entier de grande taille. Mapshaper l’interprète plutôt comme une string, on y sera attentif par la suite.
Je stocke ma couche hexagonale enrichie sous la forme d’un fichier geoparquet, ce que permet très simplement la version 1.0.1 de DuckDB. Le fichier produit pèse à peine 9 Mo.
COPY ( FROM st_read('fra_h3_res7_v2.json') SELECT * REPLACE(id::ubigint AS id), ORDER BY reg,id ) TO 'fra_h3_res7_v2.parquet' (compression ZSTD) ;
Je ne les avais jamais utilisées, je découvre avec bonheur les fonctions de coloriage de Mapshaper !
La surface des hexagones n’est pas constante dans H3, car ces hexagones résultent de la projection sur la sphère terrestre d’une forme géométrique complexe, un icosaèdre. De plus, leur surface apparente dépendra de la projection cartographique finale.
Pour autant, cette surface projetée varie peu d’un hexagone à l’autre. Voici ce que donne le rapport à la surface moyenne :
classify field=coeff_area colors='#fff5eb,#fee7cf,#fdd4ab,#fdb97e' classes=4 \ style stroke='d.fill'
Conscient de ces petites variations, je considère tout de même que le lissage à venir s’appliquera de façon globalement homogène – en tous cas bien plus homogène que si j’en étais resté au maillage communal.
J’ai pu agrémenter ma carte de limites départementales et régionales précisément superposables, par fusion de la couche détaillée : Mapshaper excelle dans ces traitements topologiques, et je vais 10 fois plus vite qu’avec un logiciel spécialisé comme QGIS !
target fra_h3_res7_v2 \ dissolve dep,reg
Je dispose donc d’un excellent référentiel cartographique, avec des hexagones enrichis d’informations communales : elles vont me permettre de faire le lien avec la table des résultats électoraux.
Dans une table intermédiaire, je stocke le nombre d’hexagones couvrant chaque commune.
CREATE OR replace VIEW n_com_h3_res7 as WITH t1 AS ( FROM 'fra_h3_res7_v2.parquet' SELECT UNNEST(coms2022) codgeo, id ) FROM t1 SELECT codgeo, count() AS nb_h3_res7 GROUP BY codgeo ORDER BY codgeo ; FROM n_com_h3_res7 WHERE codgeo = '31555'; -- 38 hexagones intersectent Toulouse
Grâce à cela et par jointure, je ventile la table communale du vote à l’hexagone.
CREATE OR REPLACE table s_h3_res7_europ2024 AS FROM s_com_europ2024 p -- jointures sur le code commune JOIN n_com_h3_res7 n using(codgeo) JOIN (FROM 'fra_h3_res7_v2.parquet' SELECT UNNEST(coms2022) codgeo, id) h3 ON h3.codgeo = p.codgeo SELECT id, round(sum(RN/n.nb_h3_res7),1) RN, -- ventilation des votants sur chaque hexagone round(sum(exprimes/n.nb_h3_res7),1) exprimes GROUP BY id ORDER BY id ;
Il ne me reste plus qu’à injecter cette information dans la couche spatiale des hexagones, que j’exporte vers Mapshaper :
COPY ( FROM 'fra_h3_res7_v2.parquet' m JOIN s_h3_res7_europ2024 l USING(id) SELECT RN, exprimes, round(100*RN/exprimes, 1) part_rn, st_geomfromwkb(geom) geom ) TO 'a_h3_7_europ2024_fra_brut.json' WITH (format GDAL, driver GeoJSON) ;
J’essaie deux variantes de coloration, en quantiles, et avec des seuils explicites (pour faciliter les comparaisons à venir entre carte brute et cartes lissées) :
classify field=part_rn quantile classes=5 colors=Oranges \ style stroke='d.fill' classify field=part_rn breaks=35,40,45,50 colors=Oranges \ style stroke='d.fill'
Européennes 2024 – Part des votes RN et Reconquête (%) – par hexagone de niveau 7
Le lissage finalPour lisser les données par fenêtre spatiale mobile, il me faut faire le lien entre un hexagone donné, et l’ensemble des hexagones voisins, de premier niveau jusqu’au niveau 10.
h3_grid_disk_distances() me donne cette liste d’anneaux successifs en un seul appel. C’est un autre atout majeur du système H3.
CREATE OR replace VIEW corresp_h3_res7_dist10 AS WITH t1 AS ( FROM 'fra_h3_res7_v2.parquet' SELECT id, list_transform(h3_grid_disk_distances(id, 10), (c,i) -> {ids:c, distance:i}) .unnest(recursive := true) ) FROM t1 SELECT id, unnest(ids) id2, distance ;
L’opération de lissage résulte d’un appariement de cette table de correspondance et des données de vote à l’hexagone. Je définis une fonction de pondération inverse de la distance, et je me réserve la possibilité d’ajuster le rayon de lissage.
CREATE OR REPLACE VIEW s_h3_res7_europ2024_liss as FROM corresp_h3_res7_dist10 c JOIN s_h3_res7_europ2024 p ON c.id2 = p.id SELECT c.id, sum( RN /(1 + pow(distance-1,1.5)) ) RN, -- 1.5 (pondération) ajustable sum(exprimes/(1 + pow(distance-1,1.5)) ) exprimes WHERE distance
Pour rappel, la méthode commence par agréger séparément le numérateur et le dénominateur, le taux “ambiant” est calculé dans un second temps, avant export vers Mapshaper :
COPY ( FROM 'fra_h3_res7_v2.parquet' JOIN s_h3_res7_europ2024_liss USING(id) SELECT RN, exprimes, round(100*RN/exprimes,1) part_rn, geom ) TO 'a_h3_res7_europ2024_fra_liss_l5_p15.json' WITH (format GDAL, driver GeoJSON) ;
classify field=part_rn breaks=35,40,45,50 colors=Oranges \ style stroke='d.fill'
Voici le résultat, avec en prime une comparaison avec le vote le Pen lors de l’élection présidentielle de 2022.
Européennes 2024 – part des votes RN et Reconquête (%) et présidentielle 2022 – Part du vote le Pen (%)
2024 2022Ces deux cartes présentent de grandes similitudes. Même si les seuils ne sont pas comparables (le vote RN était supérieur, en %, en 2002, mais il s’agissait du 2d tour, avec donc seulement 2 candidats en présence).
D - À vous de jouer !Ci-dessous figure l’accès à ce kit de lissage : la couverture H3 de la France au niveau 7, et la table de correspondance entre chaque hexagone et leurs voisins. Les préparer a demandé un peu de temps, comme on l’a vu ci-dessus.
Leur application à toute base de données communales est toutefois simple et rapide, deux requêtes suffisent, et tournent en moins de 10 secondes : ventilation des valeurs additives sur la grille H3, et lissage par fenêtre mobile. Avec Mapshaper, vous en voyez très rapidement le résultat. Lisser ne demande qu’un éditeur SQL (ou le client léger DuckDB) et le navigateur web.
Pour en savoir plus- H3 : Hexagonal hierarchical geospatial indexing system
- Manuel d’analyse spatiale – Insee Méthodes
- Prendre en compte l’hétérogénéité spatiale avec le lissage – diaporama Insee
- Lissages interactifs sur l’élection présidentielle 2022
- Kit de lissage H3 France sur data.gouv
- Installer la version de dév de DuckDB
- Bindings for H3 to DuckDB
L’article Les lignes de force du vote RN en 2024 : une cartographie lissée avec la grille H3 est apparu en premier sur Icem7.
-
19:46
Journée d’étude du CFC “CARTOGRAPHIE ET CINÉMA”, 6 décembre 2024
sur Cartes et figures du mondeInstitut national d’histoire de l’art, 2 rue Vivienne Paris (salle Vasari)
Dans le prolongement de la rencontre organisée le 25 novembre 2023 autour des croisements entre art et cartographie, la Commission Histoire du Comité Français de Cartographie présente le 6 décembre 2024 une Journée d’études intitulée « Cartographie et cinéma ». Comme chacun le sait, le cinéma, principal média de fiction développé au cours du XXe siècle, a été dès son origine tourné vers la représentation des espaces et des paysages les plus divers à la surface de la planète. La cartographie, sous toutes ses formes, a été mobilisée pour transformer les lieux et les espaces géographiques en un ensemble de supports et de foyers narratifs. La Journée d’études a pour ambition d’explorer quelques-unes des modalités de la présence de la cartographie dans l’histoire du cinéma de fiction ainsi que dans les opérations cinématographiques.
Avec le soutien de l’EPHE-PSL (Histara), du CNRS (Lamop) et de la Bibliothèque nationale de France
Carto-cinema-afficheTélécharger PROGRAMME9h : Accueil et introduction par Jean-Marc Besse (CNRS-EHESS) et Catherine Hofmann (BnF, Cartes et plans)
Première session : Les imaginaires cartographiques du/au cinéma
9h30 : Teresa Castro, Les imaginaires cartographiques du cinéma
10h : Robin Hopquin, Une France imaginaire : cartographie des films français à succès (2015-2024)
10h30-10h45 : Pause-café
Deuxième session : La carte au cinéma, entre quête, enquête et errance
10h45 : Marcello Tanca, Cartographier l’errance, l’inattendu, l’étonnement et les choses : Perfect days de Wim Wenders.
11h15 : Mathieu Combes, « La smetta con queste geometrie! ». La cartographie comme enquête chez Francesco Rosi
11h45 : Thierry Joliveau, Une analyse du rôle de la carte et d’autres géodispositifs dans deux films de quête et de voyage
12h15-14h : Déjeuner
Troisième session : La carte au cinéma, entre pouvoir, oppressions et résistances
14h : Guillaume Monsaingeon, Dansons avant qu’il n’explose : Le Dictateur de Charlie Chaplin
14h30 : Alice Letoulat, “Non identifié”. Oppressions et résistances cartographiques dans Bacurau (Kleber Mendonça Filho et Juliano Dornelles, 2019)
15h-15h15 : Pause-café
Quatrième session : Carte et cinéma dans la France de l’entre-deux-guerres
15h15 : Nadège Mariotti / Jitka de Préval, Du Tour de la France par deux enfants (1923) à la France imaginée, filmée et cartographiée des premiers temps du cinéma à la fin des années 1920
15h45 : Mathieu Panoryia, Usages et significations de la carte dans les films sur la Première Guerre mondiale
16h15-16h30 : Pause-café
Ouvertures et conclusion
16h30 : Jasmine Desclaux-Salachas, Les Cafés – carto et le cinéma
16h45 : Marina Duféal, Du festival Géocinéma au film d’animation « Astérix, le secret de la potion magique », retour en carte sur des expériences de décryptages géo-cinématographiques
17h : Conclusion générale de la journée
Contact : catherine.hofmann@bnf.fr
Carto-cinema-programmeTélécharger
-
9:00
RODolPh : visualisez et optimisez l’occupation du domaine public (RODP)
sur Makina CorpusCollectivité : vous cherchez la meilleure façon de stabiliser vos recettes et d’optimiser l’occupation de votre domaine public, découvrez RODolPh?!
-
8:38
Naviguer dans l’Ère des Tuiles Vectorielles : Techniques et Applications
sur Neogeo TechnologiesC’est quoi une tuile ?Pour diffuser des données spatiales sur une carte, il existe différents formats de données dont celui de la tuile vectorielle qui apporte de nouvelles possibilités d’affichage de données (rapidité d’accès à la donnée, facilité de modification du style, interaction directe des utilisateurs avec les objets).
En effet, une carte numérique peut théoriquement afficher des données à n’importe quelle échelle et à n’importe quel endroit, mais cette flexibilité peut poser des problèmes de performance.
La mosaïque de tuiles améliore la vitesse et l’efficacité d’affichage :
- En limitant les échelles disponibles. Chaque échelle est deux fois plus détaillée que la précédente.
- En utilisant une grille fixe. Les zones que l’on souhaite afficher sont composées de collections de tuiles appropriées.
La plupart des systèmes de tuiles commencent avec une seule tuile englobant le monde entier, appelée « niveau de zoom 0 », et chaque niveau de zoom suivant augmente le nombre de tuiles par un facteur de 4, en doublant verticalement et horizontalement.
Coordonnées des tuilesChaque tuile d’une carte en mosaïque est référencée par son niveau de zoom, sa position horizontale et sa position verticale. Le schéma d’adressage couramment utilisé est XYZ.
Voici un exemple au zoom 2 :
On va récupérer la tuile à l’aide de l’adressage XYZ suivant :
http://server/{z}/{x}/{y}.format
Par exemple, vous pourrez voir la tuile image de l’Australie à l’adresse suivante, c’est le même principe pour les tuiles vectorielles : [https:]]
Principe d’une tuile vectorielleLes tuiles vectorielles ressemblent aux tuiles raster, mais à la place d’une image, elles contiennent des données permettant de décrire les éléments qui la composent avec des tracés vectoriels. Au lieu d’avoir des ensembles de pixels, il y a donc des ensembles de coordonnées de points, auxquels on peut associer plusieurs informations attributaires.
Comme leurs cousines raster, les tuiles vectorielles peuvent être mises en cache, côté serveur et côté navigateur, et permettent de naviguer dans des cartes immenses rapidement, même sur des terminaux légers.
Comment l’utilise-t-on ? Produire des tuiles vectorielles à la volée depuis PostGISIl existe différentes briques pour publier des données à la volée depuis PostGIS, voici notre sélection :
- pg_tileserv => [https:]] : c’est un serveur de tuile codé en GO et produit par Crunchy Data. On va préférer utiliser la version dockerisée dans nos applications => [https:]]
- Martin => [https:]] : très similaire à pg_tileserv, codé en RUST et produit par MapLibre.
- GeoServer : permet également de générer des tuiles vectorielles
Dans le cadre de ce blog, nous resterons sur l’utilisation de pg_tileserv.
pg_tileservPar défaut, pg_tileserv permet de produire des tuiles vectorielles à partir des tables géographiques qui sont dans la base de données.
Tout l’intérêt d’utiliser un outil comme pg_tileserv réside dans la génération de tuiles produites à partir d’une analyse plus fine.
Voici un exemple de requête que l’on peut utiliser pour afficher une donnée cartographique. Cette requête va permettre de simplifier la géométrie en fonction du seuil de zoom et filtrer la donnée en fonction de l’opérateur et de la techno.
CREATE OR REPLACE FUNCTION generate_couvertures_tiles( z integer, x integer, y integer, in_operateur bigint, in_techno character varying) RETURNS bytea LANGUAGE 'plpgsql' COST 100 VOLATILE PARALLEL UNSAFE AS $BODY$ #variable_conflict use_variable begin return ( WITH bounds AS ( SELECT ST_TileEnvelope(z, x, y) AS geom, (CASE when z >= 12 then 0 when z = 11 then 0 when z = 10 then 10 when z = 9 then 100 when z = 8 then 300 when z = 7 then 900 when z = 6 then 1500 when z <= 5 then 3000 ELSE 1 END ) as simplify_tolerance ), mvtgeom AS ( SELECT fid, operateur, date, techno, usage, niveau, dept, filename, ST_AsMVTGeom( ST_Simplify(t.geom,simplify_tolerance), bounds.geom) AS geom FROM couverture_theorique t, bounds WHERE ST_Intersects(t.geom, bounds.geom ) and operateur = in_operateur and techno = in_techno ) SELECT ST_AsMVT(mvtgeom) FROM mvtgeom ); end; $BODY$;
Pour appeler cette fonction, on va utiliser l’url formatée de la manière suivante :
https://hostname/tileserv/public.generate_couvertures_tiles/{Z}/{X}/{Y}.pbf?in_operateur=28020&in_techno=3G
Vous voilà en mesure de faire parler votre imagination pour récupérer les données que vous souhaitez et répondre aux besoins de votre carte.
On peut penser à la création de Cluster, d’analyse thématique, d’agrégation de couche ou que sais-je.
Et la performance dans tout ça ?Toute cette liberté acquise va nous plonger dans des requêtes de plus en plus complexes et donc nous apporter une performance dégradée. Si chaque tuile prend 10 secondes à se générer, l’expérience utilisateur sera mauvaise.
Pour remédier à ce contretemps, rappelons-nous que la tuile vectorielle repose sur une grille fixe. Il est donc possible de générer du cache (mise en cache). Cool ! mais comment fait-on cela ?
C’est parti :
1 – Créer une table de cache de tuiles
CREATE TABLE IF NOT EXISTS tiles_cache ( z integer NOT NULL, x integer NOT NULL, y integer NOT NULL, operateur bigint NOT NULL, techno character varying COLLATE pg_catalog."default" NOT NULL, mvt bytea NOT NULL, CONSTRAINT tiles_pkey PRIMARY KEY (z, x, y, operateur, techno) )
2 – Générer le cache
Pour générer le cache, dans un premier temps on récupère les grilles sur lesquelles on a des données. Le seuil de zoom maximum (max_zoom) peut être défini dans la fonction suivante.
CREATE OR REPLACE FUNCTION gettilesintersectinglayer( liste_operateur bigint, liste_techno character varying) RETURNS TABLE(x integer, y integer, z integer) LANGUAGE 'plpgsql' COST 100 VOLATILE PARALLEL UNSAFE ROWS 1000 AS $BODY$ DECLARE tile_bounds public.GEOMETRY; max_zoom INTEGER := 7; BEGIN FOR current_zoom IN 1..max_zoom LOOP FOR _x IN 0..(2 ^ current_zoom - 1) LOOP FOR _y IN 0..(2 ^ current_zoom - 1) LOOP tile_bounds := ST_TileEnvelope(current_zoom, _x, _y); IF EXISTS ( SELECT 1 FROM couverture_theorique WHERE ST_Intersects(geom, tile_bounds) AND operateur = liste_operateur AND techno = liste_techno ) THEN RAISE NOTICE 'Traitement %', current_zoom || ', ' || _x || ', ' || _y; z := current_zoom; x := _x; y := _y; RETURN NEXT; END IF; END LOOP; END LOOP; END LOOP; END; $BODY$;
À l’aide de ce tableau de grilles, on va générer l’ensemble des tuiles et les injecter dans la table de cache.
with oper as ( SELECT distinct operateur from couverture_theorique ), techno as ( SELECT distinct techno from couverture_theorique ) insert into tiles_cache_couverture(z, x, y, operateur, techno, mvt) select tile.z, tile.x, tile.y, oper.operateur, techno.techno, generate_couvertures_tiles(tile.z, tile.x, tile.y, oper.operateur, techno.techno) from techno, oper, GetTilesIntersectingLayer(operateur, techno) as tile;
3 – Le rendu mixte cache ou requête
Une fois que les tuiles sont insérées dans la table de cache, lorsque l’on va vouloir récupérer la tuile, il va falloir aiguiller la recherche pour que la fonction aille soit récupérer la tuile dans la table de cache ou la générer à la volée.
CREATE FUNCTION couvertures(z integer, x integer, y integer, liste_operateur integer[], liste_techno character varying[]) RETURNS bytea LANGUAGE plpgsql AS $$ #variable_conflict use_variable begin if (z <= 7 and array_length(liste_operateur,1) = 1) then return ( SELECT mvt from tiles_cache_couverture Where tiles_cache_couverture.x=x AND tiles_cache_couverture.y=y AND tiles_cache_couverture.z=z and operateur = any(liste_operateur) and techno = any(liste_techno) ); else return ( WITH bounds AS ( SELECTST_TileEnvelope(z, x, y) AS geom, (CASE when z >= 12 then 0 when z = 11 then 0 when z = 10 then 10 when z = 9 then 100 when z = 8 then 300 when z = 7 then 900 when z = 6 then 1500 when z <= 5 then 3000 ELSE 1 END ) as simplify_tolerance ), mvtgeom AS ( SELECT fid, operateur, date, techno, usage, niveau, dept, filename, public.ST_AsMVTGeom( ST_Simplify(t.geom,simplify_tolerance), bounds.geom) AS geom FROM couverture_theorique t, bounds WHEREST_Intersects(t.geom, bounds.geom ) and operateur = any(liste_operateur) and techno = any(liste_techno) ) SELECTST_AsMVT(mvtgeom) FROM mvtgeom ); end if; end; $$;
Maintenant en appelant la couche « couvertures » dans pg_tileserv, sur les zooms les plus petits (inférieur à 8), et donc les plus gourmands pour calculer la simplification géométrique, nous allons utiliser le cache de tuiles. Cependant, lorsque l’on sera relativement proche, on va utiliser la génération des tuiles à la volée car les performances sont bonnes.
Pour les plus ardus, je vous mets un petit bonus. Un exemple de couche cluster générée coté base de données. Le cluster va s’adapter au seuil de zoom, pour clustériser au niveau départemental, puis communal, puis sous forme de cluster naturel (St_ClusterDBSCAN) avec un espacement dynamique pour chaque seuil de zoom, et enfin un affichage par objet quand on est très proche. On aurait pu imaginer un cluster en nid d’abeille que je trouve plus efficace car le problème du cluster de PostGIS, c’est qu’il va être calculé dans l’emprise de chaque tuile. Cela signifie qu’il découpe des clusters de façon arbitraire quand on a une densité importante entre 2 tuiles.
Finalement quels avantages ? Fond de planCREATE FUNCTION cluster_filtres(z integer, x integer, y integer, filtres text[]) RETURNS bytea LANGUAGE plpgsql AS $_$ #variable_conflict use_variable DECLARE query text; result bytea; begin --MISE EN PLACE DES FILTRES if ( z < 9) then --Vue par departement query := ' WITH bounds AS ( SELECT ST_TileEnvelope($1, $2, $3) AS geom ), item_fitler AS ( --On récupère nos données filtrées SELECT distinct t.id FROM table t WHERE ' || filtres || ' ), tot_dept AS ( select code_departement, count(1) as tot_item from departement d INNER JOIN table t ON ST_Intersects(d.geom, t.geom ) INNER JOIN item_fitler ON item_fitler.id = t.id group by code_departement ), mvtgeom AS ( SELECT tot_dept.code_departement, tot_dept.tot_item, ST_AsMVTGeom(ST_PointOnSurface(tot_dept.geom), bounds.geom) AS geom FROM tot_dept INNER JOIN bounds ON ST_Intersects(tot_dept.geom, bounds.geom ) WHERE tot_item is not null ) SELECT ST_AsMVT(mvtgeom) FROM mvtgeom '; --RAISE NOTICE 'Calling query (%)', query; EXECUTE query INTO result USING z, x, y, filtres; return result; elsif ( z <= 10) then --Vue par commune, On ajoute un buffer pour récupérer les items autour de la tuile sans devoir le faire sur la France entière query := ' WITH bounds AS ( SELECT ST_TileEnvelope($1, $2, $3) AS geom ), item_fitler AS ( --On récupère nos données filtrées SELECT distinct t.id FROM table t INNER JOIN bounds ON ST_Intersects(t.geom, ST_Buffer(bounds.geom, 10000) ) WHERE ' || filtres || ' ), tot_com AS ( select insee_com, count(1) as tot_item from commune c INNER JOIN table t ON ST_Intersects(c.geom, t.geom ) INNER JOIN item_fitler ON item_fitler.id = t.id group by insee_com having count(1) > 0 ), mvtgeom AS ( SELECT tot_com.insee_com, tot_com.tot_item, ST_AsMVTGeom(ST_PointOnSurface(tot_com.geom), bounds.geom) AS geom FROM tot_com INNER JOIN bounds ON ST_Intersects(tot_com.geom, bounds.geom ) WHERE tot_item is not null ) SELECT ST_AsMVT(mvtgeom) FROM mvtgeom '; --RAISE NOTICE 'Calling query (%)', query; EXECUTE query INTO result USING z, x, y, filtres; return result; elsif ( z <= 15) then --Vue par cluster query := ' WITH bounds AS ( SELECT ST_TileEnvelope($1, $2, $3) AS geom ), item_fitler AS ( --On récupère nos données filtrées SELECT distinct t.id FROM table t INNER JOIN bounds ON ST_Intersects(t.geom, bounds.geom ) WHERE ' || filtres || ' ), clustered_points AS ( SELECT ST_ClusterDBSCAN(t.geom, eps := (CASE when $1 = 11 then 500 when $1 = 12 then 385 when $1 = 13 then 280 when $1 = 14 then 150 when $1 = 15 then 75 ELSE 1 END ) , minpoints := 1) over() AS cid, t.fid, t.geom FROM table t INNER JOIN item_fitler s ON s.id = t.id group by t.id, t.geom ), mvtgeom AS ( SELECT cid, array_agg(id) as ids, count(1) as tot_item, ST_AsMVTGeom(ST_PointOnSurface(ST_Collect(c.geom)), bounds.geom) AS geom FROM clustered_points c, bounds WHERE ST_Intersects(c.geom, bounds.geom ) group by cid, bounds.geom ) SELECT public.ST_AsMVT(mvtgeom) FROM mvtgeom '; RAISE NOTICE 'Calling query (%)', query; EXECUTE query INTO result USING z, x, y, filtres; return result; else --vue par objet query := ' WITH bounds AS ( SELECT ST_TileEnvelope($1, $2, $3) AS geom ), item_fitler AS ( --On récupère nos données filtrées SELECT distinct t.id FROM table t INNER JOIN bounds ON ST_Intersects(t.geom, bounds.geom ) WHERE ' || filtres || ' ), mvtgeom as ( SELECT ST_AsMVTGeom(t.geom, bounds.geom) AS geom, t.id FROM item_fitler t , bounds WHERE ST_Intersects(t.geom, bounds.geom ) ) SELECT ST_AsMVT(mvtgeom) FROM mvtgeom '; EXECUTE query INTO result USING z, x, y, filtres; return result; end if; end; $_$;
Dans les choix des fonds de plan, les avantages sont multiples.
On peut assez facilement personnaliser un fond de plan en modifiant les paramètres d’affichage que l’on souhaite utiliser pour chaque élément. Pour faire cela, on peut s’appuyer sur des fichiers de style comme ceux proposés par Etalab : [https:]] .
Si l’on héberge soit même les fichiers de style, on peut les modifier pour choisir le style des éléments. Voici à quoi ressemble le paramétrage d’un élément issu d’une tuile vectorielle :
{ "id": "landuse-commercial", "type": "fill", "source": "openmaptiles", "source-layer": "landuse", "filter": [ "all", ["==", "$type", "Polygon"], ["==", "class", "commercial"] ], "layout": { "visibility": "visible" }, "paint": { "fill-color": "hsla(0, 60%, 87%, 0.23)" } },
Il est par exemple possible d’extruder les bâtiments si on souhaite obtenir un rendu 3D
L’affichage vectorielle permet également d’afficher les libellés / icônes toujours dans le bon sens de lecture.
Choix de l’ordre d’affichage des couchesEnsuite il est intéressant de rappeler qu’il est possible de modifier l’ordre d’affichage des couches qui sont issues du fond de plan et des couches métiers, ce qui n’est pas possible avec les fonds de plan de type WTMS. On peut donc faire ressortir les libellés des communes sur une couche métier.
Couche vectorielleLa couche étant vectorielle, il est également possible de récupérer des attributs de celle-ci.
Outil de d’édition du styleIl existe plusieurs outils permettant de modifier le style des données vectorielles. Cependant je vous conseille maputnik qui est très complet et accessible => [https:]]
ConclusionEn conclusion, les tuiles vectorielles représentent une avancée significative dans la diffusion et l’affichage de données spatiales, et permettent de créer des applications cartographiques avancées. Encore faut-il les intégrer dans des outils robustes et des méthodologies performantes, afin de répondre aux besoins croissants de précision et de réactivité. La technologie des tuiles vectorielles est essentielle pour le futur de la cartographie numérique, offrant un équilibre entre performance, flexibilité et interactivité.
Pistes futures ?L’authentification et les rôles à travers pg_tileserv. On pourrait imaginer dans un futur blog, comment fusionner l’authentification via un token, le service pg_tileserv et la sécurité de PostgreSQL avec le Row Level Sécurity. Cela permettrait de gérer les droits au niveau de l’objet et nativement dans PostgreSQL.
Rédacteur : Matthieu Etourneau
-
20:09
Analyser les cartes et les données des élections législatives de 2024 en France
sur Cartographies numériques
Les élections législatives anticipées des 30 juin et 7 juillet sont les dix-septièmes élections législatives sous la Cinquième République. À bien des égards, elles apparaissent comme un scrutin exceptionnel : décision surprise de la dissolution de l’Assemblée nationale par le président de la République au soir des élections européennes du 9 juin, perspective d’une alternance gouvernementale à l’issue du second tour du scrutin, formation de nouvelles coalitions électorales à gauche comme à droite du système partisan pendant la campagne, contexte politique particulièrement anxiogène.L'objectif de ce billet est de fournir une approche critique des cartes et des graphiques que l'on peut trouver dans les médias. Il s'agit de donner accès aux données et à la fabrique de l'information, mais aussi de comparer les choix opérés par les médias en regard des cartes et analyses proposées par des géographes, des sociologues ou des politistes.
I) Analyser les cartes et les données du 1er tour des législatives (30 juin 2024)
1) Accès aux données
Le taux de participation a été de 66,7% au 1er tour, soit nettement au dessus du taux de participation aux législatives de 2022 qui était de 48,5%. A lui seul, le Rassemblement national a rassemblé 29,25% des voix au 1er tour. En deuxième position, le Nouveau Front populaire obtient 27,99% des suffrages. Le camp présidentiel n'arrive, lui, qu'en troisième place, avec 20,04% des voix. Loin derrière, avec leurs alliés Divers droite, Les Républicains qui ont refusé de suivre Eric Ciotti dans une alliance avec le RN, obtiennent 10,23% des suffrages.
Seulement 76 candidats ont été élus au premier tour. C’est le Rassemblement National et la France insoumise qui ont le plus de candidats élus au premier tour le 30 juin 2024.
Liste des candidats au 1er tour avec leur parti et leur profession (Data.gouv.fr)
Résultats définitifs du 1er tour des élections législatives du 30 juin 2024 (Data.gouv.fr)2) Cartes des résultats dans les médias
- La carte des résultats des législatives au premier tour et le tableau des candidats qualifiés (Le Monde)
- Législatives 2024 : voici les résultats définitifs du premier tour, parti par parti (Le Parisien)
- Les résultats du premier tour des législatives 2024 dans chaque circonscription (Libération)
- Résultats du 1er tour des législatives 2024 : découvrez les scores des candidats et les députés qualifiés (France Info)
- Législatives 2024 : la carte des résultats du premier tour (Les Echos)
- Élections législatives 2024: découvrez les résultats définitifs dans votre circonscription et dans votre ville (Le Figaro)
- Législatives : le Rassemblement National aurait la majorité absolue au deuxième tour sans désistement généralisé ou front républicain - projection exclusive (Le Grand Continent)
- Cartographie électorale et symbolisme des couleurs. Le choix du bleu marine (au lieu du brun) pour représenter le RN et ses alliés n'est pas anodin. On le retrouve par exemple pour l'AFP, France Info ou Le Parisien. Au contraire, Libération et Les Echos font le choix de représenter le RN en noir, Le Monde et Mediapart en brun. Le Figaro n'est pas très clair dans ses choix sémiologiques (violet pour le candidat RN en tête et bleu lorsqu'il est élu). Voir cet article de Wikipedia sur le symbolisme des couleurs en politique.
- Triangulaires : le désistement de la gauche change la donne dans 160 circonscriptions. Quels scénarios pour le second tour ? (Le Grand Continent)
- Outre les triangulaires qui devraient se réduire avec certains désistements, le site Contexte identifie les points chauds où l'écart de points est faible entre le 1er et le 2e candidat (cela ne présage pas des reports de voix en provenance d'autres candidats).
- Législatives : et revoilà les fragiles projections de sièges. Les grandes chaînes continuent d'afficher des diagrammes qui n'ont aucune valeur (Arrêt sur Images)
3) Piste d'analyses pour approfondir
- Décryptage des résultats au lendemain du 30 juin 2024 par Pierre-Henri Bono (Cevipof - SciencesPo)
- Sociologie des électorats et profil des abstentionnistes (sondage IPSOS - 30 juin 2024)
- Quelles circonscriptions peuvent faire basculer les élections ? (The Conversation). Accès à l'outil de cartographie interactive proposé par Claude Grasland
- Votes aux législatives : explorations géographiques (Olivier Bouba-Olga)
- « Ce qui explique vraiment les différences de vote RN entre les villes et les campagnes » par Olivier Bouba-Olga et Vincent Grimault (Alternatives économiques)
- Législatives 2024 : vote des champs et vote des villes, une question de diplômes plus que de géographie (Le Monde)
- Eric Charmes, géographe : « Face à l’extrême droite, les autres forces politiques devront imposer une lecture différente de la France périphérique » (Le Monde)
- Carte des résultats du premier tour des élections législatives 2024 par bureau de vote (Julien Gaffuri)
- Tendances politiques des quartiers de Nantes Métropole selon les résultats des législatives du 30 juin 2024 (Martin Vanier)
- « Entre foyers pauvres et modestes, une classe d'écart mais des votes aux antipodes » (Charivari). Hervé Mondon croise les résultats du premier tour des législatives avec le niveau de vie de chaque circonscription (données issues du portrait statistique des circonscriptions législatives de l’Insee de 2022)
4) Réflexion sur le mode de scrutin
Outre les effets pervers du scrutin majoritaire, pour les législatives se pose le problème du découpage et de la forte disparité des circonscriptions électorales :
- « Législatives : le maillage des circonscriptions » (Les Cartes en mouvement)
- « Législatives : les fortes disparités entre les 577 circonscriptions sur le nombre d’habitants ou d’inscrits, le taux de chômage, l’âge moyen... » (Le Monde - Les Décodeurs)
- « Quel est votre poids électoral ? » par Cédric Rossi (Visionscarto)
- « Faut-il que ces élections législatives soient les dernières au scrutin majoritaire à deux tours ? » (France Inter)
II) Analyser les cartes et les données du 2nd tour des législatives (7 juillet 2024)
La participation finale s'élève à 66,63%, soit une hausse de 20,4 points par rapport à 2022 où elle avait été l’une des plus faibles sous la Ve République : seulement 46,23% des inscrits s'étaient rendu aux urnes pour le second tour. 1094 candidats (656 hommes, 438 femmes) dans 409 duels, 89 triangulaires et 2 quadrangulaires étaient en lice dans les 501 circonscriptions pour lesquelles un second tour était organisé le dimanche 7 juillet 2024.
Le Front Populaire arrive en tête du 2nd tour avec 170 sièges, Ensemble en 2e position avec 150 sièges, le Rassemblement et ses alliés en 3e position avec 143 sièges suivis par Les Républicains et apparentés avec 66 sièges. Les désistements ont profité au Nouveau Front Populaire (NFP), mais aussi à l'ancienne majorité. C'est le Rassemblement National (RN) qui réunit le plus de suffrages exprimés (8,7 millions de voix), suivi par le Nouveau Front populaire (7 millions de voix) et Ensemble (6,3 millions). Du point de vue de la répartition géographique, le NFP réalise de gros scores à Paris et en petite couronne. Ensemble est très implanté dans le centre et l'ouest, tandis que le RN et ses alliés s'implantent durablement dans le sud-est et dans une grande partie du nord-est de la France.
1) Accès aux données
Résultats officiels publiés par le Ministère de l'Intérieur
Liste des candidats au 2e tour avec leur parti et leur profession (Data.gouv.fr). Selon les premières analyses de la sociologie des député(e)s de la nouvelle Assemblée nationale, on observe en moyenne trois fois plus de députés parmi les professions cadres supérieurs et professions intellectuelles supérieures que dans la population active (Cevipof). On compte 36% de femmes parmi les élu.e.s (contre 37,3% en 2022). Sur 577, on dénombre 423 sortants (soit 73 %). Sur les 154 nouveaux députés, 141 n’ont jamais siégé à l’Assemblée nationale.2) Cartes des résultats dans les médias
- La carte des résultats des législatives 2024 au second tour : la composition de l’Assemblée et le tableau des candidats élus (Le Monde). 155 circonscriptions changent de couleur politique (Le Monde-Les Décodeurs)
- Les résultats du second tour des élections législatives 2024 par commune (Libération)
- Législatives 2024 : la carte de France des résultats du second tour des élections (Le Parisien)
- Législatives : comment la mécanique du barrage a fonctionné ? 6 leçons clefs (Le Grand Continent). Quelle efficacité pour le "front républicain” ?" (mesure de l'écart entre le candidat RN ou alliés et le candidat qui lui était opposé dans les duels du second tour)
- Législatives : formation politique arrivée en tête des élections, par circonscription (Les Echos). Résultats des législatives : 3 cartes pour comprendre la géographie du vote au second tour (Les Echos)
- Résultats Législatives : la carte complète des députés élus par parti (Le Figaro)
- La carte des résultats circonscription par circonscription (Ouest France)
- Résultats des élections législatives 2024 : une circonscription sur quatre a changé de couleur politique, la vôtre est-elle concernée ? (France Info)
- Résultats des législatives : tentez de composer une majorité absolue avec un simulateur de coalitions (Le Figaro)
- Quelle coalition ? Composez votre majorité absolue avec un simulateur de coalitions (Le Grand Continent)
- « Décryptage des résultats au lendemain du 7 juillet 2024 » (Cevipof). Huit chercheurs proposent une analyse des résultats du second tour des législatives 2024.
- « NFP, Ensemble, LR : qui sont les électeurs qui ont le plus fait barrage au RN ? » (CheckNews-Libération)
- « France de l’abstention, France de gauche, France de droite ou d’extrême droite : une radiographie politique du pays » (L'Humanité). L’éclairage des cartographes Nicolas Lambert, Antoine Beroud et Ronan Ysebaert à partir de cartes par interpolation (UAR RIATE). Avec méthodologie et code source disponibles sur Observable.
- « Quelles cartes pour comprendre les élections de 2024 en France ? » (Géoconfluences)
- Alexandre Blin, étudiant du master SIGAT, propose une datavisualisation donnant une vision générale de la répartition géographique des trois blocs accompagnée de deux histogrammes (nombre de voix et transformation au 2nd tour).
- « Vents contraires de la politique française. Evolution du vote entre les élections de 2024 et celles de 2022 » par Sylvain Lesage.
- « On est peut-être à l’aube d’une révision constitutionnelle majeure ». En l’absence de majorité absolue, les parlementaires élus vont devoir inventer un chemin non prévu par la Constitution de la Ve République, estime la constitutionnaliste Charlotte Girard (Politis).
- « Législatives 2024. Qu'a voté la France des villes moyennes ? » par Ivan Glita et Achille Warnant (Fondation Jean Jaurès).
- Comprendre la géographie du vote RN en 2024 » par Jérôme Fourquet et Sylvain Manternach (Institut Terram)
Articles connexesAnalyser les cartes et les données des élections législatives de juin 2022 en France
Cartes et graphiques sur les élections européennes de 2024
Portraits des circonscriptions législatives en France (2022)
Analyser les cartes et les données des élections présidentielles d'avril 2022 en France
La carte, objet éminemment politique : exemple des élections européennes
Dis-moi où tu vis, je te dirai ce que tu votes ? (Géographie à la carte, France Culture)
S'initier à la cartographie électorale à travers l'exemple des élections présidentielles de novembre 2020 aux Etats-Unis
-
12:48
Cartographie d’un duel électoral NFP-ENS : le cas de la 10e circonscription des Français de l’étranger
sur Carnet (neo)cartographiqueCe travail a été réalisé avec la collaboration de Kalliopi ANGO ELA, professeure de Géographie et ancienne sénatrice des Français à l’étranger pour Europe Écologie Les Verts, Directrice de Fondation Paul Ango Ela de géopolitique en Afrique centrale et de Muriel SAMÉ EKOBO, professeure de Géographie et chercheure à la Fondation Paul Ango Ela de géopolitique en Afrique centrale.
Le Nouveau Front Populaire (NFP) représenté par Elsa DI MÉO (NFP-PS) est arrivé en tête du premier tour des élections législatives dans 34 des 48 pôles électoraux de la circonscription n°10 des Français établis hors de France. Ensemble (ENS) représenté par Amal Amélia LAKRAFI (ENS-Renaissance) arrive en seconde position, avec 12 de ces pôles. Les Républicains (LR) et les Divers-Gauche (DIV-G) n’arrivant en tête, chacun, que dans un seul bureau de vote.
Cette circonscription n°10, qui enregistre environ 155 000 électeurs répartis sur 49 pays du Moyen-Orient et de l’Afrique, a montré un taux de participation beaucoup plus élevé qu’à l’habitude (32,06 %) même s’il peut sembler relativement faible au regard de la moyenne nationale (66,7 %).
Les résultats du premier tour des élections législatives du 30 juin 2024 révèlent deux blocs politiques. Celui du NFP, correspondant à deux Afriques : la première couvre une large bande, depuis l’Afrique sub-saharienne jusqu’à l’Afrique Orientale,de N’Djaména à Maputo, en incluant la côtière (Cotonou, Lomé, Accra). La seconde bande s’étend de l’Afrique orientale au Proche Orient, depuis Djibouti et Alexandrie (en Égypte) jusqu’à Erbi au nord et Manama au nord-est. Le bloc d’ENS apparaît surtout dans les circonscriptions périphériques de ce territoire. Est-ce à dire que le NFP serait en passe de l’emporter au second tour de ces législatives ?
– Carte n°1 –
En regardant de plus près la distribution des votes, on observe que ce sont les pôles électoraux importants, en termes de nombre d’inscrit.es, par conséquent de votant.es, qui ont remporté la mise. Si les trois-quarts des circonscriptions consulaires ont mis en avant le NFP, il ne dispose cependant que de 253 voix d’écarts avec ENS, respectivement 11 651 et 11 398 voix pour chacune des deux candidates.
– Carte n°2 –
Les gros pôles électoraux tels Beyrouth au Liban, Dubaï, Abou-Dabi, Koweït et Mascate dans la péninsule arabique, Port-Louis à Maurice ou Tananarive à Madagascar ont donné plus de voix à ENS.
On peut observer trois anomalies dans la répartition générale des voix qui résulte d’un effet de proximité, ce qui signifie que les électeurs ont d’abord voté pour le ou la candidate la plus proche d’eux. Cet effet de proximité, que l’on peut interpréter sur la cartographie du nombre de voix d’écart entre les deux premiers canditat.es, se manifeste de deux manières : sur le plan politique et au niveau géographique.
– Carte n°3 –
La première anomalie résulte d’un effet de proximité politique au profit de LR à Beyrouth au Liban (voir Carte n°2). Ce gros pôle électoral (18 751 inscrit.es) a placé le LR en tête (avec 1415 voix), mais avec une très courte avance de 16 voix (voir Carte n°3) sur le NFP arrivé en seconde position (1399 voix). Les électeurs ont manifestement voté pour un Français du Liban, Lucas LAMAH, qui leur est proche ; la casquette LR devenant alors secondaire.
La seconde anomalie concerne le pôle de Douala au Cameroun, qui bénéficie d’un effet de proximité géographique au profit du NFP (voir Carte n°2). Alors que ce fief électoral de la « Droite française à l’étranger » n’avait jamais voté majoritairement à gauche, il arrive en tête sous les couleurs du NFP et avec 48 voix d’avance. Douala a favorisé la proximité de Elsa DI MÉO, qui a rappelé au cours de sa campagne qu’elle est résidente à Yaoundé. Le NFP est aussi arrivé en tête à Yaoundé (43% des votes), avec 98 voix d’avance sur ENS (voir Carte n°3).
Une anomalie similaire s’observe à Amman en Jordanie où le NFP est arrivé largement en tête (63% des votes) en obtenant 240 voix, soit 150 voix de plus que ENS arrivé en seconde position (voir Carte n°3). Ce pôle situé dans la capitale de la Jordanie a également bénéficié d’un effet de proximité géographique : Anne-Claire YAEESH, la suppléante de Elsa DI MÉO résidant sur place.
Enfin une anomalie à Sanaa, au Yémen, plaçant Nathalie MAZOT (DIV-gauche) en tête, ne peut pas être considérée comme significative dans la mesure où il n’y a eut qu’une seule voix exprimée.
L’enjeu du Liban dans la victoire du NFP
L’enjeu électoral entre les deux blocs politiques en présence dans cette circonscription n°10 des Français établis hors de France est au Liban, où les deux candidates sont finalement assez proches en nombre de voix, avec une courte avance pour ENS dans un duel qui l’oppose au NFP.
Deux éléments vont par ailleurs jouer dans le duel du second tour entre Elsa DI MÉO, la candidate la plus représentée et la plus représentative sur l’ensemble du territoire et Amal Amélia LAKRAFI, la candidate sortante en mandat depuis 2017.
Le premier est le report des voix de l’extrême droite qui n’est arrivée en première ou en deuxième position dans aucune des circonscriptions des Français de l’étranger. Le second élément tient à la bascule des électeurs français du Liban pour ENS, alors qu’ils avaient placé LFI en tête aux élections européennes de 2024 (trois semaines auparavant). Majoritairement favorables à la cause palestinienne, leur vote au second tour traduira aussi leurs inquiétudes face à une extension du conflit Gaza-Israël sur leur territoire.
Ces élections législatives françaises étant très politiques, en raison de la position de l’extrême droite Française à la porte de Matignon, il serait vraiment dommage que les Français qui sont largement établis en Afrique et dans la péninsule arabique ne permettent pas au NFP, déjà en tête avec 48 circonscriptions et 253 voix d’avance, de l’emporter.
Au-delà des résultats de ce premier tour des législatives anticipées dans la 10ème circonscription, la singularité du vote des Français de l’étranger paraît remarquable dans un contexte national qui semble porter l’extrême droite Française aux portes de Matignon. La remise en cause de la binationalité et de l’immigration rendent particulièrement vulnérables les 3,5 millions de concitoyens et leurs familles, tout en remettant en lumière les valeurs défendues par la gauche.
À vos votes !
Citation suggérée par les autrices :
Françoise Bahoken, Kalliopi Ango Ela et Muriel Samé Ekobo (05 juillet 2024), Cartographie d’un duel électoral NFP-ENS : le cas de la 10e circonscription des Français de l’étranger, Carnet (neo)cartographique. Mis en ligne le 05 juillet 2024 à l’adresse [https:]Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
7:22
Déplacements dans Paris x JO et Para 2024
sur OslandiaL’organisation des Jeux Olympiques et Paralympiques à Paris cet été pose la question des déplacements parisiens. Chez Oslandia, le mot d’ordre est très clair : aucun déplacement dans Paris ! Et si la rencontre « physique » est indispensable, nous pouvons proposer à nos clients et partenaires d’utiliser des locaux dans d’autres villes, Lyon par exemple.
Ensuite, il s’agit de bien cerner ce qui est indispensable ou pas … Pour rappel, Oslandia fonctionne en full remote et cela depuis près de 15 ans ! L’équipe est répartie dans la France entière, tout comme nos clients, et cela ne nous a jamais empêché de livrer de beaux projets
En parlant d’ailleurs de beau projet et de JO, la plateforme JOPTIMIZ, composée de plusieurs applications, va prochainement permettre de fournir des services de calcul d’itinéraires adaptés aux contraintes réglementaires mises en place par la Préfecture pendant l’été et effervescence des JO et Para JO.
Oslandia a plus spécifiquement collaboré sur l’outil Itineriz en partenariat avec ALLOHOUSTON, notre partenaire qui a également travaillé sur CirQliz, un outil qui permet aux entreprises de faire valider leurs véhicules avant les JO, délivrant un QR code par véhicule pour faciliter les contrôles de police en zone bleue.
Itineriz permet de son côté d’adapter son trajet en fonction des restrictions et dérogations liées aux Jeux 2024 et à la ZFE de votre ville.
Voilà des applications qui seront bien utiles cet été
-
6:43
Oslandia x Open Source Experts
sur OslandiaOpen Source Experts est un guichet unique fédérant les acteurs de l’open source en France dans un objectif de développement de l’écosystème et d’accès à de nouveaux marchés.
OSE centralise les experts open source, offrant ainsi un interlocuteur unique pour les donneurs d’ordres.
Ce regroupement des acteurs open source a déjà montré ses capacités avant même l’officialisation OSE, par exemple pour le marché de support open source de la CNAM
Oslandia est fière de faire partie des experts « partenaires qualifiés » open source avec OSE, pour accompagner toutes les organisations à leurs usages et migrations vers des SIG libres !
Bravo pour cette initiative portée par nos confrères Arawa, BlueMind, FactorFX, Inno3 et Worteks
-
22:09
GeoJSON dans QGIS : ouvrir, visualiser et exporter un fichier
sur GeomatickLe format GeoJSON est un format d’encodage de données géospatiales basé sur JavaScript Object Notation (JSON). Pour rappel, c’est un format standardisé par l’Internet Engineering Task Force (IETF) qui a publié le référentiel RFC7946. Le GeoJSON est largement utilisé pour représenter des objets géographiques vectoriels avec leurs données attributaires. A… Continuer à lire →
L’article GeoJSON dans QGIS : ouvrir, visualiser et exporter un fichier est apparu en premier sur GEOMATICK.
-
16:45
Neogeo est ravie d’annoncer la date de ...
sur Neogeo TechnologiesNeogeo est ravie d’annoncer la date de son tout premier séminaire dédié à OneGeo Suite, la solution web open source permettant de partager, diffuser et valoriser les données cartographiques d’un territoire.
Il s’agit d’une opportunité unique aussi bien pour les utilisateurs, que pour ceux qui contribuent aux développements mais aussi les passionnés qui veulent découvrir la solution, les dernières fonctionnalités mises en œuvre, d’approfondir leurs connaissances, et de se connecter avec les différents membres de la communauté.
Cet événement promet d’être un véritable catalyseur pour ceux qui souhaitent exploiter tout le potentiel OneGeo Suite.
Ce séminaire a pour but de :- Présenter les nouvelles fonctionnalités : Découvrez les innovations et mises à jour récentes de OneGeo Suite,
- Favoriser les échanges : Échangez avec les autres utilisateurs, les développeurs, et experts du domaine,
- Inspirer et motiver : Bénéficier et partager de retours d’expériences des utilisateurs et des cas d’utilisation inspirants,
- Fournir des échanges approfondis : Au travers d’ateliers sur les nouveaux usages, services, connecteurs, la visualisation des données, les performances et limites actuelles des plateformes OGS…
Participer à ce séminaire vous permettra de :
- Accéder à des informations exclusives : Soyez parmi les premiers à découvrir les dernières fonctionnalités et la road map de la solution,
- Améliorer vos connaissances : Grâce aux présentations et aux ateliers,
- Réseauter avec les membres de la communauté du secteur : Élargissez votre réseau et partagez des idées avec d’autres utilisateurs et experts.
- Obtenir des réponses à vos questions : Interagissez directement avec les développeurs et les formateurs de la solution.
Pour participer à ce séminaire exceptionnel, inscrivez-vous dès maintenant –> lien.
Les inscriptions sont gratuites et obligatoires, ne tardez pas à réserver votre place.
En conclusionNe manquez pas cette occasion, en amont des Géodatadays 2024, afin de consolider vos connaissances et de renforcer votre utilisation de OneGeo Suite. Rejoignez-nous pour une journée riche en apprentissage, en échanges et en inspiration.
Nous sommes impatients de vous accueillir et de partager ce premier séminaire OneGeo Suite à vos côtés.
L’équipe OneGeo Suite
-
7:11
Comparaison des solutions de collecte de terrain : QField et LandSurveyCodesImport (LSCI)
sur OslandiaIntroductionChez Oslandia, nous offrons des services pour la gestion des réseaux, les collectivités et la production de plans de corps de rue simplifiés (PCRS). Parmi ceux-ci, nous proposons des assistances et développements pour les solutions de collecte de terrain. Dans le billet précédent, nous faisions état de ces solutions. Cet article explique les différences entre deux solutions de collecte : QFIELD et LandSurveyCodesImport (LSCI). Nous sommes, en même temps, partenaires d’OpenGIS.ch, éditeur de QField, et les développeurs de LandSurveyCodesImport (LSCI). Pourquoi proposer deux outils ?
QField : Modification directe des donnéesQField est une application mobile développée autour de QGIS. Conçue pour une utilisation intuitive sur le terrain, elle permet aux utilisateurs de :
- Modifier les données SIG en temps réel : les relevés et modifications peuvent être effectués directement sur le terrain et synchronisés immédiatement avec la base de données principale.
- Accès facile aux informations : les utilisateurs ont un accès direct aux cartes et aux données géospatiales, ce qui permet une prise de décision rapide et informée.
- Cartographie environnementale : des naturalistes peuvent utiliser QField pour relever des données sur la faune et la flore, mettant à jour instantanément la base de données.
- Gestion des infrastructures : les techniciens des services publics peuvent enregistrer et modifier les informations sur les infrastructures directement sur le terrain.
LandSurveyCodesImport (LSCI) est un plugin QGIS destiné principalement aux topographes. Il permet la saisie de points et de codes à partir de carnets de terrain, suivi d’un traitement et d’une intégration dans QGIS. Ce processus est particulièrement utile pour :
- La saisie structurée des données : les topographes peuvent enregistrer des points précis et des codes descriptifs, facilitant ainsi le traitement ultérieur des données.
- Intégration avec les outils de topographie traditionnels : compatible avec les stations totales et les appareils GNSS, LSCI facilite la transition des données de terrain vers le SIG.
- Topographie urbaine : les équipes de topographie peuvent collecter des données détaillées sur les structures urbaines et les intégrer facilement dans QGIS pour une analyse approfondie.
- Géodésie et levés cadastraux : les géomètres et topographes peuvent utiliser LSCI pour traiter les relevés topographiques et produire des cartes précises 3D.
LSCI s’intègre dans une suite d’outils spécialisés :
- TotalOpenStation : Utilisé pour la conversion des carnets de terrain en données numériques.
- Topaze : Outil de calcul topométrique pour une analyse détaillée des relevés.
Leurs utilisations conjointes permettent de créer une chaîne de traitement des données efficaces pour intégrer les données capteur GPS à la base de données.
Complémentarité des outilsBien que QField et LSCI semblent répondre à des besoins différents, ils peuvent être utilisés dans le même service pour une gestion complète des données de terrain. QField permet une mise à jour immédiate et directe des données, tandis que LSCI offre une solution structurée pour les relevés topographiques.
Contrôle qualité avec QompliGISEnfin, n’oublions pas de vérifier la donnée ! Pour cela, nous poussons QompliGIS qui est un outil pour le contrôle qualité des données SIG. Il permet de s’assurer que les plans produits sont conformes aux normes requises, garantissant ainsi la fiabilité et la précision des informations géospatiales.
ConclusionQField et LandSurveyCodesImport (LSCI) répondent à des besoins spécifiques pour la saisie terrain. Chez Oslandia, nous proposons notre expertise et nos services de développement pour intégrer ces solutions dans vos processus et répondre à vos exigences spécifiques.
Vous avez envie d’intégrer ces outils à vos SI ? Vous souhaitez co-développer de nouvelles fonctionnalités ? Contactez-nous !
-
15:48
Méfiez-vous des cartes … électorales
sur Carnet (neo)cartographiqueBillet à retrouver également sur l’humanité.fr.
Au lendemain des élections européennes de 2024 et de l’annonce de la dissolution de l’Assemblée Nationale par le président de la République française, le pays fut plongé dans une période d’instabilité politique profonde. Le Rassemblement National (RN) est en effet arrivé en tête dans plus de 32 000 communes sur 35 000. C’est le fameux chiffre de 93 % qui n’a cessé d’être martelé dans de nombreux média pour illustrer la victoire objective et éclatante du RN aux européennes, ainsi que son ancrage dans la population française. Les cartes produites furent, elles aussi, explicites : des images teintées de bleu ou de brun1 qui semblent démontrer que l’arrivée de Jordan Bardella à Matignon n’est plus qu’une question de temps.
Ces images cartographiques reflètent-elles vraiment le rapport de force qui s’instaura entre les formations politiques françaises, dans la perspective des élections législatives ?
Pour analyser cela, nous proposons d’examiner la répartition des voies obtenues par le Rassemblement National à ces élections européennes, en les projetant dans les 577 circonscriptions électorales. Nous les mettons ensuite en regard des forces de gauche rassemblées aujourd’hui dans le Nouveau Front Populaire (NFP).
Les données
Les données consultées correspondent aux résultats électoraux finalisés de la France aux élections européennes de 2024. Communiquées par le Ministère de l’Intérieur français, le détail de ces résultats est librement accessible sur le site data.gouv.fr2. Les variables que nous avons mobilisées sont celles qui portent sur le nombre d’inscrits et sur le nombre de votants par circonscription électorale, à l’échelle géographique des circonscriptions.Souhaitant par ailleurs cartographier les votes obtenus par le RN en les mettant en regard avec cette nouvelle construction politique qu’est le Nouveau Front Populaire (NFP), qui n’existait certes pas au moment des élections européennes, nous avons construit une nouvelle variable (NFP) à l’échelle des circonscriptions. Cette variable NFP correspond logiquement à la somme du nombre d’inscrits et du nombre de voix obtenus par les partis Europe Écologie les verts (EELV), Parti communiste français (PCF), Parti socialiste (PS) et La France insoumise (LFI).
À noter que le même regroupement n’a pas été fait entre les partis de l’extrême droite française, car ces derniers n’ont pas fait l’objet, à notre connaissance, d’une alliance générale et au niveau national comparable à celle mise en place par la gauche, pour former le NFP. Compte tenu de ces choix, l’analyse cartographique proposée focalise l’attention sur le vote RN appréhendée comme l’une des deux grosses forces politiques actuellement en présence, la seconde étant le NFP ; les autres partis, formations et groupements politiques français étant regroupées dans une catégorie « Autres ».
Sur la première carte, nous colorons en bleu marine les circonscriptions dans lesquelles le RN est arrivé en tête. Cette image décrit factuellement la large victoire du RN, effectivement arrivé en première position dans 457 circonscriptions (soit 79 % de l’ensemble), contre 120 circonscriptions (soit 21%) pour l’ensemble des autres forces politiques. Si l’on considère la surface des territoires ainsi représentés, le RN est arrivé en tête dans 85 % du territoire national. Un véritable raz de marée…
Cette carte n’est pas sans rappeler une autre carte célèbre brandie par Donald Trump le 1er octobre 2019 sur le réseau social Twitter. Alors en plein procédure d’impeachment suite à l’affaire ukrainienne, Trump brandit cet argument cartographique pour revendiquer une légitimité populaire, celle de l’Amérique profonde et des arrière-pays. Mais il y a un hic.
Si la carte était recouverte de rouge, la couleur du parti Républicain de Donald Trump, les grandes villes, elles, ne votèrent pas pour lui. Trump fut en réalité élu avec 3 millions de voix de moins qu’Hillary Clinton et cela, malgré une carte totalement bardée de rouge. Cette carte représenta donc l’illusion d’une victoire. Qu’en est-t-il de celle présentée ci-dessus ?
Depuis les élections européennes, la situation politique en France a changé. Les forces de gauche se sont unies dans le Nouveau Front Populaire (NFP), seul moyen de contester la suprématie du RN dans nombre de circonscriptions électorales.
C’est pourquoi nous proposons une seconde carte considérant cette nouvelle force politique inédite, élaborée au lendemain des élections européennes. Comme sur la carte précédente, les circonscriptions où le RN est arrivé en tête sont teintées de bleu marine ; les circonscriptions gagnées par le NFP sont maintenant représentées en rouge, tandis que celles des autres forces politiques françaises sont toujours représentées en gris.
Il est intéressant de pouvoir visualiser la manière dont les résultats cartographiques se contrastent lorsque la gauche est unie au sein du NFP. Si la victoire du RN demeure indéniable, celui-ci arrive en tête dans (seulement) 313 circonscriptions (55 % de l’ensemble), comme indiqué sur le diagramme. Le NFP remporte, quant à lui, et à lui seul, 259 circonscriptions (45 % de l’ensemble) ; les autres formations politiques sont arrivées en tête dans seulement 8 circonscriptions. L’union fait la force. Deux blocs se font face.
Mais, parce qu’il y a un mais, cette représentation cartographique n’est pas non plus sans poser quelques problèmes de perception. En effet, le découpage des circonscriptions électorales est réalisé de telle sorte que chacune d’elles rassemble un nombre comparable de votants. Ainsi, en zone urbaine dense, les circonscriptions présentent de très petites tailles à l’inverse des zones rurales où elles peuvent s’étendre sur des kilomètres. Leurs formes géographiques et leurs surfaces sont donc nécessairement hétérogènes. En utilisant ce découpage électoral comme support de la représentation cartographique, la carte survalorise donc, par construction, la perception des résultats obtenus dans les territoires peu denses qui sont caractérisés par leur grande taille, créant un effet d’absorption visuelle. Autrement dit, on ne voit qu’elles.
Pour y remédier, nous proposons d’assimiler chaque circonscription à un cercle dont la surface est proportionnelle au nombre d’inscrits. Pour des questions de lisibilité, les cercles sont écartés les uns des autres afin d’éviter leurs superpositions puis sont teintés, comme précédemment, en fonction du bloc politique arrivé en tête. Le résultat obtenu s’éloigne nettement de la carte de départ, puisqu’on obtient ici une carte beaucoup plus réaliste où la perception des couleurs de chacune des circonscriptions exprime fidèlement le rapport des forces RN et NFP.
Si le RN reste malgré tout en tête dans 55 % des circonscriptions et semble bien placé pour remporter les élections législatives qui se profilent, c’est sans compter sur le fait que les résultats électoraux sont le reflet de dynamiques politiques et sociales et non un simple bilan comptable.
Aussi proposons-nous une variante de la carte précédente où nous représentons en jaune les circonscriptions dans lesquelles l’écart de voix entre le NFP et son principal adversaire est de moins de 5 %. En d’autres termes, les circonscriptions électorales où rien n’est joué.
Dans cette configuration, 18 % des circonscriptions semblent très indécises et le RN ne semble plus en position de force que dans 45 % des cas – ce qui est déjà beaucoup trop. Rien n’est cependant joué. S’il ne nous est pas possible de prévoir à ce stade la manière dont vont se dérouler les élections législatives, dans ce contexte politique inédit, nous pouvons cependant affirmer que le combat n’est pas perdu, comme le laissait envisager la carte initiale qui était, disons-le, désespérante. La participation au scrutin tout comme le jeu complexe des reports de voix au second tour seront en effet déterminants.
Alors méfiez-vous des représentations cartographiques qui vous plongent dans l’apathie et rappelez-vous que les cartes ne sont jamais neutres. Mobilisons-nous, toutes et tous ensemble les 30 juin et 7 juillet prochain, pour faire gagner le Nouveau Front Populaire.
Données et code source : [https:]]
Ils en parlent …
Géoconfluence (5 juillet 2024) Quelles cartes pour comprendre les élections de 2024 en France ?
Maps Mania (8 juillet 2024) France Defeats the Far-Right
-
20:43
Connaître l'état des eaux souterraines de l'Union européenne (projet Under the Surface)
sur Cartographies numériquesUn groupe de journalistes de toute l'Europe a travaillé pour collecter, analyser et présenter des informations sur l'état de la ressource en eau. Le projet Under the Surface est basé sur les données que chaque État membre doit communiquer à l'Union européenne sur l'état qualitatif et quantitatif de ses eaux souterraines. Le projet a été initié par Arena for Journalism in Europe et Datadista. Inspiré par les précédentes enquêtes de Datadista sur les eaux souterraines en Espagne, Arena a invité un groupe de journalistes européens à sa conférence Climate Arena en novembre 2023, pour partager des idées et discuter de la faisabilité du projet. Après avoir choisi les partenaires et les méthodes, cette nouvelle équipe de 14 journalistes a démarré ses travaux en janvier 2024.
Le projet "Under the Surface" trouve, en l'absence de données de tous les pays, que l'Europe manque d'eau : plus de 15% des aquifères sont en mauvais état. L'UE exige en principe que tous les États membres, ainsi que l'Islande et la Norvège, fournissent des données sur l'état de leurs aquifères. Sur ces 29 pays, 16 ont soumis des données complètes et accessibles au public, celles de l'Allemagne et du Portugal n'étant que partiellement accessibles. Onze pays ne figurent pas du tout sur la carte : dix n’ont fourni aucune information à l’UE et un, l’Autriche, a choisi de cacher des parties clés de ses données qui empêchent leur cartographie. Les experts scientifiques, informés des résultats du projet Under the Surface, ont averti que sans données complètes, ils ne pouvaient pas connaître l'étendue réelle des dégâts causés aux eaux souterraines du continent.
Carte interactive montrant l'état des nappes phréatiques pour 17 pays européens (Source : Under the Surface)
La carte interactive montre la qualité et la quantité des eaux souterraines dans 18 pays (pour 17 membres de l’UE + la Norvège). Il couvre les nitrates et une gamme limitée de pesticides et de métaux. Les substances problématiques telles que les PFAS – connues sous le nom de « produits chimiques éternels » – et les produits pharmaceutiques ne sont pas inclus car l'UE n'exige pas de tests.
La carte révèle que 15 % des masses d’eau incluses dans la carte sont en « mauvais état », ce qui représente 26 % des aquifères par zone de couverture. Un épuisement ou une pollution importante des aquifères est susceptible d’avoir un impact très large, car celles-ci desservent souvent une région plus vaste et une population plus importante. En République tchèque et en Belgique, le nombre d’aquifères qualifiés de « pauvres » dépasse celui des aquifères sains. Ils sont suivis de près par l'Espagne, la France et l'Italie. La Bretagne fait partie des régions particulièrement touchées par la pollution de ses nappes phréatiques.
Les données sont disponibles à travers un formulaire à remplir.
Pour compléter
« Explorez la carte inédite de la pollution des eaux souterraines en France ». Le Monde a agrégé les mesures correspondant à 300 contaminants (pesticides, métaux, médicaments...) dans 24 700 stations de surveillance. La carte des contaminations des eaux souterraines en France a été conçue par Le Monde, dans le cadre du projet « Under the surface », mené avec six médias partenaires, initié par le média espagnol Datadista et coordonné par Arena for Journalism in Europe.
La carte des contaminations des eaux souterraines (source : Le Monde-Les Décodeurs)
Articles connexes
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
Nappes d'eau souterraine : bilan de l’évolution des niveaux en 2022-2023 (BRGM)
Un atlas mondial pour estimer les volumes d’eau des glaciers
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Conflits liés à l'eau : les prévisions du site Water, Peace and Security
L'évaporation des lacs dans le monde : une tendance à la hausse
Cartes et données SIG sur les petits et moyens réservoirs d'eau artificiels dans le monde
Cartes et données sur la canicule et les incendies de forêt en France et en Europe
La France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
-
10:00
Récolt'Ô, la valorisation de l'eau de pluie 2/2
sur Makina CorpusNé d’une initiative locale en Occitanie, le projet Récolt’Ô pour la valorisation de l’eau de pluie répond aux défis d’adaptation au changement climatique à l’échelle nationale.
-
7:07
[Témoignage client] Sylvain Petiteau, géologue expert en contrôle géologique chez Orano
sur OslandiaSylvain Petiteau est géologue de formation et géologue expert en contrôle géologique chez Orano. Après des missions au Kazakhstan, en Mongolie et au Niger, il travaille aujourd’hui sur l’estimation des ressources géologiques et le contrôle qualité des mineurs. Dans ce contexte Sylvain Petiteau collabore avec Oslandia sur le projet CanOP permettant d’identifier la teneur en uranium des minerais sur un site d’extraction au Niger.
Retour sur la collaboration :Il y a quelques années, nous avons initié un projet d’innovation CanOP qui s’est converti en projet d’industrialisation. Il s’agissait de remplacer une technologie ancienne sur un site minier de plus de 50 ans d’existence par un nouveau concept technologique. L’objectif était de nous aider à améliorer la sélectivité minière (notre capacité à séparer les roches minéralisées chargées en Uranium des roches stériles) notamment en ajoutant la géolocalisation aux mesures.
Le dispositif technique consiste en une perche métallique équipée de trois composants : deux cristaux qui effectuent des mesures de la radioactivité et un GPS différentiel avec une précision de l’ordre du millimètre.
Cette canne est connectée à une tablette en bluetooth qui envoie des informations géolocalisées de la mesure de la radioactivité. Les informations reçues par la tablette sont traitées par l’application CtrlCraft développée par Oslandia. Plusieurs cannes peuvent opérer en parallèle à différents endroits. Les données acquises sont ensuite regroupées et enregistrées dans une base de données centrale afin de suivre la production. Le croisement de ces données avec nos prévisions de production nous permet également d’améliorer nos modèles 3D de la teneur.
CanOP participe à la diminution de la co-activité. Une fois les mesures réalisées par les aides prospecteurs, ils peuvent se mettre en retrait de l’activité d’extraction pour guider à distance le travail de la pelle en suivant l’exploitation sur l’application CtrlCraft. On gagne énormément en sécurité.
Oslandia est disponible, à l’écoute et s’est bien adapté à nos demandes en conciliant les possibilités de développement, notamment de l’outil QGIS, aux besoins qu’on leur décrit. Le projet s’est monté en mode agile, la solution évoluant avec nos besoins. Nous avons de bonnes interactions avec Jacky notre interlocuteur principal sur le développement.
-
14:00
LiDAR HD brut - Distinguer sol et sursol avec pdal
sur GeotribuLes données LiDAR HD brut ont été traitées avec PDAL pour coloriser le nuage de points et distinguer le sol et le sursol.
-
11:35
Corpo d’été !
sur OslandiaOslandia se veut une structure atypique, avec des valeurs affirmées basées sur l’autonomie, la confiance et l’ouverture.
Nous avons misé depuis la création d’Oslandia sur un fonctionnement en 100% télétravail avec des collaborateurs répartis dans la France entière. Pour une organisation libre des missions et de la journée de travail !
On a d’ailleurs évoqué le sujet du télétravail récemment dans un billet.Mais nous avons aussi grand plaisir à nous retrouver, c’était le cas en juin pour notre Corpo d’été :
Les Corpos sont l’occasion de partager des moments privilégiés et d’échanger sur des sujets de fonds. Pendant ces journées où nous avons de nouveau été magnifiquement accueillis à la Tour d’Oncin, nous avons plus spécialement travaillé sur notre offre de formation, fait des ateliers DuckDB, Dagster, PostGIS 3D, discuté de notre utilisation de l’IA ou des participations aux conférences …
Sans oublier les moments de partage autour d’une dégustation de vin AOC Bugey, une activité Escape Game ou encore le sauna du lieu !
-
18:24
Latitudes et longitudes géographiques dans l’Encyclopédie de Diderot et d'Alembert
sur Cartographies numériquesLe dossier de Colette Le Lay sur le site ENCCRE se propose d'étudier les latitudes et longitudes fournies par les articles de géographie de l’Encyclopédie de Diderot et d'Alembert. Il s'agit d'en déterminer les contributeurs et les sources à partir d'un important corpus. Librement accessible, l’Édition Numérique, Collaborative et CRitique de l’Encyclopédie (ENCCRE) met à disposition les connaissances des chercheurs d’hier et d’aujourd’hui sur l’Encyclopédie, en s’appuyant sur un exemplaire original et complet de l’ouvrage conservé à la Bibliothèque Mazarine, intégralement numérisé pour l’occasion (soit 17 volumes de textes et 11 volumes de planches). Le dossier s'ouvre par une très belle projection de Jacques Cassini (1696) figurant la Terre vue du pôle Nord avec l'ensemble des méridiens disposés tout autour.
Planisphère Terrestre où sont marquées les Longitudes de divers Lieux de la Terre par Mr. de Cassini (1696)
Source : Gallica
Heinrich Scherer, Geographia Artificialis Sive Globi Terraquei Geographice Repraesentandi Artificium, 1703(source : Bibliothèque numérique de Munich)
Le choix de cette projection azimuthale polaire de Jacques Cassini est l'occasion d'aller découvrir la très belle représentation du périple de Magellan autour du monde par le cartographe Scherer (1702). Heinrich Scherer (1628-1704), à la fois mathématicien et cartographe, a développé une œuvre colossale qui a influencé la cartographie européenne du XVIIIe siècle. Plusieurs de ses atlas sont à découvrir sur le site de la Bibliothèque numérique de Munich. Au XVIIe siècle, les parallèles et les méridiens apparaissent comme les lignes remarquables pour se repérer à la surface du globe. Mais les coordonnées géographiques restent encore assez imprécises. Déterminer la longitude va devenir un grand enjeu au XVIIIe siècle.La longitude et la latitude tendent à s’imposer de plus en plus fréquemment dans les dictionnaires et encyclopédies à partir de la seconde moitié du XVIIIe siècle comme en atteste l'étude conduite par Denis Vigier, Ludovic Moncla, Isabelle Lefort, Thierry Joliveau et Katherine McDonough : « Les articles de géographie dans le Dictionnaire Universel de Trévoux et l’Encyclopédie de Diderot et d’Alembert » (Revue Langue française, 2022/2, n° 214). Selon les auteurs, c'est avec F. L. Vosgien (1747 et éditions suivantes) que l’on trouve la mention quasi-systématique de longitude et de latitude, modèle que réutilise D. Diderot dans l’Encyclopédie.
Dictionnaire géographique portatif ou Description de tous les royaumes, provinces, villes, patriarchats, éveschés, duchés, comtés, marquisats des quatre parties du monde par M. Vosgien (1757). Source : Gallica
Pour Paris par exemple, l'Encyclopédie de Diderot et d'Alembert indique une latitude de 48° 51' 20''. On y voit la mention de deux longitudes différentes, l'une notée Long. orient. 20° 21' 30", l'autre dite Long. de Paris à l'observatoire de Paris suivant Cassini 19° 51' 30'' : preuve qu'il y avait plusieurs manières d'indiquer la longitude à l'époque. Dans les deux cas, on observe que le point d'origine reste l'île de Fer qui servait encore de référence au cours du XVIIIe siècle.Comme l'explique le dossier de Colette Le Lay sur le site de l'ENCCRE, déterminer la longitude constitue un enjeu considérable au XVIIIe siècle. Le méridien de Paris comme méridien d'origine va s'imposer progressivement en France à partir des Cassini, sans qu'il s'agisse d'une référence unique. Pour la longitude, l'Encyclopédie prend comme origine l'île de Fer dans l'Atlantique (estimée à l'époque à environ 20° ouest de Paris) sans pour autant mentionner explicitement un méridien origine.
Méridien de l'île de Fer dans l'Atlantique
Outre le Dictionnaire géographique portatif de Vosgien, Jaucourt qui a rédigé avec Diderot les articles de géographie de l'Encyclopédie s'est inspiré vraisemblablement du Dictionnaire de Trévoux (1752). Celui-ci comporte à la fin de l'ouvrage un tableau des coordonnées géographiques de tous les lieux et auteurs cités. La longitude y est indiquée en degrés, minutes, secondes (D. M. S.) par rapport à l'île de Fer ainsi que par rapport au méridien de Paris en heures, minutes, secondes (H.M.S.).Tableau des coordonnées géographiques des noms de lieux (source : Dictionnaire de Trévoux, 1752)
Il fallut attendre la fin du XVIIIe siècle pour stabiliser les mesures de longitude. En 1789, l'expédition de Verdun, Borda et Pingré plaça définitivement l'île de Fer à 20°2’31" de Paris. Au XIXème siècle, la carte d'état major ne se réfère plus qu'au méridien de Paris et les cartes topographiques des autres États à leur observatoire national. C'est le développement des transports et la nécessité d'adopter une heure universelle et des fuseaux horaires avec des décalages d'heures rondes pour les heures locales qui vont aboutir au choix du méridien international de Greenwich en 1884. La France résistera jusqu'en 1911 (source : « Quelle est la différence entre le méridien de Greenwich et le méridien de Paris ? », IGN)
Articles connexes
L'histoire par les cartes : il a fallu plus de 25 ans à la France pour fixer les coordonnées géographiques et relever les premières cartes des Seychelles au XVIIIe siècle
Derrière chaque carte, une histoire. La cartographie du détroit de Magellan entre science et imaginaire
La projection Equal Earth, un bon compromis ?
Projections cartographiques
Cartes et atlas historiques
-
6:24
Question du mois chez Oslandia : Quel est mon intérêt à financer de l’open source ?
sur OslandiaChez Oslandia, nous croyons fermement aux multiples avantages du financement de l’open source. Voici quelques éléments clés qui mettent en lumière les raisons pour lesquelles cela constitue une stratégie judicieuse pour toute organisation :
Orienter la roadmapEn finançant des projets open source (développement de fonctionnalités, corrections de bugs…), vous avez la possibilité d’influencer la feuille de route du développement. Vos besoins spécifiques sont mieux pris en compte, assurant ainsi que les évolutions du projet répondent à vos attentes.
Maintenance optimiséeL’un des grands avantages de l’open source est que la maintenance et les améliorations futures sont prises en charge par l’ensemble des contributeurs de façon mutualisée. Cela réduit la charge de travail globale, et particulièrement la charge de maintenance interne du code produit par votre financement, et assure ainsi une évolution continue du logiciel en respectant le niveau de qualité attendu.
Visibilité et communicationEn contribuant financièrement à l’open source, vous bénéficiez d’une visibilité accrue. Les contributions sont relayées au sein des communautés, offrant ainsi une publicité positive et renforçant votre image de marque, tant auprès de la communauté qu’auprès des autres organisations utilisatrices. Cette communication produit également un effet « boule de neige » où d’autres organisations suivront votre exemple, et vous bénéficierez de leurs financements dans le futur.
Reconnaissance communautaireLa reconnaissance par la communauté open source est un atout majeur. Être perçu comme un acteur clé et un soutien de l’open source peut renforcer votre crédibilité et votre influence, solidifiant l’écosystème de votre socle technologique. Cette reconnaissance facilite par la suite les échanges avec la communauté et les réponses que celle-ci pourra apporter à vos problématiques.
Avantages RHEnfin, investir dans l’open source est un levier important pour attirer et retenir les talents. Les développeurs sont attirés par des entreprises engagées dans l’open source, perçues comme innovantes, tournées vers l’avenir et porteuses de sens dans le travail.
En conclusion, financer l’open source n’est pas seulement une question de philanthropie technologique, c’est aussi une stratégie d’entreprise solide qui apporte de nombreux bénéfices tangibles. Chez Oslandia, nous sommes fiers de promouvoir et de soutenir l’open source, car nous croyons en son potentiel à transformer positivement les pratiques et les technologies. C’est aussi le cas de nos clients et partenaires, et ensemble nous faisons progresser les technologies du libre, le bien commun, le tout avec une raison d’être au travail que nous fournissons.
-
13:17
Le programme CHOROS de Tobler (1973)
sur Carnet (neo)cartographiquePréambule : L’un des objectifs du programme Tribute to Tobler (TTT) consiste à permettre de remobiliser des méthodes d’analyse spatiale et de cartographie proposées par Waldo Tobler, en s’appuyant sur ses textes, ses notes, ses programmes informatiques et ses images.
Les différentes propositions théoriques, méthodologiques, algorithmiques et j’en passe que Tobler a légué à la communauté ont souvent été illustrés par des données analysées et illustrées à l’aide d’outils et de programmes confectionnés par l’auteur lui-même.
Tobler a par ailleurs mis à notre disposition dans une extraordinaire démarche d’ouverture de ses programmes, ses données et ses images, qu’il est dès lors possible de remobiliser aujourd’hui.
Atteindre cet objectif de reproductibilité d’analyses spatiales anciennes parfois enterrées, souvent complexes dans leur exposé et dans leur mise en œuvre suppose, d’une part, une relecture des textes (articles, notes de recherches …) concernés et d’autre part, une reprise en main (une refactorisation) ou plutôt le re développement des programmes et outils mobilisés dans le ou les textes en question, dans les langages contemporains les plus usuels. Sans cela, il ne sera pas possible de diffuser son travail ni de progresser dans le développement de méthodes de l’analyse géographique pourtant très utiles à d’autres pans de la connaissance qui utilisent des données localisées.
Tobler m’avait dit qu’en appui de propositions théoriques ou méthodologiques que l’on pouvait faire (c’était à l’époque dans le cadre de ma thèse), il était nécessaire d’une part, de les formaliser mathématiquement et d’autre part, de proposer des programmes permettant de les mettre en œuvre. En l’absence de compétences dans l’un ou l’autre domaine de son champs de compétences, il fallait collaborer avec ceux qui savent, ceux qui possèdent les dites compétences. Je m’égare. Revenons à nos moutons.
Pour pouvoir (re)mobiliser des méthodes et outils d’analyse qui nous apparaissent fondaentaux, il convient au préalable de comprendre de quoi il en retourne, en commençant par les déconstruire pour pouvoir mieux les reconstruire ailleurs, j’entends dans d’autres contextes.
C’est le cas du programme CHOROS de Tobler, un outil permettant de réaliser des cartes chroplèthes sans intervalles – dont il a déjà été question.
CHOROSTobler a en effet proposé en 1973 – lire la traduction française réalisée par Laurent Jégou dans le cadre de TTT – de construire des cartes choroplètes sans partitions des données numériques (selon les quantiles, standardisation, etc.). Attention : cela ne signifie pas pour autant qu’il ne fallait pas discrétiser les données avant de les représenter – puisqu’elles sont continues -, mais plutôt que la discrétisation devrait s’appuyer non pas sur des paramètres de la série (moyenne, médiane, …), mais sur une valeur unique d’intensité de teinte pour chaque valeur numérique, sur un “ombrage” unique comme l’indique Peterson (1999). C’est ce que l’on fait aujourd’hui intuitivement lorsqu’on nuance une teinte en fonction de la quantité de noir qu’on ajuste en fonction de l’intervalle de classe.
Le résultat produit des motifs spatiaux qui apparaissent plus ou moins perceptibles en fonction du nombre de valeurs, mais malgré son intérêt opérationnel, ils n’ont pas d’emblée convaincue la communauté de l’époque.
Comment ça marche ?
Dobson est arrivé à la conclusion selon laquelle le résultat d’une choroplèthe sans classe était trop chargé, et donc peu lisible. Peterson et Müller ont quant à eux testé cette méthode en 1979, après son introduction par Tobler, avant d’en développer des versions adaptées pour d’autres environnement.Le programme CHOROS mobilise un opérateur linéaire de voisinage pour créer des cartes choroplèthes (Application of linear Neighborhood Operator to Choropleth Maps), en utilisant la méthode de réagrégation définie par Tobler. Le lissage des contours dépend des masses utilisées dans un autre outil : le programme HAVE (je n’en sais pas plus à ce stade).
Le programme a été développé en Fortran par Tobler lui-même, alors qu’il était à l’Université du Michigan (Ann Arbor). Il a ensuite été redéveloppé à partir de l’automne 1985 par Michael P. Peterson, bien connu pour ses travaux sur la cartographie animée, pour l’adapter à l’environnement Macintosh.
MacCHOROLa première version du MacChoro de Peterson est publiée en 1986 et apparaît être le tout premier programme de cartographie thématique pour Mac.
L’outil permettait de réaliser des cartes choroplèthes fondées sur les discrétisations usuelles ainsi que des non classées (numériquement) en seize classes ou nuances de teintes (de niveaux de gris, faut-il le préciser ?), là ou les autres méthodes de discrétisation plus classiques – également proposées dans l’outil – autorisaient une partition de deux à seize classes (à des fins de comparaison).
A partir de 1989, MacChoro II v1, proposée sur un “Big Mac” (512 K avec deux lecteurs de disquettes et aucun disque dur), fut doté d’une partie animée, suivant la proposition de Tobler. Rappelons que l’animation était à l’époque l’un des trois paradigmes de la cartographie définis par l’auteur, aux côtés des approches discrètes et continues. A noter que cette v.1 fut fournie avec des données et le fond de carte des États-Unis d’Amérique pour une cartographie à réaliser en noir et blanc.
L’outil innove en plusieurs aspects. L’environnement propose huit menus (voir figure 1), quatre sous menus : Map file, Convert, poly Extract et Classify (écart-type, intervalles égaux, quantiles et seuils naturels) et quatre fenêtres utiles : une fenêtre graphique principale et une autre proposant une vue globale et réduite ; une troisième fenêtre pour visualiser les données et une quatrième fenêtre de sortie des statistiques sous la forme de texte
Figure 1. Interface utilisateur de MacChoro II.
Source : MacChoro II overview.
MacChoro II v.2 créa une nouvelle surprise en ajoutant des icônes à son interface, pour :
– symboliser les méthodes de discrétisation proposées qui passent au nombre de cinq, auxquelles s’ajoutent la “discrétisation non classée” ;
– choisir un nombre de classe entre 2 et 16 ;
– dessiner la carteFigure 2. Interface de discrétisation de MacChoro II v2.
D’après Peterson (1999), l’interface de Mac Choro II se distingua en outre à l’époque pour les aspects liés à l’interactivité de la cartographie ou de l’utilisateur avec la carte : la présence de “légendes actives permettait” à l’utilisateur de “contrôler la méthode de classification” utilisée pour discrétiser non seulement une mais plusieurs variables.
Figure 3. Interfaces de,discrétisation et de sélection des variables d’intérêt
Source : Michael Peterson (1999)
La carte réalisé est ensuite transférable via le Presse papier (Clipboard) à d’autres programmes pour Macinstosh de l’époque (MacDraw II, Super Paint II, MacWrite II, Word and PageMager) pour voir sa conception finalisée avant d’être diffusée.
Si vous êtes intéressé.e d’en savoir plus sur MacChoro, une review fut proposée par Gene Turner dans Cartographica en 1991.
Enfin, last but not least, Laurent Jégou a porté en 2022, dans un carnet Observable intitulé Quantiles vs continuous choropleths maps, la méthode des choroplèthes sans classe de Tobler (1993), en la comparant au passage avec la méthode des quantiles – c’est d’ailleurs la seule application de ces cartographies choroplèthes non classées que je connaisse à ce jour. A suivre ?
Ce billet est dédié à mon collègue Robin Cura, pour les discussions parfois un peu vives que nous avons pu avoir sur le sujet. Mais nul n’est parfait hein :-).
Références :
Tobler, W. (1973) “Choropleth Maps Without Class Intervals?.” Geographical Analysis 3: 262-265.
Tobler W, Jégou L (1973), Choropleth Maps Without Intervals?. 2022.
Turner Gene (1991), Two mapping software packages for for Macintosh Computers, Cartographica, n° 10. pp. 17-21.
MacChoro Il with Map Animation. Image Mapping Systems, Overview.
Peterson P. (1999), Active legends for interactive cartographic animation, International Journal of Geographical Science, DOI: 10.1080/136588199241256 ·
Billets liés :
Laurent Jégou (2022), Des cartes choroplèthes sans classes ?
Voir aussi :
Laurent Jégou, Quantiles vs continuous choropleths maps, Notebook Observable.
Philippe Rivière (2021), Pycno what ? Interpolation pycnophylactique.
La collection TTT des travaux en français de et après Tobler : hal.archives-ouvertes.fr/TTT/
L’espace de travail collaboratif sur les travaux de Tobler : ./tributetotoblerGéographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
6:59
[Equipe Oslandia] Gwendoline, développeur QGIS web
sur OslandiaIngénieur à l’INSA de Lyon en bio-informatique, Gwendoline ne souhaite pas aller vers une thèse et s’oriente dans le domaine du séquençage ADN. Une spécialité qui l’amène vers sa première expérience professionnelle au CNRS dans une station marine à Roscoff en Bretagne.
Elle travaille au service informatique, en appui aux chercheurs et participe au développement d’un logiciel d’interfaçage « clic – bouton » avec les outils lignes de commande, pour proposer un outil aux chercheurs leur permettant de répéter les workflows rapidement sur un autre jeu de données et les rendre accessibles dans le cadre des publications scientifiques.
« Je devais comprendre les biologistes pour transmettre les besoins aux informaticiens, mes compétences en bio-informatique et en informatique m’ont bien aidées ! «
Après 3 ans et demi au CNRS, direction la région PACA et la Société du Canal de Provence au service informatique !
Pendant 5 ans, Gwendoline travaille sur de nombreux projets : évolution d’un plugin QGIS en Python pour générer des cahiers parcellaires, mise en place d’IDG, de requêtes PostGIS, d’applications de relevés sur le terrain et de plein d’autres plugins !
« En cherchant des informations sur un logiciel, je suis tombée sur un article d’Oslandia, je me suis plus renseignée et vu que des postes étaient ouverts ! «
Gwendoline est développeur QGIS web chez Oslandia depuis 2021. Elle a pour mission le développement de projets autour de QWC comme pour WKN, mais aussi dans le cœur QWC, dans le cadre de missions open source, ainsi que la formation QGIS / PostGIS et QWC.
Projet emblématiqueLa traduction de l’interface d’administration de QWC ! C’est quelquechose que je ne fais jamais ! C’était un travail de fourmi qui apporte une grande satisfaction quand c’est finalisé !
Technologie de prédilection
A retrouver sur : [https:]]
et la documentation pour l’activer : [https:]]Python !
Sa philosophieD’un bout à l’autre ! J’aime maîtriser toute la chaîne : du besoin client jusqu’à la documentation !
Oslandia en 1 motBienveillance entre collègues et aussi au niveau des clients, on fait toujours au plus juste, avec une volonté de les former, pour les rendre autonomes.
-
8:00
Découvrez GeoRivière pour le grand public
sur Makina CorpusL’outil de participation citoyenne pour sensibiliser aux enjeux de gestion des milieux aquatiques?!
-
8:00
Récolt'Ô, notre nouveau service pour la valorisation de l'eau de pluie - 1/2
sur Makina CorpusRécolt’Ô un outil dédié à la mise en place d’une politique d’aide pour encourager vos administrés à installer des dispositifs hydro-économes et sensibiliser le public aux enjeux environnementaux.
-
7:05
Bruxelles Environnement / Accompagnement technique pour la mise en œuvre des politiques régionales liées à l’environnement
sur OslandiaBruxelles Environnement est un organisme public de la région de Bruxelles-Capitale chargé de concevoir et de mettre en œuvre les politiques régionales dans toutes les matières liées à l’environnement.
À ce titre, Bruxelles Environnement publie un certain nombre de données en opendata, notamment en exposant des flux OGC sur sa plateforme.
Oslandia l’accompagne sur :- l’administration et le maintien en condition opérationnelle des bases de données PostGIS. Cela implique notamment les migrations de versions majeures de PostgreSQL et PostGIS
- la configuration, le déploiement, l’administration et le MCO des serveurs de cartographie : MapServer, QGIS Server, via Docker, GitLab CI/CD et Ansible.
Oslandia accompagne également Bruxelles Environnement en proposant des sessions de formations sur PostgreSQL / PostGIS depuis plus de 10 ans. Avoir les compétences en interne a toujours été un choix de l’organisme pour garder de l’expertise au sein de l’équipe SIG.
Les sessions de formations ont lieu annuellement et se divisent en 2 parties.
La première pour des débutants ayant peu ou jamais touché aux notions de bases de données spatiales. L’enjeu est important ici, comme pour toutes formations débutants, en plus de donner les bases de compréhension, il faut arriver à motiver les utilisateurs et leur démontrer l’intérêt de la chose.
La seconde, pour des utilisateurs déjà expérimentés, permet d’approfondir leurs connaissances et elle est souvent données à la carte: les participants choisissent le programme et viennent souvent avec des questions très précises.Avoir la compétence en interne permet le lien avec notre assistance en parallèle. La bonne communication est primordiale, et parler le même langage est forcément un atout. L’assistance permet aussi à Bruxelles Environnement d’être aidé pour la mise en place en production de points abordés en formation et d’approfondir des utilisations avancées.
-
10:17
Mon premier réseau de neurones
sur Neogeo TechnologiesPour mieux comprendre l’article sur les réseaux de neurones, cette semaine nous vous proposons de coder un petit réseau de neurones de façon à mieux comprendre ce que sont les poids, le feed forward et les autres notions introduites dans l’article précédent.
Nous allons réaliser un réseau de neurones à 1 neurone et essayer de lui faire prédire des données placées sur une droite. Cet exercice est trivial, on peut le résoudre sans utiliser d’IA mais restons un peu humble pour commencer.
Préparation du projetUtilisons Jupyter qui reste l’outil de prédilection pour tester et développer une IA.
# On crée un environnement virtuelle python, et on l'active python3 -m venv test_ia cd test_ia . bin/activate # On installe jupyter et on le lance pip install jupyter jupyter notebook
Cette dernière commande ouvrira Jupyter dans votre navigateur.
Vous pourrez aller dans “File” -> “New” -> “Notebook” pour créer un nouveau fichier et copier/tester notre programme.
De quoi avons-nous besoin ?
Numpy, c’est une bibliothèque Python optimisée pour la gestion de listes.
NB : il y a un point d’exclamation en début de ligne, ce qui signifie que la commande sera lancée dans le shell. Ici elle permettra d’installer les dépendances dans notre environnement virtuel.
!pip install numpy import numpy as np Requirement already satisfied: numpy in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (1.26.4)
Pandas, la bibliothèque Python star de la data-science, basée elle-même sur Numpy.
!pip install pandas import pandas as pd Requirement already satisfied: pandas in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (2.2.2) Requirement already satisfied: numpy>=1.23.2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (1.26.4) Requirement already satisfied: python-dateutil>=2.8.2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2.9.0.post0) Requirement already satisfied: pytz>=2020.1 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2024.1) Requirement already satisfied: tzdata>=2022.7 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2024.1) Requirement already satisfied: six>=1.5 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from python-dateutil>=2.8.2->pandas) (1.16.0)
Pytorch, une des principales bibliothèques Python pour faire des réseaux de neurones. Ici on n’installe que la version CPU, la version de base fonctionne avec CUDA, la bibliothèque de calcul scientifique de Nvidia, mais celle-ci prend beaucoup de place sur le disque dur, restons frugaux.
!pip3 install torch --index-url [https:] import torch import torch.nn.functional as F Looking in indexes: [https:] Collecting torch Downloading [https:] (190.4 MB) [2K [38;2;114;156;31m??????????????????????????????????????[0m [32m190.4/190.4 MB[0m [31m26.4 MB/s[0m eta [36m0:00:00[0mm eta [36m0:00:01[0m[36m0:00:01[0m [?25hCollecting filelock Downloading [https:] (11 kB) Requirement already satisfied: typing-extensions>=4.8.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from torch) (4.12.2) Collecting sympy Downloading [https:] (5.7 MB) [2K [38;2;114;156;31m????????????????????????????????????????[0m [32m5.7/5.7 MB[0m [31m57.2 MB/s[0m eta [36m0:00:00[0m MB/s[0m eta [36m0:00:01[0m [?25hCollecting networkx Downloading [https:] (1.6 MB) [2K [38;2;114;156;31m????????????????????????????????????????[0m [32m1.6/1.6 MB[0m [31m58.6 MB/s[0m eta [36m0:00:00[0m [?25hRequirement already satisfied: jinja2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from torch) (3.1.4) Collecting fsspec Downloading [https:] (170 kB) [2K [38;2;114;156;31m??????????????????????????????????????[0m [32m170.9/170.9 kB[0m [31m18.5 MB/s[0m eta [36m0:00:00[0m [?25hRequirement already satisfied: MarkupSafe>=2.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from jinja2->torch) (2.1.5) Collecting mpmath>=0.19 Downloading [https:] (536 kB) [2K [38;2;114;156;31m??????????????????????????????????????[0m [32m536.2/536.2 kB[0m [31m42.9 MB/s[0m eta [36m0:00:00[0m [?25hInstalling collected packages: mpmath, sympy, networkx, fsspec, filelock, torch Successfully installed filelock-3.13.1 fsspec-2024.2.0 mpmath-1.3.0 networkx-3.2.1 sympy-1.12 torch-2.3.1+cpu
Matplotlib, pour faire de jolis graphiques.
Création d’un jeu de données simple!pip install matplotlib from matplotlib import pyplot as plt %matplotlib inline Collecting matplotlib Downloading matplotlib-3.9.0-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (8.3 MB) [2K [38;2;114;156;31m????????????????????????????????????????[0m [32m8.3/8.3 MB[0m [31m44.0 MB/s[0m eta [36m0:00:00[0mm eta [36m0:00:01[0m0:01[0m:01[0m [?25hCollecting contourpy>=1.0.1 Using cached contourpy-1.2.1-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (306 kB) Collecting cycler>=0.10 Using cached cycler-0.12.1-py3-none-any.whl (8.3 kB) Collecting fonttools>=4.22.0 Downloading fonttools-4.53.0-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (4.9 MB) [2K [38;2;114;156;31m????????????????????????????????????????[0m [32m4.9/4.9 MB[0m [31m57.3 MB/s[0m eta [36m0:00:00[0m31m72.7 MB/s[0m eta [36m0:00:01[0m [?25hCollecting kiwisolver>=1.3.1 Using cached kiwisolver-1.4.5-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (1.4 MB) Requirement already satisfied: numpy>=1.23 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (1.26.4) Requirement already satisfied: packaging>=20.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (24.1) Collecting pillow>=8 Using cached pillow-10.3.0-cp311-cp311-manylinux_2_28_x86_64.whl (4.5 MB) Collecting pyparsing>=2.3.1 Using cached pyparsing-3.1.2-py3-none-any.whl (103 kB) Requirement already satisfied: python-dateutil>=2.7 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (2.9.0.post0) Requirement already satisfied: six>=1.5 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from python-dateutil>=2.7->matplotlib) (1.16.0) Installing collected packages: pyparsing, pillow, kiwisolver, fonttools, cycler, contourpy, matplotlib Successfully installed contourpy-1.2.1 cycler-0.12.1 fonttools-4.53.0 kiwisolver-1.4.5 matplotlib-3.9.0 pillow-10.3.0 pyparsing-3.1.2 from random import randint, seed
Pour le principe de la démonstration, on va créer un jeu de données parfaitement linéaire f(x) = 2*x
On pourra contrôler facilement que les prévisions du réseau sont bien sur cette droite.
data = pd.DataFrame(columns=["x", "y"], data=[(x, x*2) for x in range(10)], ) data["x"] = data["x"].astype(float) data["y"] = data["y"].astype(float) data.plot.scatter(x="x", y="y") <Axes: xlabel='x', ylabel='y'>
Démarragedata
Préparons quelques variables pour le projet. Nous initions aussi le modèle M, si vous voulez tester des évolutions dans le code, relancez cette cellule pour réinitialiser le modèle.
Algorithme général# On fait en sorte que pytorch tire toujours la même suite de nombres aléatoires # Comme ça vous devriez avoir les mêmes résultats que moi. torch.manual_seed(1337) seed(1337) # Je crée mon réseau d’un neurone avec une valeur aléatoire M = torch.randn((1,1)) # On active le calcul du gradient dans le réseau M.requires_grad = True print(M) # On garde une liste de pertes pour plus tard losses = list() tensor([[-2.0260]], requires_grad=True)
Pour que notre réseau apprenne des données, il nous faut une phase de feed forward et une back propagation.
En quoi ça consiste ?
Prenons un exemple dans notre jeu de données, la ligne x=9 et y=18.
# on prend un échantillon ix = randint(0, len(data)-1) # Indice de X x = data.iloc[ix]["x"] y = data.iloc[ix]["y"] print(f"{x=},{y=}") x=9.0,y=18.0
La phase de feed forward consiste à demander au modèle ce qu’il prévoit comme donnée pour x=9. On utilise l’opérateur “@” qui multiplie des tenseurs.
X = torch.tensor([x]) y_prevision = M @ X --------------------------------------------------------------------------- RuntimeError Traceback (most recent call last) Cell In[10], line 2 1 X = torch.tensor([x]) ----> 2 y_prevision = M @ X RuntimeError: expected scalar type Float but found Double
Ah oui, Numpy convertit notre Float (32bits) en Double (64 bits) en interne. Transformons notre tenseur en Float dans ce cas.
X = torch.tensor([x]).float() y_prevision = M @ X print(f"{y_prevision=}") y_prevision=tensor([-18.2339], grad_fn=<MvBackward0>)
Notre modèle prédit donc “-18.2339”, alors que notre y vaut 18.
C’est normal puisque l’on a initialisé notre modèle avec des valeurs complètement aléatoires.
Il nous faut donc corriger notre modèle, mais d’abord nous allons utiliser une fonction de perte, ici l1_loss pour voir à quel point on se trompe.
Y = torch.Tensor([y]) loss = F.l1_loss(y_prevision, Y) print("loss", loss.item()) loss 36.23392868041992
On se trompe de 36 (c’est à dire 18 – 18,23), c’est beaucoup.
Pour corriger le modèle nous allons faire la phase de back propagation (ou rétro-propagation ou backward pass).
Nous allons demander à Pytorch de calculer l’impact des poids du modèle dans cette décision. C’est le calcul du gradient. Cette opération, sans être très compliqué car il s’agit de dériver toutes les opérations effectuées, mérite un article à part entière et ne sera pas traitée dans celui-ci.
# backward pass M.grad = None loss.backward()
Attention, il faut toujours réinitialiser le gradient avant de lancer le back propagation.
Maintenant que nous avons un gradient, nous allons mettre à jour notre modèle en y appliquant une fraction de ce tenseur.
Pourquoi qu’une fraction ? Ici nous avons une fonction linéaire très simple à modéliser. En appliquant le gradient, on corrigerait tout de suite le modèle. Le problème est que, dans la vraie vie, la situation n’est jamais aussi simple. En réalité, les données sont hétérogènes et donc, appliquer le gradient à une donnée améliore le résultat pour celle-ci mais donnerait un très mauvais gradient pour les autres données.
Nous allons donc appliquer une fraction du gradient et essayer de trouver le meilleur compromis. On pourra déterminer celui-ci grâce à la fonction de perte.
Nous allons donc appliquer une modification de 0,1 fois le gradient sur notre modèle, ce 0.1 s’appelle le learning rate.
# update lr = 0.1 M.data += -lr * M.grad print(f"{M.grad=}, {M.data=}") M.grad=tensor([[-9.]]), M.data=tensor([[-1.1260]])
Nous verrons lors d’un autre article comment choisir le learning rate.
Voyons ce que ça donne :
# forward pass y_prevision = M @ X print(f"{y_prevision=}") y_prevision=tensor([-10.1339], grad_fn=<MvBackward0>)
Pas si mal, on passe de -18 à -10. Ça reste très mauvais mais on n’a exécuté qu’une seule fois notre cycle feed forward / back propagation.
Faisons en sorte d’appeler plusieurs fois notre algorithme.
for i in range(1000): # on prend un échantillon ix = randint(0, len(data)-1) x = data.iloc[ix]["x"] y = data.iloc[ix]["y"] # forward pass y_prevision = M @ torch.tensor([x]).float() loss = F.l1_loss(y_prevision, torch.Tensor([y])) # backward pass M.grad = None loss.backward() # update lr = 0.01 M.data += -lr * M.grad # stats losses.append(loss.item())
Voyons ce que donne notre prévision dans un graphique. En rouge les points de données, en bleu la courbe de prévision.
ax = data.plot.scatter(x="x", y="y", color="red") prevision = pd.DataFrame(np.arange(10), columns=["x"]) m = M.detach() prevision["y_prevision"] = prevision["x"].apply(lambda x: (m @ torch.tensor([float(x)]))[0].numpy()) #torch.tensor([4.]) prevision.plot(y="y_prevision", ax=ax, x="x") <Axes: xlabel='x', ylabel='y'>
Et si nous sortons du cadre des données avec un X de 2000 ?
m @ torch.tensor([float(2000)]) tensor([4028.0156])
Pas mal, on devrait avoir 4000 mais c’est déjà mieux.
Et par rapport à nos données de base ?
prevision
Bon, que ce passe-t-il ? Regardons un peu l’évolution de notre perte en fonction des itérations ?
pd.DataFrame(losses, columns=["loss"]).plot() <Axes: >
On voit que les pertes sont importantes pendant 100 itérations et ensuite elles se stabilisent un peu entre 0 et 0.8.
Est-ce qu’on peut améliorer ça ? Oui très facilement, nous verrons cela ensemble lors d’un prochain article.
ConclusionNous avons appris comment créer un modèle et faire un apprentissage avec les phases de feed forward et back propagation. Ensuite nous avons vu que le learning rate et gradient permettent de corriger le modèle petit à petit. En faisant quelques centaines d’itérations nous avons un bon modèle de régression.
J’espère que cette petite introduction vous a donné envie d’aller plus loin.
Rédacteur : Sébastien Da Rocha
-
0:08
24×36.art : Plan de lutte contre les discriminations
sur Carnet (neo)cartographiqueCette affiche a été créée et postée sur le site 24×36.art en réponse à l’appel de soutien du Nouveau Front Populaire 2024, pour illustrer une section du programme.
Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
16:44
24×36.art : Liberté, circulation, migrations internationales
sur Carnet (neo)cartographiqueCette affiche a été créée et postée sur le site 24×36.art en réponse à l’appel de Geoffrey Dorne et mathias_rabiot pour soutenir le Nouveau Front Populaire 2024.
Données utilisées pour la cartographie des routes internationales mondiales.
– fond de carte : naturalearthdata.com
– projection : projection stéréographique de Gall (adaptée par mes soins).
– routes : openflights.org/dataGéographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
19:59
Soutien cartographique au Nouveau Front populaire
sur Carnet (neo)cartographiqueJe ne redirai pas ici pourquoi il est important de se mobiliser contre la montée de l’extrême droite et le risque très réel de sa prise de pouvoir dans quelques semaines. Ni comment, une fois qu’elle est au pouvoir, elle ne le lâche plus.
La carte en densité de points ci-dessus représente un point pour chaque vote (version haute résolution) aux élections européennes de 2024. Si elle est moins anxiogène que la plupart de celles qu’on a pu voir au soir des élections, elle montre quand même la prédominance du bleu choisi pour représenter l’extrême droite. Mais tout n’est pas perdu : la carte présente également des points rouges pour les votes de la gauche, elle symbolise l’espoir d’une victoire du Nouveau Front populaire. Elle suggère aussi clairement qu’il est temps que les gauches réinvestissent les espaces ruraux, très monochromes ici.
Il reste peu de temps pour agir. En tant que cartographe, je pense que c’est à travers les cartes que je peux apporter le plus à cette campagne. J’ai donc décidé d’offrir mes services gratuitement à tous les syndicats, associations, partis, médias de gauche, ou autres, qui soutiennent ou appellent à voter pour le Nouveau Front populaire et qui pourraient avoir besoin de cartographies dans ce contexte.
-
11:23
AllThePlaces : géodonnées et vision du monde commercial à travers Internet
sur Cartographies numériquesLe projet All The Places extrait les données concernant les « emplacements de magasins » à partir de sites web du monde entier. Les données sont extraites ("scrapées") à partir d'Internet et regroupées par des robots d'indexation (spiders) selon plus de 2500 catégories. La carte reflète une vision du monde commercial tel qu'il se donne à voir sur Internet, laissant de fait les sites de petits commerces de détail dans l'invisibilité, particulièrement dans les pays du Sud (#BlancsDesCartes).
Vision du monde commercial à travers Internet (source : All The Places)
Les données d'emplacement de magasins ont été extraites avec Scrapy, un outil de web scraping assez connu basé sur le langage Python. En sortie, près de 5 millions de lignes ont été extraites en juin 2024 réparties ensuite en 2555 catégories de manière à fournir un ensemble de données POI au format GeoJSON. Disponibles sous licence Creative Communs CC-0 et régulièrement mises à jour, ces données sont téléchargeables en open data sur le site Alltheplaces.xyz.
Une interface web permet de visualiser directement les données sans avoir besoin de les télécharger. En zoomant, on accède au détail des POI. On voit apparaître surtout des enseignes commerciales, des réseaux de banques et assurances, des chaînes de restauration, des concessions autos, etc... Il s'agit des enseignes les plus visibles sur Internet. D'une certaine manière, la carte reflète les enseignes commerciales capables de faire le plus de branding sur Internet.
Zoom sur les sites commerciaux géolocalisés à travers l'interface web d'AllThePlaces
Pour les banques on constate que ce sont surtout l'emplacement des distributeurs de billets ("visa") qui ressortent. Ils représentent plus de la moitié de la base de données. Pour les mobilités, on voit apparaître principalement les bornes de véhicules deux roues en libre-service dans les espaces urbains ("gbfs" ou "General Bikeshare Feed Specification").
Le téléchargement des fichiers geojson (plus de 300 Mo de données géolocalisées) permet de conduire des analyses géographiques, comme par exemple l'implantation de grandes chaînes de distribution alimentaire. A noter que l'indexation par robots laisse des "trous dans la raquette" si l'on peut dire : les magasins Casino, Carrefour, Aldi, Lidl sont bien indexés pour la France, alors qu'Auchan par exemple n'y figure pas ou seulement pour d'autres pays. Les données n'étant pas homogènes selon les catégories et selon les pays, on aura intérêt à utiliser ce type de données en complément d'autres jeux de données issues de Wikidata ou d'OpenStreetMap.
Comparaison de l'implantation de quelques grandes chaînes de distribution en France
Articles connexes
Utiliser Wikidata pour chercher des informations géographiques
Une base de données historiques sur les personnages célèbres dans le monde (de 3500 avant JC à 2018)
Geonames, une base mondiale pour chercher des noms de lieux géographiques
OpenDataSoft : une plateforme avec plus de 1800 jeux de données en accès libre
Data France, une plateforme de visualisation de données en open data
Numbeo, une banque de données et de cartes sur les conditions de vie dans le monde
Mapping Diversity, une plate-forme pour représenter la diversité des noms de rues en Europe
Le forum d'OpenstreetMap, un lieu d'échange autour des enjeux de la cartographie collaborative et de l'open data
Wikipédia fête ses 20 ans. Mais connaissez-vous ses ressources cartographiques ?
-
15:05
Sortie de QField 3.3 « Darién »
sur OslandiaOslandia est le partenaire principal d’OPENGIS.ch pour QField. Nous sommes fiers aujourd’hui de relayer l’annonce de la nouvelle version 3.3 « Darién » de QField. Cette version introduit un tout nouveau framework de plugins qui permet aux utilisateurs de personnaliser et d’ajouter des fonctionnalités complètement nouvelles à leur application de terrain préférée.
Le framework de plugins est accompagné d’autres nouvelles fonctionnalités et améliorations pour cette version, détaillées ci-dessous.
Les points marquantsL’une des plus grandes nouveautés de cette version est un tout nouvel outil de dessin qui permet aux utilisateurs d’annoter des détails importants sur des photos capturées ou de prendre des notes sur des modèles de dessin. Cette fonctionnalité, très demandée, est désormais disponible sur toutes les plateformes prises en charge (Android, iOS, Windows, macOS et, bien sûr, Linux) grâce au soutien financier du groupe d’utilisateurs QGIS suisse.
Cette version inclut également la prise en charge du copier-coller de features vectorielles dans et depuis le presse-papiers. Cela est utile de plusieurs manières, offrant un moyen rapide et facile de transférer des attributs d’une fonctionnalité à une autre via des noms de champs correspondants ou de coller les détails d’une fonctionnalité capturée sur le terrain dans une application de messagerie tierce, de traitement de texte ou de courrier électronique. Le copier-coller de features peuvent se faire via le menu du formulaire des features, ainsi que par un appui long sur la carte. De plus, un nouveau raccourci de transfert d’attributs de feature à feature a également été ajouté au menu du formulaire de feature. Remerciements au canton Suisse de Lucerne, Environnement et Énergie pour le financement de cette fonctionnalité.
Also landing in this version is support for copying and pasting vector features into and from the clipboard. This comes in handy in multiple ways, from providing a quick and easy way to transfer attributes from one feature to another through matching field names to pasting the details of a captured feature in the field into a third-party messenger, word editing, or email application. Copying and pasting features can be done through the feature form’s menu as well as long pressed over the map canvas. Moreover, a new feature-to-feature attributes transfer shortcut has also been added to the feature form’s menu. Appreciation to Switzerland, Canton of Lucerne, Environment and Energy for providing the funds for this feature.
Le formulaire de feature continue de gagner en fonctionnalités ; dans cette version, le widget de l’éditeur de carte de valeurs du formulaire de features a gagné une nouvelle interface de bouton qui peut accélère la saisie des données. L’interface remplace la boîte combo traditionnelle par une série de boutons-bascule, réduisant le nombre de clics nécessaires pour choisir une valeur. L’Institut archéologique allemand – KulturGutRetter a parrainé cette fonctionnalité.
D’autres améliorations du formulaire de fonctionnalité incluent la prise en charge du regroupement des éléments de relation de valeurs et le respect du paramètre « réutiliser la dernière valeur entrée » des attributs de la couche vectorielle.
Enfin, des fonctionnalités supplémentaires incluent la prise en charge de la superposition de décorations d’images, une nouvelle interface pour basculer entre les caméras (avant, arrière et dispositifs externes) pour la caméra « non native », la possibilité de désactiver le geste de rotation de la carte à trois doigts, et bien plus encore.
Améliorations d’interface utilisateur
Les utilisateurs de longue date de QField remarqueront le nouveau style des panneaux d’information tels que le positionnement GNSS, la navigation, le profil d’élévation et les données des capteurs. Les informations sont désormais présentées sous forme de superposition sur la carte, ce qui augmente la visibilité de la carte tout en améliorant la mise en avant et la clarté des détails fournis. Avec cette nouvelle version, tous les détails, y compris l’altitude et la distance jusqu’à la destination, respectent le type d’unité de distance configuré par l’utilisateur dans le projet.
La légende du tableau de bord a également reçu de l’attention. Vous pouvez désormais basculer la visibilité de n’importe quelle couche via un simple clic sur une nouvelle icône en forme d’œil située dans l’arbre de la légende. De même, les groupes de légendes peuvent être développés et réduits directement dans l’arbre. Cela vous permet également de montrer ou de masquer des couches tout en numérisant une fonctionnalité, ce qui n’était pas possible jusqu’à présent. Le développement de ces améliorations a été soutenu par Gispo et parrainé par le Service national du cadastre de Finlande.
The dashboard’s legend has also received some attention. You can now toggle the visibility of any layer via a quick tap on a new eye icon sitting in the legend tree itself. Similarly, legend groups can be expanded and collapsed directly for the tree. This also permits you to show or hide layers while digitizing a feature, something which was not possible until now. The development of these improvements was supported by Gispo and sponsored by the National Land Survey of Finland.
Framework de plugins
QField 3.3 introduit un tout nouveau framework de plugins utilisant le puissant moteur QML et JavaScript de Qt. Avec quelques lignes de code, des plugins peuvent être écrits pour ajuster le comportement de QField et ajouter de nouvelles fonctionnalités. Deux types de plugins sont possibles : des plugins au niveau de l’application ainsi que des plugins spécifiques au projet. Pour assurer une facilité maximale de déploiement, la distribution des plugins a été rendue possible via QFieldCloud ! Amsa a fourni la contribution financière qui a permis de réaliser ce projet.
Notre partenaire OPENGIS.ch proposera bientôt un webinaire pour découvrir comment les plugins QField peuvent améliorer vos workflows de terrain (et votre activité au sens large) en vous permettant d’être encore plus efficace sur le terrain.
Les utilisateurs intéressés par la création de plugins ou une meilleure compréhension du framework peuvent déjà visiter la page de documentation dédiée et un exemple d’implémentation de plugin intégrant une prévision météorologique.
Vous avez des questions sur QField ? Intéressés par sa mise en œuvre, n’hésitez pas à contacter Oslandia !
-
9:02
Appel à commentaires pour le standard StaR-Eau jusqu'au 4 octobre 2024
sur Conseil national de l'information géolocaliséeAppel à commentaires pour le standard StaR-Eau jusqu'au 4 octobre 2024
-
6:48
[1’Tech by Oslandia] télétravail
sur OslandiaOn sort un peu de la minute Tech pour évoquer un « mot » qui nous implique particulièrement chez Oslandia. Alors essayons de donner notre meilleure définition du télétravail !
Le télétravail est une méthode de travail s’affranchissant de la proximité géographique des collaborateurs.
Quels avantages au télétravail ?- la fin des temps de trajet domicile-travail : un meilleur confort personnel, un bilan carbone fortement réduit
- une flexibilité accrue dans la gestion de son temps et l’organisation au quotidien
- des recrutements plus libres et plus faciles
- une communication et des process organisationnels nécessairement structurés
- l’efficience du travail asynchrone
Le télétravail n’est pas un problème en soi, mais c’est souvent un catalyseur de problèmes : chaque difficulté rencontrée peut prendre beaucoup plus d’importance et de criticité en distanciel. Cela oblige à traiter les problèmes à la racine, et ne pas les mettre « sous le tapis » en se disant qu’on les résoudra à la machine à café ! Cela crée un environnement d’entreprise plus sain et plus égalitaire.
Oslandia baigne dans la culture OpenSource, où le développement logiciel s’effectue par nature de façon distribuée, mondiale, et à distance. Nous avons donc ainsi un fonctionnement interne cohérent avec l’objet de notre activité, et nous nous inspirons des fonctionnements des communautés opensource pour le fonctionnement de l’entreprise.
Les ingrédients clé d’un télétravail durable, efficient et agréable :- un travail qui a du sens, facteur de motivation
- des postes de travail au domicile adaptés et confortables
- l’accompagnement RH et psychosocial des collaborateurs
- des process de fonctionnement et de communication clairs et partagés
- la culture de l’écrit, et les outils adaptés
- des rendez-vous réguliers pour se rencontrer de visu
Oslandia fonctionne en 100% télétravail, et cela depuis sa création il y a 15 ans ! L’équipe est répartie dans la France entière, nos clients aussi, et même à l’international. Nous livrons de beaux projets par nos compétences techniques, mais aussi grâce à notre structure organisationnelle.