Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
2772 éléments (101 non lus) dans 55 canaux
- Décryptagéo, l'information géographique
- Cybergeo (20 non lus)
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (4 non lus)
- Mappemonde (20 non lus)
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN (8 non lus)
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier (1 non lus)
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée (3 non lus)
- Geotribu
- Les cafés géographiques (3 non lus)
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO) (2 non lus)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde (2 non lus)
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (4 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques (13 non lus)
- Veille cartographie
- Makina Corpus (4 non lus)
- Oslandia (7 non lus)
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Éléments récents
-
16:10
Les J.O de Paris 2024, facteurs d’accélération de la gentrification.
sur Veille cartographieCet article Les J.O de Paris 2024, facteurs d’accélération de la gentrification. est apparu en premier sur Veille cartographique 2.0.
C’est en 2024 à Paris que se tiendra l’un des événements sportifs le plus attendu au monde, les Jeux Olympiques. Après avoir déposé sa candidature en 2015, c’est en 2017 que la ville de Paris a été retenu pour accueillir ces Jeux Olympiques 2024. Malheureusement, l’arrivée d’un tel événement dans la capitale apporte aussi son lot de facteurs externes négatifs comme l’accélération […]
Cet article Les J.O de Paris 2024, facteurs d’accélération de la gentrification. est apparu en premier sur Veille cartographique 2.0.
-
11:26
Arrêté du 2 octobre 2023 portant nomination au Conseil national de l'information géolocalisée
sur Conseil national de l'information géolocaliséeArrêté du 2 octobre 2023 portant nomination au Conseil national de l'information géolocalisée
-
7:07
Loren Munk et ses œuvres d'art en forme de datavisualisations
sur Cartographies numériques
Le peintre Loren Munk réalise des œuvres d'art en forme de datavisualisations. L'artiste a une véritable obsession pour le monde de l’art new-yorkais. Ses oeuvres représentent plus largement les lieux, les histoires, les mouvements et les ontologies du monde de l'art. Sa carte de Soho avec ses innombrables galeries d'art a fait l'objet d'une publication récente dans le New York Times. Sa carte des Avant-gardes européennes de l’Après-guerre se présente comme un véritable labyrinthe, à l'image des nombreux groupes artistiques qui se sont réclamés du mouvement avant-gardiste avant que la publicité ne le vide quasiment de son sens.Extraits des oeuvres d'art de Loren Munk déposées dans la collection David Rumsey (crédit : David Rumsey Map Collection)
« Les cartes criardes que M. Munk peint depuis plusieurs années sont expriment en susbtance sa fixation. Suggérant une admiration pour les dessins animés d'Ad Reinhardt et les formes lumineuses et tactiles de Stuart Davis, celles-ci retracent le flux et le reflux des musées, des expositions, des galeries et surtout de leurs artistes et de leurs studios avec une vivacité implacable et un peu d'esprit » (Loren Munk : Location, Location, Location, Mapping the New York Art World, New York Times, 2011)
La collection David Rumsey contient 15 cartes de Loren Munk :
- The Secret History of American Art, 2005
- Clement Greenberg, 2006
- The East Village, an Attempted Documentation, 2013
- A Simple Hermeneutic Circle of Aesthetics, 2014
- Some California Artists, 2014
- 18 Situations Over 6 Decades, (Hofmann, to SoHo, to Chelsea), 2016
- SoHo: Hell’s Hundred Acres 1960 – 2000, 2016
- The Ontology of Painting, 2017
- Colliding Timelines of the Pictures Generation, 2018
- Post WWII European Avant-Gardes, 2019
- Aesthetics of Transcendence Versus Aesthetics of Distinction, 2019
- The Evolution of the Hermeneutic Circle, 2020
- Paradigm Shifts Within Ideological Epochs, 2021
- The Bowery and the Lower East Side, 2022
- The History of Western Aesthetics, 2023
Des cartes du monde dans le style d'artistes célèbres créées par intelligence artificielle
Articles connexes
Ground Plan. Le monde vu comme un plan de bâtiments par l'artiste Louisa Bufardeci
Les projections cartographiques originales de l'artiste Tauba Auerbach
Les cartes saisissantes de l'artiste Mark Powell
Utiliser des générateurs automatiques de territoires imaginaires
Quand les artistes dessinaient les cartes (exposition aux Archives nationales)
L'exposition Mapping out : quand les artistes s'emparent de l'imaginaire des cartes
Tous les chemins mènent à Rome : une très belle collection de cartes artistiques qui donnent à réfléchir sur nos mobilités
Epoch, une vidéo artistique hypnotique à partir d'images Google Earth
Cartes et atlas imaginaires
Cartes et atlas artistiques
- The Secret History of American Art, 2005
-
0:45
From GIS to Remote Sensing: Semi-Automatic Classification Plugin version 8 officially released
sur Planet OSGeoI am glad to announce the release of the new version 8 (codename "Infinity") of the Semi-Automatic Classification Plugin (SCP) for QGIS.
This new version is based on a completely new Python processing framework that is Remotior Sensus, which expands the processing capabilities of SCP, also allowing for the creation of Python scripts.
The following video provides an introduction to the SCP tools.
Read more »
-
18:13
SatelliteXplorer : exemple de cartographie orbitale (4/4)
sur Veille cartographieCet article SatelliteXplorer : exemple de cartographie orbitale (4/4) est apparu en premier sur Veille cartographique 2.0.
By NICOLX (Nicolas Le Maux) Préambules Nous avons introduit les enjeux et les motivations de cartographies de l’ensemble des corps orbitaux (partie ¼). Ensuite, nous nous sommes penchés sur quelques-uns des outils de cartographie numérique et de visualisations 3D répondant à ces besoins. De fait, nous avons présenté et Wayfinder de Privateer et AstriaGRAPH (parties […]
Cet article SatelliteXplorer : exemple de cartographie orbitale (4/4) est apparu en premier sur Veille cartographique 2.0.
-
15:04
Les principaux lieux de rencontres princières en France de 1494 à 1789
sur Cartographies numériquesDe Charles Quint à Kim Jong-un en passant par Louis XIV — pourquoi ceux qui gouvernent ont-ils besoin de se voir ? Sur la période qui s'étend de 1494 à 1788, Jean-Marie Le Gall a recensé plus de 3 340 rencontres au sommet. Dans un ouvrage co-écrit avec Claude Michaud, il déploie une vaste enquête quantitative et qualitative sur la structuration d'une République princière européenne. Battant en brèche les soubresauts juridico-diplomatiques d'un ordre plat entre souverains issu du mythe westphalien, il invite à entrer dans une réalité complexe au prisme de la confiance.
« Qu’est-ce qu’un sommet ? 3 344 rencontres princières analysées, une conversation avec Jean-Marie Le Gall » (Le Grand Continent, 5 octobre 2023).
Les cartes réalisées avec Datawraper sont à consulter sur Le Grand Continent (avec les données à télécharger) :
- Les principaux lieux de rencontre de Charles Quint
- Évolution des lieux de rencontre
- Nations et genre des princes visiteurs dans les plus importants foyers de rencontre princières aux XVII et XVIIIe
- Les principaux lieux de rencontres princières, 1494-1789
- Les principaux lieux de rencontre de Louis XIV
Les principaux lieux de rencontres princières, 1494-1789 (source : Le Grand Continent)
Au XVIe siècle, la situation était toute autre : un prince perdait son statut une fois hors de ses frontières, il était considéré comme un simple citoyen à l’étranger. Il avait moins de droits que son ambassadeur. Cela a changé au cours de l’époque moderne. Deux éléments ont permis le passage d’une société de la défiance à une société de la confiance entre les princes : l’hospitalité et le cérémonial. En étudiant l’évolution de la géographie des rencontres, on observe une concentration croissante dans certains lieux après une période de forte dispersion. Dès le XVIIe siècle, nombreux sont les princes européens qui entreprennent le « Grand Tour », un voyage éducatif. En dépit de l’existence d’une société cosmopolitique des princes, aucune gouvernance européenne ne se dégage — contrairement à une idée reçue véhiculée par l’imaginaire westphalien. C’est même une époque de montée des nationalismes…L'ouvrage complet à découvrir :
Jean-Marie Le Gall et Claude Michaud, Comment la confiance vient aux princes. Les rencontres princières en Europe (1494-1788), Paris, Presses Universitaires de France, 2023, 400 pages (site de l'éditeur)
Articles connexes
La guerre à l’époque moderne par les cartes
Forme du savoir, forme du pouvoir. Les atlas géographiques à l'époque moderne et contemporaine (Jean-Marc Besse)
Des cadres qui parlent : les cartouches sur les premières cartes modernes
L'histoire par les cartes : l'histoire connectée des empires à l'époque moderne
Le peintre hollandais Vermeer et les cartes
L'histoire par les cartes
Cartes et atlas historiques
-
13:41
Google Maps versus OpenStreetMap : redistribution des cartes sur le Web ?
sur Veille cartographieCet article Google Maps versus OpenStreetMap : redistribution des cartes sur le Web ? est apparu en premier sur Veille cartographique 2.0.
Les services de cartographie web ou encore en ligne sont depuis très longtemps dominés par le géant Google (Google Maps). Cependant, la montée en puissance des services sous licence Creative Commons comme OSM (OpenStreetMap), pourrait bouleverser cette tendance et menacer l’empereur du Net : Google. OpenStreetMap est un projet de cartographie mondiale fondée en 2004 dont […]
Cet article Google Maps versus OpenStreetMap : redistribution des cartes sur le Web ? est apparu en premier sur Veille cartographique 2.0.
-
10:04
The Ring of Rain
sur Google Maps ManiaX-Rain is an interactive map which visualizes the average amount of rainfall around the globe. The precipitation data used on the map is derived from historical satellite observations. This remote sensed data is not as accurate as data recorded by rain gauges but it is able to provide a more global view of precipitation levels as it is not limited to only those locations with rain gauges.The
-
1:35
Sean Gillies: Bear 100 recap
sur Planet OSGeoA week ago I started the Bear 100 Endurance Run. I did not finish. This was my first DNF. I'm still trying to figure out what went wrong and evaluate how I responded.
To recap: I rolled into the sixth aid station, Tony Grove, mile 51, at 9:59 p.m. I made a head to toe gear change. Underwear, pants, hat, socks, and shoes. Diaper ointment lube on my feet and privates. Ate potatoes and chicken noodle soup and refilled my bottles. I spent too much time there, but this was going to be my main stop before dawn, and I wanted to get properly set up for 8 hours of plugging through the night. I left at 10:43 p.m.
Somewhere around mile 59, descending into Franklin Basin, my left ankle stopped working, and I limped into the Franklin Basin aid station (mile 62). After 15 minutes of triage, I decided to quit. I had no flexibility or stability in my left foot, and continuing seemed pointless.
What happened? I couldn't remember a single major incident. I'd had a number of little wobbles earlier in the day and the descent from Tony Grove was pretty rough. I certainly picked up a little damage along the way. And I'd sprained this ankle four weeks ago. Maybe it wasn't strong enough to go 100 miles. It's possible that I fell asleep on my feet at 1:30 a.m. and rolled it. I was certainly sleepy enough at some points. Either the accumulation of stress was too much for my ankle, or an acute injury happened while I was checked out. Or both. I don't know for sure.
I'm disappointed. Otherwise, things were going well. My gear choices were solid. I was eating and drinking well enough. Other than one toenail lost to kicking a rock, my feet were fine, no hotspots or blisters. My ankle was swollen for several days, but I didn't go far enough to wreck my quads or hips. Sigh.
I will try this again.
More about the race, photos, stories, etc, soon.
-
16:08
Modélisation 3D de la rade de Brest
sur Veille cartographieCet article Modélisation 3D de la rade de Brest est apparu en premier sur Veille cartographique 2.0.
The « ImmerSea Rade, » project supported by the Dassault Systèmes Foundation, has been led by 25 students from the ISblue university school since January 2023. It aims to create an interactive 3D virtual tour of the harbor from Brest to Ouessant, tracing its evolution over 12,000 years in 3 minutes. This experience enables the public to […]
Cet article Modélisation 3D de la rade de Brest est apparu en premier sur Veille cartographique 2.0.
-
14:28
[Stage 4 à 6 mois - Développement logiciel] - Contribuer à la création et à l'évolution de solutions numériques autour de l'environnement et la valorisation des territoires
sur Makina CorpusContrat : Stage
Lieu : Toulouse -
13:49
[Stage 4 à 6 mois - Développement logiciel] - Concevoir et développer une application, contribuer à des bibliothèques open source
sur Makina CorpusContrat : Stage
Lieu : Toulouse
-
13:46
Le GeoModeller du BRGM : explorez les profondeurs du sous-sol
sur Veille cartographieCet article Le GeoModeller du BRGM : explorez les profondeurs du sous-sol est apparu en premier sur Veille cartographique 2.0.
GeoModeller est un logiciel de modélisation géologique 3D du sous-sol. Il a été conçu à la base sous la forme d’un éditeur de coupes. Cependant, ce logiciel deviendra vite un éditeur géologique 3D permettant ainsi de définir l’architecture géologique d’un secteur. Les géologues et les professionnels de l’industrie minière, pétrolière, gazière et environnementale utilisent fréquemment […]
Cet article Le GeoModeller du BRGM : explorez les profondeurs du sous-sol est apparu en premier sur Veille cartographique 2.0.
-
13:45
Sous la ville, géomatique et aménagements urbains souterrains : des défis cruciaux
sur Veille cartographieCet article Sous la ville, géomatique et aménagements urbains souterrains : des défis cruciaux est apparu en premier sur Veille cartographique 2.0.
La croissance rapide des villes à travers le monde a conduit à une pression croissante sur les espaces au niveau du sol. Dans cette optique, de nombreuses métropoles optent de plus en plus pour des aménagements souterrains pour leurs besoins en transports, parkings, et même habitations. Cependant, la planification et la réalisation de ces projets […]
Cet article Sous la ville, géomatique et aménagements urbains souterrains : des défis cruciaux est apparu en premier sur Veille cartographique 2.0.
-
10:57
The London Underground Map Quiz
sur Google Maps ManiaThe London Underground consists of 269 stations. I bet you can't name them all.London Underground Names is an easy map game which simply requires you to name all 269 stations on the London Underground network. Naming all 269 stations is a little tricky so I've provided you with a couple of aides to help you remind you of some of the station names. Due to my personal commuting history I can name
-
10:53
La carte, objet éminemment politique : la Société des Nations en 1927
sur Cartographies numériques
Les Archives des Nations Unies à Genève possèdent une importante collection de cartes du monde qui portent principalement sur l'Entre-deux-guerres et la Deuxième Guerre mondiale. On y trouve des cartes de la SDN, des cartes des empires coloniaux, des cartes des grandes voies de communication terrestres et maritimes ainsi qu'un important matériel cartographique issu de différents pays.
Au sein de cette collection figure une très belle carte concernant La Société des Nations en 1927. La SDN, créée en 1919 en réponse au traumatisme de la Première Guerre mondiale, a été la première organisation internationale dédiée à la préservation de la paix. Sa charte engageait ses membres à la réduction des armements, à la sécurité collective et à un ensemble de procédures pour le règlement pacifique des différends à l'échelle internationale. Bien qu'elle se soit révélée incapable d'empêcher le déclenchement de la Seconde Guerre mondiale, la Société des Nations a joué un rôle important et précurseur en matière d'éducation à la paix. Cette carte participe de cet idéal pacifiste et irénique propre à l'entre-deux-guerres.
Carte de la Société des Nations en 1927 par Laura H. Martin
(crédit : Archives des Nations Unies, licence CC BY-NC-ND 3.0 IGO)
La carte de la SDN en 1927 a été réalisée à partir d'une projection homolosine de Goode qui coupe les océans mais permet de représenter les pays à parts égales. La projection venait d'être inventée en 1923 par John Paul Goode, professeur de géographie à l'université de Chicago, afin de fournir une alternative à la projection de Mercator jugée trop déformante. La carte a été imprimée par les Presses universitaires de Chicago, alors que les Etats-Unis ne faisaient pas partie de la SDN. Sa conceptrice, la cartographe Laura H. Martin (1884-1956), était notamment spécialisée dans les questions juridiques liées à la souveraineté en Antarctique, à une époque où l'Europe, les États-Unis et le Japon commençaient à convoiter ce continent. Elle était mariée au lieutenant-colonel Lawrence Martin (1880-1955), chef du Département de géographie et cartographie de la Bibliothèque du Congrès et président de l'Association américaine des géographes.
La carte de Laura H. Martin se présente comme une grande carte murale montrant l'importance de la Société des Nations en 1927. Bien que tout de rouge colorée pour montrer l'apparente unité des nations, on y distingue cinq catégories de pays en fonction du dégradé de couleurs et de la trame ajoutée discrètement par dessus : les nations membres de la SDN, les territoires sous mandat (anciennes colonies allemandes et anciennes provinces de l'empire ottoman), les nations non membres, celles non membres mais coopérant officieusement, ainsi que celles qui ont signé mais n'ont pas ratifié le traité fondant la SDN (notamment les Etats-Unis). La carte est complétée par trois tableaux statistiques qui occupent une place importante venant combler le vide laissé par les océans. Ces grands tableaux regroupent les états membres, les non membres et les territoires sous mandats, dans le but de comparer leur poids démographique respectif. Des cercles proportionnels permettent de comparer leur population directement sur la carte. Au bas, un graphique montre que, nonobstant l'absence de grands Etats comme les Etats-Unis ou la Russie, le poids démographique des nations membres de la SDN (55 pays en 1927, soit plus d'1,4 milliards d'habitants) l'emporte sur les nations non membres (340 millions d'habitants).
Détail intéressant : la grande carte murale de la SDN de 1927 (64 x 89 cm) a été précédée d'une carte en plus petit format La Société des Nations en 1925. La carte est ainsi présentée dans l'International Journal of Ethics (vol. 35, n° 4, juillet 1925). : « une nouvelle carte en couleurs qui rendra bien des services à tous ceux qui s'intéressent à l'actualité… Cette carte est dessinée selon la projection homolosine ou à surface égale du Dr J. Paul Goode. Elle mesure 20 ½ pouces x 10 ½ pouces, elle est adaptée à une utilisation au bureau… Un format plus grand pour les conférences (8 x 4 pieds, à vendre à environ 3 $ l'exemplaire) est envisagé pour une publication ultérieure ».
Pour comprendre le pacifisme qui anime cette carte de la SDN, on peut la comparer à une autre carte du monde "rouge sang" montrant tous les pays touchés par la Grande Guerre en 1914. Simple ressemblance ou réminiscence cartographique entre les deux cartes ? Bien que différente par leur projection, les deux cartes restent centrées sur l'Europe qui reste la référence (cf siège de la SDN implanté à Genève).
The Blood-Red World. Map Showing Territory of the Earth Directly Affected by the Great War (crédit : Wikimedia, carte dans le domaine public)
La belle unité affichée par la carte de la Société des Nations en 1927 reste assez fictive quand on la compare à la réalité. La carte rassemeble des territoires aux statut très différents, notamment les possessions coloniales de l'Europe, ce qui augmente d'autant la superficie des membres de la SDN (58 pays à son apogée). Une particularité est cependant à souligner : certaines colonies de l'Empire britannique avaient un siège à la SDN. Dans sa thèse de doctorat en histoire internationale, Thomas Gidney a étudié l'adhésion de trois États coloniaux britanniques à la Société des Nations : l'Inde en 1919, l'Irlande en 1923 et l'Égypte en 1937. Il retrace ainsi l'évolution de la représentation coloniale depuis ses débuts lors de la création de la SDN juqu'au déclin de son autorité dans la seconde moitié des années 1930. Bien que l’admission des colonies dans les organisations internationales n’ait été pratiquée que par l’Empire britannique, l’inclusion des régimes coloniaux dans les organisations internationales révèle de nouvelles pratiques de politique impériale visant à légitimer l’empire face à la résistance nationaliste croissante à la domination coloniale.
La SDN a connu des changements fréquents dans sa composition avec des pays qui ont pu entrer, sortir ou rester complètement en dehors de l'organisation. Alors que le président Woodrow Wilson avait largement promu sa création, les États-Unis n'en ont jamais fait partie du fait que le Sénat refusa d'en ratifier le traité. L'Égypte fut le dernier pays membre en 1937. L'Union soviétique fut exclue de la SDN le 14 décembre 1939, cinq ans après son adhésion le 18 septembre 1934. Il faudra attendre la création de l'ONU en 1945 pour que les Nations Unies ne soit plus "un club limité à certains" (Moreau Defarges, 2004). La carte de reconstitution historique ci-dessous permet d'appréhender ces fragilités internes qui contrastent avec la belle unité affichée par le document source.
Carte du monde montrant les adhésions à la Société des Nations de 1920 à 1945 (source : Wikipédia)
Au sein des Archives des Nations Unies à Genève, on trouve d'autres cartes représentant la Société des Nations, mais celles-ci sont en général plus classiques avec des découpages coloniaux ou des drapeaux représentant chaque pays. On n'y retrouve pas le pacifisme et l'universalisme qui animent la carte de Laura H. Martin. Il faut aller chercher dans l'oeuvre cartographique d'Otto Neurath pour retrouver ce même type d'inspiration. Celui-ci représente la Société des Nations en 1930 sous la forme d'isotype montrant l'importance numérique de la SDN par rapport à la population mondiale. On peut admirer le minimalisme et en même temps le modernisme de ce type de représentation schématique (1 pictogramme pour 100 millions d'êtres humains)
Der Völkerbund - Völkerbundstaaten übrige Staaten - Otto Neurath, 1930 (crédit : David Rumsey Map Collection)
La sobriété et la modernité des isotypes utilisés par Otto Neurath contrastent avec la carte surchargée de détails publiée par l'éditeur Philip en 1929 "sous les auspices de la SDN". Une carte jugée incohérente et sémiologiquement incorrecte déjà à l'époque comme le montre cette critique publiée dans la revue Geographische Zeitschrift.
Extrait de la carte du monde publiée "sous les auspices de la SDN" par George Philip & Son en 1929(crédit : Archives des Nations Unies, licence CC BY-NC-ND 3.0 IGO)
En complément
Pour comparer avec d'autres cartes du monde issues des Archives des Nations Unies à Genève :- Le monde selon la projection homolosine de Goode (fond de carte centré sur l'Europe)
- Le monde selon la projection de Mercator (fond de carte centré sur l'Amérique)
- Fond de carte (Europe, Afrique, Australie) de la SDN hiérarchisant les continents
- Radio-Nations. Projection azimutale centrée sur le pôle nord indiquant les distances exactes depuis Genève
- Die Welt umnauen. Carte du monde entier en projection azimutale
- Carte générale du monde de Stanford à partir de la projection Mercator
- Carte commerciale du monde de Philip
- Série comparative de grandes cartes scolaires de Philip
- Carte des accords commerciaux en 1938 (centrée sur les Etats-Unis)
- Principales routes aériennes du monde
- Carte des voies de communications par TSF
- Carte représentant l'Empire britannique, les routes maritimes, les chemins de fer et les mers ouvertes à la navigation
- Carte Esso célébrant l'importance des transports et le rôle clé de l'énergie en temps de guerre
- Carte des Cinq Parties du Monde
- Cartes polonaises séparant entre hémisphère occidental et oriental
- Carte des continents orientaux selon Goode
- Les grandes étapes du peuplement du monde
- Le Nouveau Monde et le système colonial en 1823 et 1931
La collection de cartes numériques de la bibliothèque de l'American Geographical Society (Université du Wisconsin) contient plus de 19 000 cartes, allant des premières cartes de l'Asie aux cartes historiques du Wisconsin et de Milwaukee, ainsi que d'autres villes, États et parcs nationaux américains.
Articles connexes
La carte, objet éminemment politique
Des usages de la projection Spilhaus et de notre vision du monde
La projection Equal Earth, un bon compromis ?
L'Indice de paix mondiale est en baisse depuis plusieurs années
Cartographier pour un monde durable (ONU)
Projections cartographiques
-
8:34
Le connecteur ArcGIS Enterprise for Power Automate est disponible !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Comme évoqué il y a quelques jours dans cet article, l'équipe ArcGIS for Microsoft 365 a récemment annoncé la sortie du connecteur ArcGIS Enterprise for Power Automate ! Exactement comme pour ArcGIS Online, ce nouveau connecteur permet aux flux Power Automate d'accéder et de modifier du contenu géospatial de votre SIG et de travailler avec des couches d'entités et leurs pièces jointes dans ArcGIS Enterprise.
Le nouveau connecteur aide les organisations à acquérir des informations de localisation en tirant parti des services de localisation basés sur ArcGIS Enterprise dans des flux de travail automatisés. Il active spatialement les données provenant d'autres systèmes d'entreprise et accède aux informations de localisation des services de fonctionnalités hébergés pour rationaliser les tâches répétitives. Cet accès améliore la productivité et améliore la compréhension et la perspicacité pour améliorer les processus décisionnels basés sur les données.
Les capacités du connecteur
Les fonctionnalités initiales d'ArcGIS Enterprise Connector pour Power Automate incluent des fonctionnalités de gestion des données et de gestion des pièces jointes.
Gestion de données- Récupérer, mettre à jour, modifier ou supprimer une couche d'entités : cette action gère la charge utile du webhook à partir des modifications apportées à une couche de fonctionnalités sélectionnée. Cette action est utilisée conjointement avec le déclencheur sur votre service de fonctionnalités.
- Créer un enregistrement : ajoute un nouvel enregistrement à une couche d'entités
- Supprimer un enregistrement : ??supprime un enregistrement d'une couche d'entités
- Obtenir des données d'une couche d'entités : interrogez une couche d'entités et renvoyez les attributs et la géométrie à utiliser dans d'autres actions au sein du flux.
- Mettre à jour un enregistrement : ??met à jour un enregistrement existant dans une couche d'entités
Gestion des pièces jointes- Ajouter une pièce jointe : ajoute une pièce jointe à un enregistrement dans une couche d'entités
- Supprimer la pièce jointe : supprime une pièce jointe d'un enregistrement dans une couche d'entités
- Obtenir une pièce jointe : obtient les pièces jointes d'un enregistrement dans une couche d'entités
- Obtenir une pièce jointe à partir d'une URL : obtient une pièce jointe à partir d'un enregistrement dans une couche d'entités à l'aide de l'URL de la pièce jointe.
- Requêter une pièce jointe : recherche d'une pièce jointe associée à un enregistrement dans une couche d'entités
Pour commencer...
Pour commencer à utiliser le connecteur ArcGIS Enterprise for Power Automate, vous pouvez consulter la page (en anglais) "Get Started with ArcGIS Connectors for Power Automate" et rejoindre la communauté des utilisateurs consacrée à ArcGIS for Power Automate pour découvrir des trucs et astuces ou poser des questions aux autres utilisateurs utilisant les connecteurs pour automatiser leurs flux de travail.
-
6:50
Une story map pour découvrir le voyage d'Albert Kahn en Amérique du Sud (1909)
sur Cartographies numériquesLe musée départemental Albert Kahn organise une exposition « Rio-Buenos Aires 1909, Modernités sud-américaines » (27 juin-19 novembre 2023). Des avenues de Buenos Aires au quartier balnéaire de Rio de Janeiro, l’exposition retrace le voyage d’affaires entrepris par Albert Kahn en Argentine et au Brésil d’août à octobre 1909 et entraîne le visiteur dans un périple sensible, celui du passage à la couleur, avec les premières autochromes répertoriées du Brésil. Véritable archive visuelle, le fonds du voyage en Amérique du Sud est le témoin d’une modernisation urbaine en devenir.
Parcours de visite muséale
Le fonds du voyage en Amérique du Sud, longtemps peu connu, est constitué de 600 photographies stéréoscopiques monochromes, 61 plaques autochromes et 3 minutes de film. Le parcours de visite suit la chronologie du voyage et débute à bord du paquebot König Friedrich August. Après cette introduction maritime, les visiteurs découvriront, dans une déambulation visuelle et sonore, d’étonnants portraits de villes d’Amérique du Sud à rebours des clichés exotiques, ainsi que les premières autochromes de la baie de Rio, qui marquent l'apparition de la couleur. Enfin, l'exposition dévoile le travail d'enquête mené par lemusée autour de ce fonds inédit, juste avant le voyage retour jusqu’aux côtes espagnoles.
Découverte du voyage à travers une story map
Le musée Albert Kahn propose de poursuivre la visite de l'exposition à travers un feuilletoir numérique. L'occasion de découvrir une très belle série de cartes interactives présentant l'intégralité du fonds photographique "Voyage en Amérique du Sud" conservé par le musée départemental Albert Kahn. La storymap s'ouvre sur une carte originale représentant le voyage d'Albert Kahn sous la forme d'un plan de métro (#transitmap) mettant bien en valeur le trajet aller-retour du célèbre voyageur-photographe.
Voyage en Amérique du Sud (conception et rédaction : Delphine Allannic, Jean-André Assié, Gaspard Costa, Serge Fouchard, Isabelle Peretti - crédit : musée Albert Kahn)
Une table ronde pour discuter et analyser ces images
« Quand l’image devient source : regards croisés autour de l’exposition Rio – Buenos Aires 1909 / Modernités sud-américaines ». Table ronde le 10 octobre de 14h à 17h à l'auditorium du musée.
La table ronde réunira, autour des commissaires de l’exposition, des chercheurs, responsables de collections, conservateurs-restaurateurs, documentalistes et débattra de conditions d’usage de la photographie comme source pour l’histoire, des méthodologies à mettre en place et des enseignements que le collectif a pu tirer de ce fonds. Les images réalisées en lors de son voyage en Amérique du Sud sont longtemps restées peu connues. Constitué de 600 photographies stéréoscopiquesmonochromes, 61 plaques autochromes et 3 minutes de film, cet ensemble est présenté dans l’exposition Rio – Buenos Aires 1909 / Modernités sud-américaines du 27 juin au 31 décembre 2023.
Sous le regard d’Albert Kahn et de son photographe se dessine le portrait d’un continent et de villes en pleine mutation où l’Europe apparaît comme une référence incontournable. Cet ensemble d’images réalisé de Porto jusqu’à la baie de Rio de Janeiro, en passant par Buenos Aires, Rosario, São Paulo, avant de se terminer à Lisbonne, sont le point de vue d’un banquier occidental qui fait photographier et filmer son périple. Images souvenir ? Projet documentaire en devenir ? Cet ensemble de photographies enrichit notre connaissance du continent au début du XXe siècle et des relations qui se tissent entre Europe et Amérique. Si Albert Kahn milite très tôt pour que les Archives de la Planète deviennent des documents pour l’Histoire, comment faire l’Histoire par la photographie quand les images sont muettes, pour reprendre les mots de Jorge Semprun ? Fonds partiellement ou mal légendé, sans photographe identifié et sans archives, le fonds du voyage en Amérique du Sud était une matière brute, inexploitable sans l’apport de la recherche.
L'occasion de découvrir les Archives de la Planète (fonds d'archives visuelles du musée Albert Kahn)
Constituées entre 1909 et 1932 et conservées par le musée départemental Albert-Kahn, les Archives de la Planète, sont nées de l’initiative d’Albert Kahn (1860-1940), banquier philanthrope et pacifiste. Soucieux de garder une trace pour l’avenir d’un monde en profonde mutation, intéressé par les questions politiques et sociales, et militant pour le rapprochement entre les peuples, il tire parti de l’apparition de nouveaux modes d’enregistrement mécaniques – l’autochrome (1907) et le film (1895) – pour constituer cette vaste entreprise de production d’archives visuelles. À partir de 1912, sous la direction scientifique du géographe Jean Brunhes (1869-1930), une douzaine d’opérateurs parcourent près de cinquante pays et produisent 72 000 autochromes et plus d’une centaine d’heures de films.
Pour Albert Kahn, la période qui précède le démarrage officiel des Archives de la Planète est un temps d’expérimentation de l’image. Entre 1908 et 1909, lors des voyages que le banquier d’affaire accomplit en Europe, en Asie ou encore en Amérique du Sud, des praticiens réalisent pour son compte de nombreuses photographies stéréoscopiques monochromes, des autochromes ainsi que des films.Articles connexes
Les story maps : un outil de narration cartographique innovant ?
Les grands enjeux alimentaires à travers une série de story maps du National Geographic
Mapstory, un outil pour élaborer et partager des story maps
Exposition virtuelle. Figures d’un géographe, Paul Vidal de la Blache (1845-1918)
Numérisation des archives de la Société de Géographie sur Gallica
Avant l'invention du globe virtuel, les stéréoscopes permettaient déjà une forme de voyage visuel
Les 42 cartes des Voyages extraordinaires de Jules Verne
Cartes narratives et story maps
Cartes et atlas historiques
-
17:54
Traitements et cartographie de l’information géographique
sur Décryptagéo, l'information géographiqueUn nouvel ouvrage de référence vient de paraître : « Traitements et cartographie de l’information géographique » sous la direction de Claire Cunty (Université Lumière Lyon 2) et Hélène Mathian (UMR Environnement Ville Société)Avec la massification des données et la systématisation du référencement géographique de l’information, les cartes constituent aujourd’hui des enjeux importants, tant pour les spécialistes que pour les organismes d’aménagement, d’urbanisme ou le grand public. Cependant, si produire une carte peut paraître facile, le passage concret des données à une carte utile pour la question posée est jalonné par une succession d’opérations précises mobilisant des connaissances en divers domaines : statistique, géographie, cartographie, etc.
L’ouvrage présente une diversité d’enchaînements d’opérations à partir d’exemples variés. Chaque chapitre emprunte un chemin différent, explicitant les choix méthodologiques opérés en fonction du thème traité et du but poursuivi.
Cette approche couvrant l’ensemble de la démarche de production d’une carte permettra à tout lecteur, qu’il soit étudiant, chercheur, enseignant ou aménagiste de comprendre les multiples rôles que la carte peut jouer dans des analyses de données géographiques.
Table des matières :
- Cartes et graphiques pour explorer des relations statistiques
2. Intégration de données hétérogènes et représentations cartographiques du Géoweb
3. Données environnementales et objets cartographiques
4. Cartographier et identifier les formes géographiques : l’exemple de la ségrégation - Carte et modèle statistique pour explorer l’hétérogénéité spatiale
6. Cartographier les phénomènes temporels
7. Cartogrammes, anamorphoses : des territoires transformés
8. Exploration, agrégation et visualisation spatiotemporelle de données massives
Cet article Traitements et cartographie de l’information géographique est apparu en premier sur DécryptaGéo, l'information géographique.
- Cartes et graphiques pour explorer des relations statistiques
-
16:17
GeoTIFF reader/writer performance comparison
sur Le blog de GeomatysApache Spatial Information System (SIS) version 1.4 contains a Cloud Optimized GeoTIFF (COG) reader for raster data. The development branch of Apache SIS 1.5 (not yet released at the time of writing this blog) contains also a GeoTIFF writer. Those reader and writer are implemented in pure Java code for avoiding the difficulty of bindings to native libraries such as GDAL. Pure Java code also provides more flexibility for Java developers. For example, the Apache SIS reader accepts any implementation of the Java
ReadableByteChannel
standard interface as the source of bytes. Another reason for developing GeoTIFF reader and writer in Java was for prototyping the use of new GeoTIFF keys that are proposed in OGC TestBed-19 — Geospatial in space.Coding yet another GeoTIFF reader and writer seems a duplication of work, since most of the geospatial world uses the popular GDAL library for that purpose. But actually, from Apache SIS perspective, there is not so much duplication. The most difficult part in a GeoTIFF reader and writer is to handle tiling and compression efficiently. But this task is largely format-independent, and SIS needs also to handle netCDF and other formats. The Apache SIS library shares code internally, thus reducing the task of GeoTIFF support to header parsing. By contrast, GDAL is largely an aggregation of independent libraries such as
libtiff
andlibpng
, each with their own ways to resolve common problems.Nevertheless, coding GeoTIFF support in Java raises questions about how its performances compare to GDAL. There is a widespread belief that Java programs are slower than their C/C++ counterpart. In reality, it depends a lot on the kind of application and how the libraries were coded. Differences in algorithms can play a bigger role than differences in the programming languages. This blog will not answer that debate, because the benchmarks presented here depend a lot on native code, either for I/O operations or for
MethodDEFLATE
compression (the latter is handled by native code in thejava.util.zip
standard package). However, the benchmarks in this blog demonstrate the capability of a Java program to avoid adding overhead. The result is that Apache SIS, at least in those benchmarks, compares favorably with GDAL.The benchmarks reported in this blog are very limited and only scratch the surface on the topic of raster data handling:
- All benchmarks were tested with a single image (in two variants).
- Only one compression method tested (in two variants), together with uncompressed raster.
- No sub-regions and no sub-samplings tested (there is no technical reasons for this omission).
- Multi-thread parallelization not tested (would have required some more developments in Apache SIS).
Sub-regions and requests for reduced resolutions on COG images should be handled efficiently by Apache SIS, but benchmarking those features would have required a more complex setup, especially if we want to test in a cloud environment. The simple benchmarks in this blog used a single image which was always read fully, from a local file on a laptop. The image was a single non-COG raster with the following properties:
Raster Thumbnail Raster PropertiesProducer: DigitalGlobe Image date: 2014/06/16 File size: 192 Mb Image size: 8192 × 8192 pixels Strip size: 8192 × 128 pixels Sample model: banded (3 separated arrays of red, green and blue). Sample type: bytes, values ranging from 2 to 255. Compression: None CRS: WGS 84 / UTM zone 31N The image was read and rewritten using three libraries:
Method with deflate compressiongdal_translate
, Java Image I/O and Apache SIS. For each library, the read/write operations were repeated 10 times in order to allow the Java Virtual Machine to warmup. The two first iterations were ignored, and execution time of the remaining 8 iterations were recorded. Average times and standard deviations are reported in this blog. In the particular case of the GDAL library, the execution time ofgdalinfo
has also been measured and its average value has been subtracted from allgdal_translate
times. The intend is to take in account the time needed for loading the GDAL binary, or at least the parts required for reading the image header (it also incidentally includes the time for parsing that header). We apply this correction because our benchmark code relaunches the GDAL command in each iteration, contrarily to Image I/O and Apache SIS libraries which are loaded only during their first iteration. The benchmark code is available on GitHub in theGeoTIFF.java
file. The processor of the test machine was Intel Core i7-8750H and the operating system was Fedora Linux 38 (Workstation Edition). Read and write operations were performed in the/tmp/
directory, which uses thetmpfs
file system. It means that the raster files reside partially in RAM, so the benchmarks have less delay caused by I/O operations.The same tests were executed again with the
DEFLATE
compression. That compression is performed by thezlib
library, accessible in standard Java thought thejava.util.zip
package. However, thezlib
performance varies greatly depending on the data to compress. For fair comparisons, we must ensure that all the tested libraries write the same data. It is not the case by default because:- GDAL and Java Image I/O change the sample model from “banded” to “pixel interleaved”.
- GDAL changes the strip height from 128 pixels to 1 pixel, thus writing strips of 8 kb.
- Java Image I/O changes the strip height from 128 pixels to 8 pixels, thus writing strips of 64 kb.
- Apache SIS keeps the sample model and strips height as they were in the image that was read.
For avoiding those differences, the input image has been rewritten by Apache SIS with a “pixel interleaved” sample model and strips of 8 pixels in height. In addition, the
Results-co BLOCKYSIZE=8
option has been passed togdal_translate
. ADEFLATE
compression has been applied, so the tests will include decompression times in addition of compression times.First, we tested reading the uncompressed image and rewriting it uncompressed too. Average execution times are reported below. The “GDAL (reduced)” label means that the average execution time of
gdalinfo
has been subtracted from the execution time ofgdal_translate
.Apache SIS appears faster than other libraries for this particular benchmark. It may be because Apache SIS does not reorganize the pixel layout: it writes the image with banded sample model (called “planar configuration” in TIFF), as it was in the image that SIS has read. By contrast, GDAL and Image I/O reorganize the pixels into the pixel interleaved sample model. Note that for a Java application, the Java2D architecture around the
Results with deflate compressionRaster
,SampleModel
andColorModel
classes provides a great level of abstraction, generally making unnecessary to restructure the image data.The next benchmark involves reading the same image but with pixel interleaved sample model and deflate compression, then rewriting that image. First, the compression was tested without predictor. The average execution times are reported below. The same
gdalinfo
measurement than in the previous benchmark is reused for the “GDAL (reduced)” column. No attempt was made for instructing GDAL to uselibdeflate
(see below):The benchmark has been repeated many times and Java Image I/O was consistently slightly faster than other libraries. One hypothesis may be that, by default, Image I/O reads the whole image as one single tile, while the other libraries does tiling. We have not tried to adjust Image I/O parameters for testing that hypothesis.
Apache SIS appears slightly faster than GDAL in this benchmark, but we should not make general conclusion from this observation because the Java profiler measured that SIS spend about 95% of its time in the
java.util.zip
native code. We presume that a similar proportion applies to GDAL as well, so 95% of this benchmark is probably comparing the same code. We have no certain explanation for the slight difference nevertheless measured between GDAL and SIS. One hypothesis may be that the startup time estimation based ongdalinfo
is not good enough. Another hypothesis may be that Apache SIS‘s efforts payoff. SIS tries hard, sometime at the cost of code complexity, to transfer data as directly as possible (i.e. avoid copy operations from one buffer to other temporary buffers before the final destination).Note that GDAL has the capability to use
Results with horizontal differentiating predictorlibdeflate
instead ofzlib
, with a reported performance gain of 35-50%. This acceleration has not been tested in this benchmark.Adding the horizontal differentiating predictor at writing time has the same effect on the two tested libraries. The difference between them are within margin errors, so no conclusion can be made. The “Time increase” column is the difference between the time measured here and the time measured in the benchmark without predictor. The majority of this increase is probably caused by time spent in
Conclusionzlib
instead of time spent in applying the predictor. Note that the file sizes also increase. The image used in this test is a case where applying a differentiating predictor is counter-productive.Because the benchmarks spent 95% of their time in the
zlib
library (except for the uncompressed case), we cannot make conclusion about the performance of the Java code in Apache SIS compared to the C/C++ code in GDAL. However, the benchmarks suggest that Apache SIS is successful in its attempt to avoid adding overhead. The interfacing between Apache SIS andjava.util.zip
andjava.nio
packages (e.g. using direct buffers) seems as efficient as the interfacing between GDAL and the native libraries that it uses. The benchmark measurements were slightly in favor of Apache SIS, but close to margin errors. Furthermore, a bias may exist despite our effort to apply a correction for GDAL startup time.The benchmarks reported in this blog are a bit superficial and could be improved in many ways: benchmarks should be run on a lot of different images with different sizes, tilings, sample models and color models, benchmarks should request various sub-regions, enable parallelization, measure raster reprojection times, measure memory consumption, etc. However, doing fair performance comparisons of the writers is time-consuming, because it requires making sure that each library compresses the same data. They usually don’t, because of different choices in sample models and tile sizes. Adjusting the parameters of each library for comparing the same things may need to be done on a case-by-case basis.
However, we can probably conclude one thing: the widely spread belief that a C/C++ library such as GDAL will surely be faster than an equivalent Java library such as Apache SIS is not always grounded in reality. It is true in some circumstances (e.g. startup time of a Java application stay longer), but should not be generalized. Slow Java codes are often due to poor algorithms rather than the language. More benchmarks between libraries written carefully in both languages are needed before to make conclusions.
The post GeoTIFF reader/writer performance comparison first appeared on Geomatys.
-
9:36
Un nouveau look pour l'application Wayback
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
L'application World Imagery Wayback a été lancée en juin 2018, donnant accès à 81 versions du fond de carte World Imagery (vous pouvez consulter cet article pour découvrir cette application si vous ne la connaissez pas). Cinq ans plus tard, ce chiffre a doublé. En septembre 2023, il existe 162 versions de World Imagery dans les archives Wayback. Ces 162 enregistrements représentent une compilation des mises à jour de World Imagery au cours des 10 dernières années.
Pour célébrer cet anniversaire, l'application Wayback arbore désormais une nouvelle interface. Bien que les mises à jour soient essentiellement cosmétiques, on nnotera également de belles améliorations fonctionnelles. Vous trouverez ci-dessous un aperçu rapide, mais il est préférable d’en faire l’expérience par vous-même.
Quoi de neuf ?
L’application présente une interface nouvelle et améliorée.
Les utilisateurs peuvent désormais afficher les niveaux de détail les plus élevés.
Le panneau latéral a été simplifié et comprend dorénavant des paramètres par défaut plus intuitifs et un aperçu transparent au survol lorsque vous passez la souris sur les calques.
Plus de ressources sur l'application Wayback
Ci-dessous quelques ressources (en anglais) qui peuvent vous-être utiles si vous souhaitez aller plus loin avec l'application Wayback :- Explorez les archives d’images à l’aide de World Imagery Wayback
- Articles supplémentaires sur Wayback
- Application Wayback d’imagerie mondiale sur ArcGIS Online
- Dépôt GitHub de l'application Wayback
-
9:20
Your Perfect Weather Map
sur Google Maps ManiaWe all have our own ideas about what the ideal weather conditions actually are. myPefectWeather is an interactive map which can help you find the locations in the United States which most closely match your own preferred temperatures, precipitation levels and /or amount of snowfall.If you select the 'options' button on the myPerfectWeather map menu you can begin to discover the locations
-
9:00
OGC and the International Data Spaces Association sign Memorandum of Understanding
sur Open Geospatial Consortium (OGC)The Open Geospatial Consortium (OGC) and the International Data Spaces Association (IDSA) have signed a Memorandum of Understanding (MoU) that outlines how they will together contribute to a flourishing data economy through the creation and development of standards for data spaces that ensure sovereign, interoperable, and trusted data sharing.
“As the number of available data sources continues to grow, the challenge of integrating them into high-value products becomes ever greater,” commented OGC Chief Technology Innovation Officer, Ingo Simonis, Ph.D. “In order to develop effective solutions for cross-border data integration, international collaboration is critical. As such, OGC is eager to work with IDSA to tackle this task together.”
“Committed to driving digital transformation, IDSA champions economic growth, innovation, and a cohesive data-sharing approach,” said Silvia Castellvi, Director of Research & Standardization at IDSA. “Partnering with OGC ensures our standards align and resonate. Enhancing features, like the geolocation of IDS Connectors, not only advances our standard but boosts its appeal for future developers and users.”
OGC is an international non-profit consortium aiming to make geospatial (location) information and data services FAIR – Findable, Accessible, Interoperable, and Reusable. IDSA is an international non-profit association that follows a user-driven approach to create a global standard for international data spaces and interfaces based on sovereign data sharing.
The MoU seeks to align activities between the two organizations so that OGC and IDSA Standards can work in tandem. This will be achieved in part through joint participation in potential future projects and initiatives, particularly in the areas of global supply chains, intelligent transport, and smart city data spaces.
Projects in global supply chains and intelligent transport may include developing solutions that support the monitoring of shipping routes, tracking freight, sharing ocean currents and weather data, and more. Projects in smart city data spaces could focus on improving data sharing from business and technical perspectives, and could include data ranging from traffic to population migration.
The two organizations have already identified several ongoing or completed projects relevant to their work together, including: Divine, Flexigrobots, DEMETER, ATLAS & AgriDataValue, Iliad, AD4GD, OGC Rainbow, and others.
About IDSA
The International Data Spaces Association (IDSA) is on a mission to create the future of the global, digital economy. Its 140+ member companies and institutions have created the International Data Spaces (IDS) standard: a secure system of sovereign and trusted data sharing in which all participants can realize the full value of their data. IDS enables new smart services and innovative business processes to work across companies and industries, while ensuring that the control of data remains in the hands of data providers. We call this data sovereignty.
Visit internationaldataspaces.org for more informationPress contact:
Nora Grass
+49 162 2104263
nora.gras@internationaldataspaces.orgThe post OGC and the International Data Spaces Association sign Memorandum of Understanding appeared first on Open Geospatial Consortium.
-
7:54
Les modèles de langage (LLMs) utilisés en intelligence artificielle reproduisent l'espace et le temps
sur Cartographies numériques
Avec le développement des agents conversationnels, il devient possible de conduire des recherches en langage naturel et de mobiliser des données géospatiales. Les modèles de langage (LLMs) utilisés en intelligence artificielle reproduisent à leur manière l'espace et le temps. C'est ce que tend à montrer l'article publié par Gurnee & Tegmark :Wes Gurnee, Max Tegmark (2023). Language Models Represent Space and Time. ArXiv:2310.02207v1 [cs.LG] 3 Oct 2023. [https:]]
Les capacités des grands modèles linguistiques (LLMs) suscitent des débats autour de la question de savoir si ces systèmes apprennent simplement à partir d'une énorme collection de statistiques ou s'ils constituent un modèle cohérent de génération de données – un modèle mondial. Dans cet article, les auteurs fournissent des preuves concernant le deuxième point en analysant les représentations à partir de trois ensembles de données spatiales (lieux du monde, des États-Unis, de New York) et de trois ensembles de données temporelles (personnages historiques, œuvres d'art, titres d'actualité) dans la famille de modèles Llama-2. Ils montrent que les LLMs apprennent des représentations linéaires de l'espace et du temps à plusieurs échelles. Ces représentations sont robustes pour fournir de l'unité et des variations entre différents types d'entités (par exemple, villes et monuments). De plus, ils identifient des « neurones spatiaux » et des « neurones temporels » individuels qui codent de manière fiable les coordonnées spatiales et temporelles.
Pour télécharger l'article en pdf.
Accès au code et aux données sur Github.
Pour compléter
IA & Géographie. Les intelligences artificielles génératives s'appliquent à beaucoup de domaines, notamment à l'information géospatiale. Il est désormais possible, par exemple, de choisir une liste de lieux, d'en faire chercher automatiquement les coordonnées géographiques par un agent conversationnel (du type ChatGPT ou autre) et de produire directement un fichier kml utilisable dans un globe virtuel (voir ce tutoriel).
Articles connexes
Des outils d'IA gratuits pour identifer un lieu à partir d'une photographieQuand Facebook révèle nos liens de proximité
Territoires virtuels. Carte interactive des 400 000 projets déposés sur GitHub
Guerre de pixels sur Reddit. La lutte des places concerne aussi les territoires virtuels
La carte mondiale de l'Internet selon Telegeography
L'essor parallèle de la Silicon Valley et d'Internet : du territoire au réseau et inversement
Cartographie du réseau social Mastodon
-
20:26
Cartographier l'anthropocène. Atlas 2023 de l'occupation du sol (IGN)
sur Cartographies numériquesComme le souligne Sébastien Sorano, Directeur général de l’Institut national de l’information géographique et forestière, les défis climatiques nécessitent de repenser l'usage de nos sols. L’IGN publie l'édition 2023 de son Atlas annuel des cartes de l'anthropocène dédié à l’occupation et à l’usage des sols. Un nouveau recueil de cartes et de points de vue pour éclairer les décisions et actions publiques relatives à ce levier majeur pour répondre au défi climatique.
Cet ouvrage de référence aborde la question de l’occupation des sols face aux défis climatiques sous trois points de vue : historique, aménagement du territoire (urbanisme) et environnemental. Cet atlas montre l’influence des choix politiques de « consommation » et recomposition de l’espace naturel : les choix du passé et la façon dont ils ont modelé le territoire français et les choix d’aujourd’hui, répondant à de nouvelles problématiques.
Cartographier l'anthropocène. Atlas 2023 de l'occupation du sol (source : IGN)
- La carte, témoignage de l'histoire. Entretien avec l’architecte et historien Jean-Luc Arnaud
Des ruelles du centre-ville aux grands axes fluviaux, des massifs forestiers aux champs à perte de vue, le sol français est une mosaïque en constante évolution. Depuis sa création, l’IGN oeuvre pour graver sur ses cartes l’état des lieux du territoire à un instant précis. En remontant ses archives cartographiques, les transformations du territoire défilent sous les yeux du lecteur, tel un kaléidoscope.
- Aménager un territoire, une question d'équilibre
Le paysage français n’est pas qu’une simple réalité environnementale, il est le résultat de transformations culturelles et économiques profondes. Son organisation, tiraillée par les intérêts des uns et des autres, produit et supprime des continuités territoriales, reflets des priorités d’époques différentes. Étalement urbain, déprise agricole, reconquête forestière… aménager un territoire est d’abord une question de choix et d’équilibre entre l’usage des espaces communs.
- « Le paysage, partie sensible du territoire ». Découvrir le point de vue de Jacqueline Osty
Le paysage est le résultat d’une forme d’alchimie qui croise de nombreuses thématiques, au carrefour du vécu et du perçu. À une époque où l’on cherche à stopper l’artificialisation des sols, travailler sur le paysage permet de prendre le recul suffisant pour repenser nos territoires de manière plus globale. Entretien avec Jacqueline Osty, paysagiste et Grand prix de l'urbanisme 2020
- Comment adapter le territoire français au changement climatique ?
Sous la pression du changement climatique, le territoire français doit s’adapter. La raréfaction de l’eau douce, la propagation des incendies et l’intensification des épisodes de pluie extrême demandent une réorganisation des espaces. Des îlots de chaleur en ville aux glaciers du Mont-Blanc, des essences d’arbre aux types de culture, connaître l’occupation des sols est la première étape pour structurer un territoire résilient. Un défi auquel l’IGN veut participer par le futur jumeau numérique du territoire.
- « L’eau est un flux dépendant du climat ». Découvrir le point de vue d'Agnès Ducharne
L’eau est un élément précieux. Qu’elle vienne à manquer, et tout le système de société humaine perdra alors l’équilibre. Avec le réchauffement climatique, c’est précisément ce qui se dessine pour l’avenir. Entretien avec Agnès Ducharne, Directrice de recherche au CNRS, spécialiste de la modélisation de l’hydrologie des surfaces continentales.
- L’OCS GE, l'outil phare de l'IGN pour détecter et suivre l'artificialisation du sol
En s’appuyant sur ses données socles, l’IGN pilote la production d’un référentiel à grande échelle pour la description de l’occupation du sol français : l’OCS GE. Cet outil, au service de l’État et des collectivités, cartographie les couches de surface du sol, distingue les zones imperméables, agricoles, forestières et permet de quantifier et de qualifier l’évolution des territoires et leur artificialisation nette. Depuis 2019, l’Institut emploie la télédétection par intelligence artificielle pour accélérer la production et multiplier les usages.
- Énergies renouvelables à la carte
En mai 2023, un nouveau portail cartographique des énergies renouvelables a vu le jour. Réalisé par l’IGN et le Cerema, cet outil est indispensable pour favoriser le développement des énergies renouvelables terrestres.
Consulter l'Atlas de l'occupation du sol en ligneTélécharger l'Atlas en version pdf
En complément
Sébastien Soriano : « On a besoin d’une vision plus sensuelle et moins mathématique du territoire » (interview pour Usbek & Rica).
Articles connexes
Atlas IGN des cartes de l'anthropocène (2022)
Paul Crutzen et la cartographie de l'Anthropocène
Les territoires de l'anthropocène (cartes thématiques par le CGET)
Cartes et données sur l'occupation des sols en France (à télécharger sur le site Theia)
Dynamic World : vers des données d'occupation du sol quasi en temps réel ?
Copernicus : accès libre et ouvert aux cartes concernant la couverture des sols (2015-2019)
L'histoire par les cartes : 30 cartes qui racontent l'histoire de la cartographie (sélection de l'IGN)
Lidar HD : vers une nouvelle cartographie 3D du territoire français (IGN)
Enquête sur la mention « compatible GPS » indiquée sur les cartes IGN des années 1980-90
- La carte, témoignage de l'histoire. Entretien avec l’architecte et historien Jean-Luc Arnaud
-
19:29
SIG Libre Uruguay: IV Convención Científica Internacional UCLV 2023
sur Planet OSGeoLa Universidad Central “Marta Abreu” de Las Villas, Institución de Excelencia de la Educación Superior en Cuba, convoca a la IV Convención Científica Internacional de Ciencia, Tecnología y Sociedad UCLV 2023, bajo el lema “Ciencia e Innovación para el Desarrollo Sostenible.”
Podrán participar investigadores, académicos, docentes, directivos, empresarios, decisores de políticas de gobierno, estudiantes y otros actores sociales, implicados en la actividad de ciencia e innovación y protección del medio ambiente, además, contaremos con la presentación de conferencias magistrales de expertos de reconocido prestigio internacional y nacional, así como se desarrollarán otras actividades científicas desde una perspectiva multidisciplinar e intersectorial.
Se contará tambien con la modalidad de participación virtual, facilitando a través de la plataforma la transmisión en vivo de actividades que se especificarán en el programa del evento.
El encuentro se desarrollará del 13 al 17 de noviembre de 2023, en el destino turístico Cayos de Villa Clara: Santa María, Cuba.
Destacamos especialmente el II Simposio Internacional sobre «Generación y Transferencia de Conocimiento para la Transformación Digital» SITIC2023, donde se desarrollarán un número importante de actividades: conferencias, curso, talleres. A continuación, la agenda
-
17:54
Fête de la science : une modélisation 3D de la rade de Brest (ImmerSea Rade)
sur Décryptagéo, l'information géographiqueSoutenu par La Fondation Dassault Systèmes, le projet « ImmerSea Rade » est mené depuis janvier 2023 par 25 étudiants d’ISblue, école universitaire de recherche dédiée aux sciences et technologies de la mer, au sein de l’ImmerSea LAB, un espace expérimental appliqué aux sciences de la mer et du littoral. Cette expérience consiste à modéliser en 3D et à produire un scénario de visite virtuelle et interactive de la rade de Brest jusqu’à Ouessant, retraçant l’évolution paysagère et marine depuis 12 000 ans.Cette visite virtuelle, d’une durée de 3 minutes, permet aux visiteurs de se rendre compte des nombreuses évolutions et transformations qu’a connu la rade de Brest. Ils pourront observer que Brest n’a pas toujours été localisée sur le littoral et que la traversée à pied de Brest à Crozon a même été un jour possible. Grâce à cette expérience, le public pourra prendre la mesure de l’impact de l’activité humaine sur l’accélération de la montée des eaux et enfin se projeter dans des scénarios d’évolution de la rade.
Depuis le début du projet en janvier 2023, les étudiants en sciences marines et littorales d’ISblue, ont pu progresser dans leur prise en main des outils technologiques et appréhender les particularités géographiques, biologiques et géologiques de la rade. Cette visite, construite sur la base de données scientifiques intégrées dans les outils de modélisation 3D, avec le soutien technique des experts détachés par la Fondation Dassault Systèmes, s’intègre dans un dispositif pédagogique plus vaste, l’ImmerSea LAB. Il a pour but de permettre aux étudiants et aux chercheurs de s’immerger dans des environnements virtuels pour comprendre et résoudre des problématiques marines et littorales diverses.
La Fondation Dassault Systèmes, qui soutient ce projet, contribue ainsi à la transformation de l’éducation et de la recherche. En effet, au-delà des résultats scientifiques, les élèves ont également pris conscience de l’utilité de tous les enseignements. Un tel programme stimule l’esprit créatif et favorise l’innovation. Grâce à l’apport humain et financier de La Fondation Dassault Systèmes et en s’appuyant sur les univers virtuels, les élèves et chercheurs peuvent tester le réel et ainsi concevoir leur projet.
« La 3D permet de tester des hypothèses, de trouver des solutions et donc d’améliorer le réel. Avec ce projet, nous souhaitions une nouvelle fois nous engager en faveur de la sensibilisation aux grands enjeux océaniques, grâce aux univers virtuels en support de l’apprentissage des disciplines fondamentales. Cet usage de la 3D peut être aussi l’occasion de développer de nouvelles compétences et de créer des vocations vers les carrières scientifiques. » explique Jean-Marc Galéa, Chef de projet pour La Fondation Dassault Systèmes.
« La 3D permet de mieux illustrer ces grands changements dans la rade de Brest et de se projeter comme si on y était » déclare Maxime Kernec, Ingénieur en imagerie et réalité virtuelle & Coordinateur de l’ImmerSea LAB à l’Université de Bretagne Occidentale (UBO).
« Le projet a commencé en janvier 2023 avec un hackathon d’une semaine puis les étudiants ont travaillé pendant cinq jours à Ouessant en juin. On a adoré ce projet, c’était très prenant. » précise Riwalenn Ruault, Ingénieure pédagogique ISblue rattachée à l’Université de Bretagne Occidentale.
La visite virtuelle et inédite de l’évolution de la rade de Brest depuis 12 000 ans, « ImmerSea Rade », sera présentée aux scolaires les jeudi 5 et vendredi 6 octobre à l’Océanopolis de Brest, pendant de la Fête de la science. Une présentation complète du projet ImmerSea Rade est également disponible sur le site dédié : ImmerSea RADE#2.
À propos de La Fondation Dassault SystèmesDepuis 2015, La Fondation Dassault Systèmes soutient la transformation de l’éducation, de la recherche et de l’étude du patrimoine. Au-delà de nouvelles aptitudes, de collaborations constructives, et de l’envie de réimaginer et soutenir un monde plus durable, il s’agit avant tout de créer l’étincelle autour de la science et de la technologie pour les générations futures. Au cœur de la transmission des savoirs, les univers virtuels offrent la possibilité de mieux comprendre le monde et de repousser les limites de la connaissance grâce à un engagement actif des parties prenantes.
Catalyseur de savoir-faire et de passions, La Fondation Dassault Systèmes valorise l’implication et le partage, notamment grâce au mécénat de compétences, pour placer l’échange humain au centre de l’apprentissage.
La Fondation Dassault Systèmes œuvre au travers de trois fondations en Europe, en Inde et aux Etats-Unis. [lafondation.3ds.com]
La pointe de la Bretagne accueille la plus grande concentration de chercheurs en sciences et technologies marine en France. Dans cet environnement favorable, un partenariat prestigieux de 2 universités (UBO, UBS), 3 organismes nationaux de recherche (CNRS, Ifremer, IRD) et 4 Grandes Ecoles d’ingénieurs (IMT-Atlantique, ENSTA Bretagne, ENIB, l’École navale), a fondé ISblue, l’unique école universitaire de recherche (E.U.R) dédiée aux sciences et technologies de la mer sélectionnée et financée pour 10 ans dans le cadre des investissements d’avenir et de France 2030. En s’appuyant sur les laboratoires de recherche qui abordent les sciences et technologies marines sous tous leurs aspects, ISblue a pour objectif de former les nouvelles générations de chercheurs, d’experts et d’ingénieurs capables de relever les défis multiples auxquels sont confrontés l’océan et les littoraux.
Soutenu par ISblue et la Fondation Dassault Systèmes, ImmerSea LAB est un espace expérimental qui a pour but de développer des pratiques collaboratives réelles et virtuelles appliquées aux sciences de la mer et du littoral. ImmerSea LAB se veut donc être un projet collaboratif innovant et structurant autour des environnements virtuels comme objet de recherche, mais également par son approche originale de co-construction entre scientifiques, enseignants/formateurs et ingénieurs en réalité virtuelle.
_____________________________________________________________________________
Contact presse Fondation Dassault Systèmes :
Agence Gen G
Raphael Soudan
06 74 24 51 22
Cet article Fête de la science : une modélisation 3D de la rade de Brest (ImmerSea Rade) est apparu en premier sur DécryptaGéo, l'information géographique.
-
17:38
L’IGN publie son atlas des cartes de l’anthropocène 2023 dédié à l’occupation des sols
sur Décryptagéo, l'information géographiqueL’occupation des sols, on s’en occupe ensemble ?Face aux défis posés par le changement climatique, l’IGN a pris l’initiative de publier annuellement l’atlas Cartographier l’anthropocène. Cet ouvrage de référence s’appuie sur la richesse des données de l’IGN et de ses partenaires pour représenter les conséquences de l’empreinte humaine sur le territoire. L’édition 2023 s’arrête en particulier sur la question de l’occupation des sols. L’IGN, cartographe du service public et opérateur de données de la planification écologique veut illustrer à travers cet atlas sa vocation à délivrer du savoir utile à la décision pour réussir la transition écologique.
Publiée le 4 octobre, l’édition 2023 de l’atlas Cartographier l’anthropocène aborde la question de l’occupation des sols face aux défis climatiques sous trois points de vue : historique, aménagement du territoire (urbanisme) et environnemental. Cet atlas montre donc l’influence des choix politiques de « consommation » et recomposition de l’espace naturel : les choix du passé et la façon dont ils ont modelé le territoire français et les choix d’aujourd’hui, répondant à de nouvelles problématiques.
La carte témoigne de l’histoireLe point de vue historique livré par l’atlas 2023 permet de prendre du recul et d’examiner les effets qu’ont eus les choix du passé sur l’occupation du sol : reconquete forestiere, amenagement des cours d’eau intérieurs, remembrement agricole ou encore amenagement urbain. L’atlas 2023 rappelle ainsi à quel point les cartes, véritables états des lieux du territoire, sont un outil puissant d’aide à la décision de la puissance publique, qui doit aujourd’hui mener des opérations d’ampleur pour adapter le territoire aux bouleversements écologiques actuels. Il rappelle comment l’IGN, tout au long de son histoire, a mis ses données au service des décideurs publics à travers divers inventaires, bases de données et observatoires dont l’OCS GE, référentiel de l’occupation des sols à grande échelle et dont le but est de calculer l’artificialisation du sol et de la suivre dans le temps.
Focus – L’intelligence artificielle pour décrire l’occupation du sol : grâce au référentiel d’occupation des sols à grande échelle (OCS GE) orchestré par le ministère de la transition écologique et de la cohésion des territoires, les collectivités territoriales peuvent croiser les données et définir une politique d’urbanisme. Elles peuvent distinguer les zones perméables des zones imperméables, les espaces naturels, agricoles et artificialisés et comparer les surfaces dont l’occupation du sol a évolué entre deux dates. Dans le cadre de l’OCS GE, l’IGN travaille avec le Cerema et l’INRAE pour préciser les contours de l’objectif de « zéro artificialisation nette » a l’horizon 2050 tel que défini par la loi et les textes d’application. Pour accélérer la réalisation du référentiel OCS GE, l’IGN a recours à l’intelligence artificielle (IA) pour couvrir la France entière, soit 16 000 milliards de pixels d’orthophotographies à traiter !
Aménager un territoire, une question d’équilibreLe point de vue aménagement évoque le paysage français, résultat de transformations culturelles et économiques. Il est le reflet des priorités et des intérêts d’époques différentes. Aujourd’hui, il est question de densifier les villes, de reconstruire la ville sur elle-même pour lutter contre l’étalement urbain et l’artificialisation des sols. L’objectif de « zéro artificialisation nette » (ZAN), prévu par la loi Climat et résilience, est un exemple illustratif des opérations d’ampleur que sont susceptibles de mener le gouvernement et les acteurs locaux pour adapter les territoires aux bouleversements écologiques. La ZAN implique de travailler sur les sujets du logement de la population, du développement des bassins d’activités économiques, de réussir un véritable changement des mentalités et des modèles de société. Pour prendre les bonnes décisions sur ces choix délicats et à fort enjeu démocratique, le décideur public a besoin de données solides sur lesquelles s’appuyer et créer un langage commun entre toutes les parties prenantes.
Focus – Le Géoportail de l’urbanisme : depuis 2013, l’IGN et le ministere de la Transition ecologique et de la cohesion des territoires mettent en place un portail pour rassembler les projets d’amenagement et rendre accessibles toutes les donnees d’urbanisme disponibles, telles que les Plans locaux d’urbanisme (PLU) et les anciens Plans d’occupation du sol (POS). Chaque document identifie la possibilite de construire les contraintes et les prescriptions qui s’imposent en matiere d’amenagement, liees par exemple a des problematiques d’inondation, de proximite a une voie ferree ou a un parc naturel regional.
Comment adapter le territoire français au changement climatique ?Cette troisième partie de l’atlas IGN met en lumière comment la connaissance de l’occupation des sols permet de structurer un territoire résilient face aux conséquences des bouleversements climatiques, que ce soit la raréfaction de l’eau douce, la sécheresse et la propagation des incendies ou les épisodes d’inondations. L’un des défis de la transition écologique est de créer une projection commune : les cartes et demain les jumeaux numériques peuvent y contribuer.
Focus – Le jumeau numérique : l’IGN prépare une modalisation 3D de l’ensemble du territoire. Cette cartographie en continu permettra de faire jouer des simulations, utiles notamment pour des projets d’aménagement d’énergies renouvelables ou pour évaluer le niveau ou le débit d’eau en rivière, la croissance des forêts ou la consommation des sols. Le jumeau numérique, porté avec l’INRIA et le Cerema, est encore au stade de pré-projet.
A travers les parties de cet atlas Cartographier l’anthropocène 2023, l’IGN détaille comment l’Institut est investi dans une double dynamique pour bâtir les référentiels souverains de demain : d’une part avec la consolidation de données socles fiables, indispensables à l’enrichissement des représentations thématiques (ressources en eau, fonte des glaciers, évolution des forêts, suivi des haies, recul du trait de côte, etc.) et d’autre part, avec l’intégration de technologies de pointe (données spatiales, IA, jumeaux numériques) pour coconstruire des solutions en réalité augmentée pour limiter l’étalement urbain, implanter des sources de production, d’énergies renouvelables, etc.
L’Institut national de l’information géographique et forestière (IGN) est un établissement public placé sous la tutelle des ministères chargés de l’écologie et de la forêt. Sa vocation est de produire et diffuser des données (open data) et des représentations (cartes en ligne et papier, géovisualisation) de référence relatives à la connaissance du territoire national et des forêts françaises ainsi que de leur évolution. A travers son école d’ingénieur, ENSG-Géomatique, et à ses équipes de recherche, l’institut cultive un potentiel d’innovation de haut niveau dans de multiples domaines (géodésie, forêt, photogrammétrie, intelligence artificielle, analyse spatiale, visualisation 3D, etc.).
En savoir plus : www.ign.fr
Contacts PresseJulie Dardelet : servicepresseign@ign.fr – Tél 06 33 85 96 83
Nous suivre : ign.fr – @IGNFrance – Instagram – Facebook IGNFranceCet article L’IGN publie son atlas des cartes de l’anthropocène 2023 dédié à l’occupation des sols est apparu en premier sur DécryptaGéo, l'information géographique.
-
15:00
CoverageJSON v1.0 Adopted as OGC Community Standard
sur Open Geospatial Consortium (OGC)The Open Geospatial Consortium (OGC) is excited to announce that version 1.0 of CoverageJSON has been approved by the OGC Membership for adoption as an official OGC Community Standard. CoverageJSON enables the development of interactive visualizations that display and manipulate spatio-temporal data within a web browser.
The key design goals for CoverageJSON are simplicity, machine and human readability, and efficiency in the storage and use of complex data.
Coverages and collections of coverages can be encoded using CoverageJSON. Coverage data may be gridded or non-gridded, and data values may represent continuous values (such as temperature) or discrete categories (such as classes of land cover).
This OGC Community Standard was an outcome of the European Union project “Maximizing the Exploitation of Linked Open Data in Enterprise and Science” (MELODIES), which ran from 2013 to 2016, and was released under a Creative Commons 4.0 License by the University of Reading. There are several widely-used open source implementations and libraries available. Furthermore, CoverageJSON is one of the encodings supported by the OGC API – Environmental Data Retrieval Standard.
CoverageJSON is based on the popular JavaScript Object Notation (JSON), and provides an effective, efficient format that’s friendly to web and application developers and consistent with the OGC API family of Standards.
CoverageJSON supports the efficient transfer of usable quantities of data from big data stores to lightweight clients, such as browsers and mobile applications. This enables straightforward local manipulation of the data by scientists and other users.
The simplest and most common use-case is to embed all the data values of all variables in a Coverage object within the CoverageJSON document to create a self-contained, standalone, document that supports the use of very simple clients.
Another simple use case is to put data values for each variable (parameter) in separate array objects in separate CoverageJSON documents that are linked from a parent CoverageJSON object. This is useful for a multi-variable dataset, such as one with temperature, humidity, wind speed, etc., to be recorded in separate files. This allows the client to load only the variables of interest.
A sophisticated use case is to use tiling objects, where the data values are partitioned spatially and temporally, so that a single variable’s data values would be split among several documents. A simple example of this use case is encoding each time step of a dataset into a separate file, but the tiles could also be divided spatially, like a tiled map server implementation.
As with any OGC Standard, the OGC CoverageJSON Community Standard is free to download and implement. Interested parties can learn more about, view, and download the Standard from OGC’s CoverageJSON Community Standard Page.
The post CoverageJSON v1.0 Adopted as OGC Community Standard appeared first on Open Geospatial Consortium.
-
14:58
Retrouvez les conférences du CNIG en vidéo
sur Conseil national de l'information géolocaliséeRetrouvez les conférences du CNIG en vidéo
-
12:46
Traitements et cartographie de l’information géographique (Cunty & Mathian, 2023)
sur Cartographies numériques
Avec la massification des données et la systématisation du référencement géographique de l’information, les cartes constituent aujourd’hui des enjeux importants, tant pour les spécialistes que pour les organismes d’aménagement, d’urbanisme ou le grand public. Cependant, si produire une carte peut paraître facile, le passage concret des données à une carte utile pour la question posée est jalonné par une succession d’opérations précises mobilisant des connaissances en divers domaines : statistique, géographie, cartographie, etc.
Claire Cunty, Hélène Mathian (dir.), Traitements et cartographie de l’information géographique, Isté éditions, 2023 (site de l'éditeur).
L’ouvrage présente une diversité d’enchaînements d’opérations à partir d’exemples variés. Chaque chapitre emprunte un chemin différent, explicitant les choix méthodologiques opérés en fonction du thème traité et du but poursuivi. Cette approche couvrant l’ensemble de la démarche de production d’une carte permettra à tout lecteur, qu’il soit étudiant, chercheur, enseignant ou aménagiste de comprendre les multiples rôles que la carte peut jouer dans des analyses de données géographiques.
Avant-propos et introduction Table des matières1. Cartes et graphiques pour explorer des relations statistiques2. Intégration de données hétérogènes et représentations cartographiques du Géoweb3. Données environnementales et objets cartographiques4. Cartographier et identifier les formes géographiques : l’exemple de la ségrégation5. Carte et modèle statistique pour explorer l’hétérogénéité spatiale6. Cartographier les phénomènes temporels7. Cartogrammes, anamorphoses : des territoires transformés8. Exploration, agrégation et visualisation spatiotemporelle de données massives
Les chapitres sont positionnés le long d'un continuum où sont identifiées les étapes-clés d'un cycle qui relie les données à la carte (cercle orange sur la figure ci-dessous). Les chapitres s'associent, se complètent, renvoient les uns aux autres.
« Carte des chapitres, ce qui les relie, les notions qui les jalonnent » (extrait de l'ouvrage, p. 16)
Claire Cunty est enseignante-chercheuse en géographie à l’Université Lumière Lyon 2, membre de l’UMR Environnement Ville Société. Ses recherches portent sur la conception et les usages des interfaces de géovisualisation d’informations spatiotemporelles ainsi que sur les approches numériques des cartes sensibles.Elle fait partie de l’équipe de pilotage du master Géographies Numériques des Universités Lyon 2 et Saint-Etienne.
Hélène Mathian est ingénieure CNRS en méthodes d’analyse spatiale à l’UMR Environnement Ville Société. Ses travaux intègrent la dimension spatiale dans les traitements et modèles statistiques, et la géovisualisation comme élément d’exploration des données géographiques et des dynamiques spatiales. Elle fait partie de l’équipe de pilotage du master Géographies Numériques des Universités Lyon 2 et Saint-Etienne.
Articles connexes
Les systèmes d'information géographique. Principes, concepts et méthodes (Armand Colin)
La longue histoire qui va conduire à la cartographie numérique et aux débuts des SIG
Des sources aux SIG : des outils pour la cartographie dans les Humanités numériques
L'apport de la cartographie et des SIG pour évaluer l'accès aux vaccins contre le Covid-19
L'histoire des SIG open source et de leurs formats ouverts à travers une infographie interactive
« Cherche appartement pour habiter à Mumbai » ou comment s'initier à l'analyse spatiale avec un logiciel SIG
Jeu de données SIG sur le classement des métropoles mondiales
Cartographier le marché locatif de Beyrouth avec un SIG
Systèmes d'Information Géographique (SIG)
Fonds de cartes pour utiliser dans un SIG
-
12:16
Should we produce on demand, or globally ?
sur Séries temporelles (CESBIO)=>As the resolution of our satellite missions improve, the data volume of output products increases, and the share of the computing and storage costs of its products increases too.
Let’s assume we are preparing a new satellite mission, for instance a Sentinel-like mission, with the hope of potential use by operational or private users, as well as scientists, of course. These applications could be for instance: estimating yields, biomass, evapotranspiration, detecting crop diseases, deforestation or monitoring snow melt… These applications could be performed at continental, country or region scales.
This mission will acquire data globally, and produce each day at least a tera byte (TB) of products (L1C) which are then transformed into L2A, L2B, L3A… At the end of the satellite life, let’s assume the mission totals a dozen of peta bytes (PB) during the satellite lifetime, and requires 1000 cores to produce the data in near real time.
In the early stages of a mission, when the ground segment is being defined, the following question usually arises: which of the following choices should we select ?
- a global production, in near real time, with data stored indefinitely, reprocessed when a new better version is available,
- or a production on-demand, where the needed products are only generated when someone asks for them ?
In my opinion, the production should be global and systematic. Here’s why.
Processing costs: hardware Cost of global processingI am not a specialist, but I have colleagues who are, and who found the costs of a computer center of the size that would be necessary to process the data of a Sentinel-like mission with only one satellite. These costs include maintenance, power…
Storage Processing Per year 100 k€/PB/Year 100 k€/1000 cores/year Total/7years (3000 cores/12 PB) 4.2 M€ 2.1 M€ If we need up to 12 PB at the end of the 7 years life, it is almost zero at the beginning. Therefore, storing all the data requires an average of 6 PB during 7 years, or 4.2 M€. After the satellite end of life, data are still useful. As a result, storage should also go on, with the full cost of 12 PB. However, the data could be stored on tapes, with a longer access, but a much lower cost, and we can still hope storage costs and carbon footprint continue to decrease with time.
For a global production of medium resolution data with revisit, the need of processing capacity is at least 1000 cores. Of course it depends on the mission and methods used. It is also necessary to allow reprocessing (because who does a perfect processing at once ?), and a reprocessing needs to run at least 3 times faster than the real time processing. Even with such performances, the final reprocessing at the end of life takes two years ! As a result, at least 3000 cores are necessary, for a total of 2.1 M€ for seven years.
With 12 peta bytes and something like 3000 cores, we should have a total cost (including maintenance, energy…) in hardware around 7 M€. This is less than 5% of the cost of a one satellite Sentinel-like mission, but still a lot.
Cost of on-demand processingSizing the cost for an on-demand production is much more difficult, as it depends on how many users will ask for it. As a result, the selected solution will need monitoring and adaptability, and probably some over-sizing. Of course, there is a large cost reduction in storage, as only temporary storage is needed. In case of success, if each site is processed several times for different users, the processing cost might be greater than that of the systematic production.
Moreover, if data produced on-demand are not kept on the project storage, users will be attempted to store the on-demand products produced for them on their premises.
If we try to provide numbers, a capacity of less than 10% of the global and systematic production is necessary for the storage, and 20% to 50% for the processing.
Carbon budgetOutside the cost, the carbon budget of an on-demand solution is also much better. Most of the carbon, especially in France where electricity is low-carbon, comes from the hardware manufacturing. It is therefore probably proportional to the investment cost.
However, computation experts say that the CPU node has its best yield when it is used at least 80% of the time. As a result, the yield of nodes used for on-demand production, with random variations of production demands, would be lower than that of a well scheduled global production.
Of course it is essential to try to optimise the computing and storage volumes whatever the selected solution is.
Processing costs: the software and exploitationProcessing software is expensive too: you need a data base, a scheduler, processing chains, monitoring and control software. But whether it is for on demand or systematic global production does not change the cost much. On demand production is maybe a little more complex, as it means support for users, development of interfaces, documentations. But a global production in near real time requires complex monitoring solutions
Of course, hybrid solutions exist, processing one part of the globe systematically, and offering the remaining parts on demand. Regarding softwares, it is probably a bit more expensive as it requires implementing both solutions.
Pros and cons of each solutionBesides the costs, described above, each solution has its pros and cons :
Systematic production Advantages- Data are available everywhere without delay. Users may use these data efficiently with cloud solutions.
- Data can be harvested by other processing centers
- It is possible to create downstream products on large surfaces efficiently, with near real time processing if necessary.
- Comparison with older data is easy. Scientists like to observe trends, which can be difficult if you need to ask for a reprocessing before that.
- Data are always available on the mission servers, users do not need to save the data on their own disks, duplicating the archive
- Some of the regions produced might never be downloaded, processing capacity and storage can be used while not necessary. However, this drawback disappears as soon as there is a global production of some variable
- When a new version of processors is available, it takes a long time to reprocess and update the versions
- Larger cost (even if those are small amounts compared to the total cost of the mission)
- Larger carbon emissions (even if those are small amounts compared to the total carbon budget of the mission). Moreover, Sentinel-like mission data are used to try to monitor and reduce carbon emissions.
- Only the needed products are processed
- The processing can always be done with the last version
- Global reprocessing is not necessary
- Reduced cost (even if those are small amounts compared to the total cost of the mission)
- Reduced carbon emissions (even if those are small amounts compared to the total carbon budget of the mission)
- Processing takes time, all the more if some methods used to process data require to process them in chronological order (such as MAJA). In that case, a time series can’t be processed in parallel
- As data are not stored permanently on the project servers, processing on the « cloud » is not optimised. The data might be erased before the user who asked for them has finished his work. As a result, the user needs to download the data.
- Satellite telemetry usually comes in long chunks: processing even a small area of interest (AOI) requires accessing a large volume of data. This drawback is exacerbated for missions with a wide field of view, in which an AOI is seen from different orbits.
- It is hard to estimate the capacity and the computer power necessary to answer the demand. As a result, it requires studies of user demand, and the solution should be quickly adaptable, and maybe over-sized
- If the mission is a success, some regions or countries might have to be processed several times, reducing the gain of on-demand processing.
- On-demand processing prevents any global processing, or even continental scale processing. Even country scale might be problematic.
- Near real time processing is not possible
- Users might be deterred by the processing latency and decide to give up on the mission, or prefer another one, even if it is not the best choice for their application. This is especially important for new missions, where complexity in access might prevent the easy discovery of the interest of the data.
- The mission will not have the impact it might have had with systematic processing
The main advantage of on-demand production is its reduced cost. However, this cost remains small compared to overall mission cost. The carbon budget plays in favor of the on-demand too, but it is probably a small amount compared to the satellite budget. As a result, making full use of the satellite is probably better. And this is even truer if the satellite is used to monitor the environment and help taking decisions to reduce our carbon footprint. Anyway, processors and storage should be optimised of course.
On the other hand, the long list of drawbacks of on-demand processing speaks for itself. It would clearly result in a much less useful mission.
Of course there are hybrid solutions where some regions/countries/continents are processed systematically, and others on-demand. It only changes the proportions of pros and cons of each solution, and may introduce difficulties in case of change of versions between each type of processing.
To conclude, in my opinion, on-demand processing is only interesting if we plan that that mission will not be a success among users. But in that case, do we really need that mission ?
-
9:40
« Si la nature dessinait une carte du monde, à quoi ressemblerait-elle ? » (Bioregions 2023)
sur Cartographies numériques
« Si la nature dessinait une carte du monde, à quoi ressemblerait-elle ? ». Nous sommes habitués à voir le monde divisé en pays, États et provinces, mais il existe une autre façon de voir et de mieux comprendre la planète dans laquelle nous vivons. One Earth présente un nouveau cadre biogéographique appelé Bioregions 2023, qui délimite 185 biorégions organisées au sein des principaux domaines biogéographiques du monde.
Une nouvelle carte de la Terre créée en croisant des biomes avec des structures géologiques
à grande échelle et des groupements écorégionaux (source : Bioregions 2023)
Télécharger la carte (6 Mo). Crédit : Karl Burkart, One Earth
Les biorégions et les espèces emblématiques associées à chacune peuvent être explorées via un navigateur interactif en 3D.Une biorégion est une zone géographique définie non pas par des frontières politiques mais par des systèmes écologiques. Une biorégion est plus petite qu’un domaine biogéographique mais plus grande qu’une écorégion ou un écosystème. Sur Terre, le cadre biorégional le plus répandu est le « biome » (parfois appelé « écozone »), une vaste communauté de plantes et d'animaux adaptés aux conditions climatiques spécifiques que l'on retrouve sur divers continents. Il existe 14 principaux types de biomes.
Cartes à télécharger en haute résolution (format jpeg) :- Carte des 14 principaux biomes de la Terre
- Carte des 185 biomes de la Terre
- Carte des 844 écorégions terrestres de la Terre
- Carte des 52 sous-domaines du cadre Biorégions 2023
- Carte des 62 écorégions marines du monde
One Earth est une organisation à but non lucratif qui s'efforce d'accélérer l'action collective pour résoudre la crise climatique. Les solutions à la crise climatique existent déjà, et les dernières recherches scientifiques menées par One Earth montrent que "l'on peut atteindre l'objectif critique de 1,5°C grâce à trois piliers d'action collective" :- Une transition juste vers une énergie 100 % renouvelable ;
- Protection et restauration de la moitié des terres et des océans de la planète ;
- Un passage à des systèmes alimentaires à consommation zéro nette.
Articles connexes
Données SIG sur les écorégions terrestres (Resolve et OneEarth)
Une carte mondiale des types d'habitats terrestres
Atlas de l'Anthropocène : un ensemble de données sur la crise écologique de notre temps
Les territoires de l'anthropocène (cartes thématiques proposées par le CGET)
Feral Atlas, une exploration de l’Anthropocène perçu à travers la féralisation
Le calcul de l'IDH prend désormais en compte le calcul des pressions exercées sur la planète (IDHP)
Paul Crutzen et la cartographie de l'Anthropocène
-
9:32
The 10 Day Fall Color Forecast
sur Google Maps ManiaThe Fall Foliage Map 2023 is an interactive fall foliage map which is updated daily to provide you with both an accurate progress report of fall colors and a forecast of how fall colors in the United States are likely to change over the next ten days. According to Explore Fall the main factors influencing fall colors are the temperature and daylight. The Explore Fall predictive fall color model
-
9:17
Le Centre de recherche sur l’épidémiologie des catastrophes
sur Veille cartographieCet article Le Centre de recherche sur l’épidémiologie des catastrophes est apparu en premier sur Veille cartographique 2.0.
Ce centre travaille sur deux axes principaux qui sont les suivants : les catastrophes naturelles ainsi que les conflits pouvant toucher les populations sujettes aux événements. Il étudie les crises et urgences humanitaires qu’elles soient socio-économiques, sur les questions de genre ou encore environnementales dans un but d’éditer des rapports mais aussi d’aider les populations […]
Cet article Le Centre de recherche sur l’épidémiologie des catastrophes est apparu en premier sur Veille cartographique 2.0.
-
22:10
AstriaGraph : exemple de cartographie orbitale (3/4)
sur Veille cartographieCet article AstriaGraph : exemple de cartographie orbitale (3/4) est apparu en premier sur Veille cartographique 2.0.
Par NICOLX (Nicolas Le Maux) Introduction Les déchets anthropiques de toutes sortes polluent désormais l’espace. Ils proviennent de l’essor du domaine spatial : déploiement de nombreuses sondes, lanceurs, satellites et autres projets militaires. De telle sorte que les différentes agences spatiales étudient comment nettoyer l’horizon orbital. La cartographie des débris et autres corps en orbite présente […]
Cet article AstriaGraph : exemple de cartographie orbitale (3/4) est apparu en premier sur Veille cartographique 2.0.
-
21:46
Wayfinder : exemple de cartographie orbitale (2/4)
sur Veille cartographieCet article Wayfinder : exemple de cartographie orbitale (2/4) est apparu en premier sur Veille cartographique 2.0.
Par NICOLX (Nicolas Le Maux) Présentation Wayfinder est une application lancée par Steve Wozniak, cofondateur d’Apple. Elle est mise en ligne depuis début 2022. Elle permet de suivre en temps quasi réel l’évolution des débris et des engins gravitant autour de la Terre. Le but était d’aider « l’humanité à traiter l’environnement spatial comme si nos […]
Cet article Wayfinder : exemple de cartographie orbitale (2/4) est apparu en premier sur Veille cartographique 2.0.
-
18:45
QGIS Blog: Call for Proposals: QGIS Website Overhaul 2023/2024
sur Planet OSGeoBackgroundOur web site ( [https:]] ) dates back to 2013, it is time for a revision!
As well as modernizing the look and feel of the site, we want the content to be updated to represent changes in the maturity of the project.
We want to appeal to new audiences, especially business and NGO decision makers (in particular the experience for the front pages), whilst still maintaining appeal to grass roots users (especially the lower level pages which contain many technical details and community collaboration notes).
We want to enhance our fund raising efforts through a site that encourages people to contribute to, as well as take from, the project.
Existing effortFirst some key links:
- Current web site: [https:]
- Design for new web site landing page: [https:]]
- Design for new web site (figma): [https:]]
- Code for new web site (what we have built so far): [https:]]
- Plugins web site: [https:]]
- QGIS Documentation Site: [https:]]
- QGIS User Manual: [https:]]
- QGIS Server Manual: [https:]]
- Gentle Introduction to GIS: [https:]]
- QGIS Python Cookbook: [https:]]
- QGIS C++ API Documentation: [https:]]
- QGIS Python API Documentation: [https:]]
- QGIS Certification and Changelog: [https:]]
The above websites were created with a mix of technologies:
- Sphinx (rst)
- Doxygen
- Custom Django Apps
It will not be possible to unify the technology used for all of the above sites, but we want all of the web sites to have a cohesive appearance and the navigation flow between them to be seamless. For the main website at [https:]] and its child pages, we want to re-implement the site to provide a new experience – according to the design we have laid out in our figma board. Note that we want to follow this design. Some small tweaks will be fine but we are not looking for a ‘from scratch’ re-implementation of our design.
This will be our website for the next 10 years – you need to hand it over to us in a way that we can continue working on it and maintaining it without your intervention.
We are calling for proposals to help us with this migration as per the phases described below.
Phase 1?: Project planning- Timeline
- Proposed site structure
- What content will be kept
- What will be removed
- What is new to be added
- Keep front page as starting point
- Suggest tweaks if needed
- Establish a clear vocabulary of page types
- Second and third level page design
- Special pages such as
- Download
- Release countdown
- Donation / sustaining members
- Gallery
- and any other you identify as non-standard second/third level
- Guidance and standards for producing visuals like screenshots etc. For example, how we present QGIS screenshots in a flattering way.
- Establish a plan for auxiliary sites:
- Plugins.qgis.org
- Api.qgis.org
- Docs.qgis.org
- etc. (see intro for more exhaustive list)
- Iterative review and feedback from the QGIS web team should be incorporated from biweekly check in calls.
Outcome: We have a clear roadmap and design guide for migrating all of our websites to a consistent unified experience.
Phase 2?: Content migration of the main siteDuring this phase the contractor will focus on migrating the content of the main site to the new platform.
There will be an iterative review and feedback from the QGIS web team should be incorporated from biweekly check-in calls.
Outcome: [https:]] new site goes live! (Target date end of February 2024)
Phase 3?: Auxiliary sites migrationsThis is out of scope of the current call for proposals but should be part of the overall planning process:
This would be a collaborative process involving a QGIS funded web developer and the consultant.
Iterative review and feedback from the QGIS web team should be incorporated from biweekly check in calls.
Outcome: Auxiliary sites goes live with a cohesive look and feel to match the main site.
What we will provide- Maps and screenshots, videos, animations (with inputs from design team)
- Inputs in terms of content review
Must have an established track record of website design and content creation.
Individuals or companies equally welcome to apply.
Any potential conflict of interest should be declared in your application.
Discussions will happen in English, with live discussions as well as written communication via issues or Pull request. Being reasonably fluent in English and understand the soft skills required to interact in a community project will be more than appreciated
Payment milestones10 % Kick off
40 % Phase 1 Completion
50 % Phase 2 Completion
Indicative budgetWe would like to point you to the QGIS Annual Budget so that you have a sense of our broad financial means (i.e. we will not be able to afford proposals in excess of €25,000 for phase 1+2).
Technology choices and IP:- Must be wholly based on Open Source tooling (e.g. javascript, css, web frameworks)
- Needs to be ideally implemented in Hugo (or Sphinx)
- Must produce a static web site (except for existing django based sites)
- Publication and development workflow will follow standard pull request / review process via our GitHub repositories
- Mobile friendly
- Site will be english only – any auto-translation tooling that can be added so that users can trivially see an auto-translated version of the site will be considered favourably.
Your proposal should consist of no more than 5 pages (include links to relevant annexes if needed) covering the following:
- Overview of yourself / your organization
- Delivery timeline
- Team composition
- Budget for each phase
- Examples of prior work
- Bonus things to mention if relevant: GIS experience & working with Open Source projects
Please send your proposal to finance@qgis.org by October 29nd 2023 midnight, anywhere on earth.
-
13:30
Ma Carte : Un guichet cartographe du service public
sur Toute l’actualité des Geoservices de l'IGNMa Carte, outil en ligne de création et de publication de cartes, ouvert et mis à disposition de tous par l’IGN, s’enrichit de nouvelles fonctionnalités.
-
11:34
CLUB SIG, chaque midi du 9 au 13 octobre : découvrez le programme
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa rédaction de SIGMAG SIGTV.FR vous donne rendez-vous du lundi 9 octobre au vendredi 13 octobre, sur le [LIVE +] SIG 2023, le Géo évènement organisé par Esri France et ses partenaires. Tous les jours en direct de Meudon, à partir de 12h30, la rédaction de SIGMAG SIGTV.FR accueille géomaticien(ne)s et partenaires, intervenants ou participants à la conférence francophone Esri, pour environ 50 minutes d’émission : un échange sur leur actualité, leur passion et tout ce qui fait le succès de la conférence !
Vous aussi, venez échanger et dialoguer avec eux et leur poser vos questions via le Chat de l'évènement.
Découvrez dès le lendemain les émissions et les interviews séparés en rubrique CLUB SIG de SIGTV.FR
Inscrivez vous au Géo évènement et participez ainsi au premier rendez-vous francophone des géomaticien(ne)s
[https:]]
Découvrez les invités CLUB SIG des prochaines émissions CLUB SIG #32 - Lundi 9 octobre 2023- Stéphane Moisy, Responsable d’études Cartographie et Administration SIG Expert - OTE Ingénierie
- Seckou Sadio, Chef du service SIG - Chartes Métropole / Ville de Chartres
- Nathalie Orlhac, Référent SIG expert - CCR
- Jonathan Sidgwick, Responsable SIG - Communauté d’agglomération du Grand Montauban
- Jean-Baptiste Henry, Pilote du programme solution Imagerie - Esri France et Matthieu Dein, ingénieur solution Défense - Esri France
- Benoit Leconte, Chef de projet géomarketing - Pickup Services
- Pierre Fauvel, Chef de projets numériques / Responsable SIG - Direction Patrimoine et Archéologie Ville de Nantes
- Fabrice Poullin, Responsable du pôle SIG - Conseil Départemental de l’Aisne
- Camille Vedel, Digital Project Manager - Citec
- Pauline Louis, ingénieur marketing produits gamme développeur Experience Builder - Esri France
- Sylvain Blondeau, Cartographe - Rectorat de Versailles
- Rony Gal, Président Géo J’aime
- Étienne Verkindt, Conseil Départemental de l’Aisne
- Stanislas Pachulski, Responsable Pôle Éducation Recherche - Esri France
- Antoine Herzog, Responsable du pôle Support Technique - Direction de l’immobilier et de la logistique Université de Rennes
- Raynald Garnier, Responsable marketing produits - Esri France
- Pierre Haski, journaliste chroniqueur géopolitique - France Inter, Président Reporter sans frontières (séquence uniquement disponible dans la version complète de l'émission)
- Zoé Sabourin, Analyste SIG - Pomerleau
- Aurélien Berings, Responsable SIG - Groupe Saur
- Dominique Louis, Responsable du service Données et informations géographique - Région Nouvelle-Aquitaine
- Frédéric Schettini, Directeur Innovation Digitale - Citec
- Sophie Gerland - Consultante avant-vente et marketing produits Indoors - Esri France
- Laurence Devillers, professeur en sciences appliquée aux sciences sociales - Université Paris-Sorbonne 4 (séquence uniquement disponible dans la version complète de l'émission)
- Louisette Rasoloniaina, Assistante-professeur et Doctorante - École Nationale Supérieure Paris Val de Seine (ENSPVS)
- Luc Baudoux, Analyste catastrophes naturelles - CCR
- Pierre Pellefigue, Chef du service Données et Usages Numériques - CA Grand Auch Cœur de Gascogne / Ville d’Auch
- Marie Beeckmann, Chef de projet - CartONG
- David Jonglez, Directeur du Business Development - Esri France
-
10:21
L’intérêt de la télédétection dans la surveillance du niveau moyen des mers
sur Veille cartographieCet article L’intérêt de la télédétection dans la surveillance du niveau moyen des mers est apparu en premier sur Veille cartographique 2.0.
Alors qu’ils couvrent plus de 70 % de la surface terrestre, les océans jouent, entre autres, un rôle crucial pour l’équilibre climatique de la planète. Depuis quelques décennies, les marégraphes, instruments mesurant le niveau moyen des mers depuis le 19e siècle enregistrent une montée des eaux « à une vitesse de l’ordre de 2 mm par […]
Cet article L’intérêt de la télédétection dans la surveillance du niveau moyen des mers est apparu en premier sur Veille cartographique 2.0.
-
10:04
Shilling for Putin
sur Google Maps ManiaThe Insider ('fully committed to investigative journalism and to debunking fake news') has created a new interactive map which exposes the 'fake experts' around the world that are spreading pro-Kremlin fake narratives and Russian propaganda. The Insider claims that what "unites the individuals featured on this map is their attempt to portray Putin's policies positively while disseminating
-
9:01
Organic molecules’ cartography, Mars : the most recent updates from Perseverance rover
sur Veille cartographieCet article Organic molecules’ cartography, Mars : the most recent updates from Perseverance rover est apparu en premier sur Veille cartographique 2.0.
By NICOLX (Nicolas Le Maux) Introduction Mars 2020 is a space mission which consists of deploying the Perseverance rover on Martian soil to study its surface and collect soil samples. This Mars exploration mission is being developed by JPL (NASA). It constitutes the first in a series of three missions whose final objective is to […]
Cet article Organic molecules’ cartography, Mars : the most recent updates from Perseverance rover est apparu en premier sur Veille cartographique 2.0.
-
15:10
Rapport annuel 2023 du Haut conseil pour le climat « Acter l’urgence, engager les moyens »
sur Cartographies numériquesLe Haut conseil pour le climat (HCC) est un organisme indépendant chargé d’évaluer la stratégie du gouvernement en matière de climat, et sa cohérence avec les engagements européens et internationaux de la France, en particulier l’Accord de Paris, l’atteinte de la neutralité carbone en 2050, et le respect des budgets carbone de la France.
En 2022, année record avec +2,9°C de température moyenne en France, le changement climatique a eu des impacts graves sur les personnes, les activités économiques, les infrastructures et les écosystèmes. Les dispositifs de prévention et de gestion de crise n’ont pas permis d’éviter toutes ces conséquences. La France n'est manifestement pas prête à faire face aux effets du changement climatique (avec un réchauffement qui pourrait atteindre +4°C en 2100).
Le réchauffement futur dépendra des émissions futures de GES (source : rapport 2023 du HCC)
Le rapport grand public rendu par le Haut Conseil pour le Climat (HCC) présente, en 16 pages illustrées, une analyse des impacts récents du changement climatique ainsi qu'un suivi des émissions des Gaz à effets de serre (GES) et des politiques associées. Le rapport ne se contente pas d'un état des lieux mais propose aussi des recommandations :
- Connaître et anticiper les impacts du changement climatique. Les nombreux impacts liés aux conditions climatiques de l’année 2022 soulignent l’importance de renforcer conjointement les dispositifs de gestion de crise et ceux de prévention, et d'anticiper les années extrêmes au sein desprojections climatiques.
- Opérationnaliser l’adaptation au changement climatique. Les politiques d’adaptation doivent changer d'échelle en France, en s’appuyant sur la trajectoire de référence de +4°C, en tenant compte des coûts d’adaptation pour les finances publiques et privées, et en améliorant le suivi de l’action publique d’adaptation et l’évaluation de son efficacité.
- Systématiser le cadre d’action public. Le cadre stratégique qui se construit doit être mis en œuvre de manière opérationnelle et systématique. La nouvelle stratégie climatique (SFEC) est l’occasion de préciser les engagements de la France afin de renforcer leur portée.
- Engager les moyens nécessaires. La politique économique permettant de déclencher les changements nécessaires à l’atteinte des objectifs climatiques doit être renforcée, y compris la politique budgétaire, fiscale, commerciale, industrielle et de l'emploi, tout en accompagnant les plus vulnérables dans un esprit de transition juste.
- Prioriser le déploiement des énergies renouvelables et les mesures de sobriété. La France doit consolider les mesures de sobriété structurelles prises cette année, et poursuivre les efforts pour formuler et appliquer des mesures structurelles qui encouragent la sobriété énergétique des infrastructures et des usages de manière systématique pour tous les secteurs émetteurs.
- Relancer la dynamique internationale. La France peut œuvrer au développement d'un plan d'investissement climat européen. Au niveau international, elle peut préparer sa position pour la COP28, et œuvrer à un meilleur suivi des engagements internationaux qu’elle soutient
Ressources pédagogiques à télécharger
Articles connexes
Renforcer l'atténuation, engager l'adaptation (3e rapport du Haut Conseil pour le climat - 2021)
Quels sont les États qui ont le plus contribué au réchauffement climatique dans l’histoire ?
Comment la cartographie animée et l'infographie donne à voir le réchauffement climatique
Aborder la question de l'inégalité des pays face au changement climatique
Analyser et discuter les cartes de risques : exemple à partir de l'Indice mondial des risques climatiques
Les plus gros émetteurs directs de CO² en France
La pollution de l'air est la première menace mondiale pour la santé humaine (rapport de l'EPIC, août 2023)
Quand la lutte contre les émissions de CO² passe par la dénonciation des entreprises les plus concernées
Le tourisme international et son impact sur les émissions de CO²
Qualité de l'air et centrales thermiques au charbon en Europe : quelle transition énergétique vraiment possible ?
- Connaître et anticiper les impacts du changement climatique. Les nombreux impacts liés aux conditions climatiques de l’année 2022 soulignent l’importance de renforcer conjointement les dispositifs de gestion de crise et ceux de prévention, et d'anticiper les années extrêmes au sein desprojections climatiques.
-
12:43
Concours carto : Qui aura la plus belle carte ?
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLaisser libre court à sa créativité dans le but de représenter des enjeux d’actualités via la cartographie, là est l’objectif du traditionnel Concours Carto en partenariat avec le fonds de dotation Géo J'aime. Pour cette nouvelle année, les élèves de CM/6e-5e et SEGPA-ULIS sont invités à participer au Concours Carto Imaginaire autour du thème «Habiter un territoire face aux risques naturels». Pour apporter des réponses aux risques climatiques rencontrés par les territoires, l’idée est de réfléchir à des solutions d’aménagement afin de prévenir soit les épisodes de sécheresse, soit les inondations ou les séismes.
Basé sur l’article de Marie de Vergès paru dans le journal Le Monde le 20 mai 2023 , «Le Ghana, poubelle de la «fast fashion» mondiale», le volet Carto d’Actualité propose de réaliser une ou plusieurs cartes en récoltant les informations de cette publication. Ce sont les jeunes de 4e à ceux de Seconde qui relèveront le défi.
Les Premières et Terminales sont invitées à participer au Concours Carto Géoimage. Il consiste à développer un schéma depuis une image satellite de «La frontière entre les États-Unis et le Mexique à Calexico/Mexicali: mur, villes jumelles, maquiladoras, cartels et drogue».
Dans le cadre de projets de classe ou en laissant carte blanche aux étudiants l’ambition est la même pour tous : produire les croquis les plus pertinents et parlants visuellement !
Toutes les instructions ainsi que la marche à suivre sont disponibles sur le site Web de l’association sur les dossiers enseignants et élèves. L’équipe peut également répondre aux demandes via l’adresse mail concourscarto@gmail.com
Les inscriptions sont ouvertes jusqu’au 15 décembre 2023 pour une remise des travaux avant le 16 février 2024. Parez-vous d’imagination, de réflexion et faites parler le potentiel de la cartographie.
+ d'infos :
concourscarto.com
geojaime.org
-
11:05
Exploiter les données Lidar HD de l'IGN dans ArcGIS - Episode 15
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierAprès quelques mois de pause, je poursuis ma série de vidéos consacrées à l'exploitation des données LiDAR HD de l'IGN dans ArcGIS. Avec la mise en ligne des dalles de LiDAR HD classés, l'IGN a décidé d'utiliser le format COPC LAZ pour le téléchargement et le streaming de ces données. Le format COPC LAZ (Cloud Optimized Point Cloud) est aujourd'hui une spécification ouverte basée sur le format LAZ 1.4 mais n'est pas un standard. Cependant, les outils de conversion de données LiDAR d'ArcGIS Pro sont souples et proposent les options qui permettent de les convertir correctement dans les formats standards LAS, LAZ ou même ZLAS (format compressé d'Esri). Aujourd'hui, dans cet épisode 15, je vous montre donc comment télécharger puis intégrer ces nouveaux fichiers COPC LAZ de l'IGN. Tout cela, en utilisant ArcGIS Pro.
La vidéo est accessible ci-dessous et le reste de la série se trouve ici.
A très bientôt pour la suite...
-
9:37
The October Solar Eclipse Map
sur Google Maps ManiaIn 12 days time people in North, Central, and South America will be able to experience a solar eclipse. On Saturday, Oct 14 an annular solar eclipse will occur which will be visible in some areas of the United States, Mexico, and a number of countries in Central and South America. NASA's 2023 Solar Eclipse Explorer is a new interactive map which visualizes the path of the solar eclipse on Oct
-
9:30
Is a dense city a healthy city? A preliminary study on the interplay between urban density and air quality in Oran, Algeria
sur CybergeoThe general consensus is that dense cities are more sustainable. However, high urban density or compact urban form may affect the health of city dwellers, more particularly when compactness is not associated with the provision of mass transit systems. This paper analyses the correlation between urban density indicators and air pollution in Oran (Algeria), a city that suffers a lack of public transport. It assesses the density of green space needed to reduce airborne pollutants in cities. The paper also examines the impacts of exposure to air pollution on respiratory mortality using a quantitative health impact assessment methodology. Findings show that population density and building density strongly correlates with air pollution, due to motorized transport and other human activities (e.g. industries, residential heating or lacking green space). Results indicate that for population density greater than 12100 inhabitants/ha with associated values exceeding 100 for building density an...
-
9:30
Contribution of maritime surveillance data to French Maritime Spatial Planning: between technical potential and political constraints
sur CybergeoMaritime Spatial Planning (MSP) is widely recognised around the world as a lever for sustainable development at sea. In practice, it is a new form of negotiation for the use of maritime space and its resources. To support shared decision-making, MSP requires information on the spatiotemporal dynamics of existing maritime activities. In this context, maritime surveillance, operated in real-time by the State (defence, fisheries monitoring) is a strategic source of data (AIS, VMS and radar) and information for planning purposes. While these data are growingly used by the scientific community, their contributions to MSP remains marginal. This article identifies the main reasons for this, drawing on 38 semi-directive interviews with French MSP stakeholders. It highlights two obstacles to the use of data for MSP: a) a limited accessibility of data for many actors, especially public ones and; b) a lack of acceptability on the part of historical users of maritime space when faced with their...
-
9:30
Le péage urbain de Tromsø, l’urbanisme durable à l’épreuve de la périphéricité arctique
sur CybergeoL’article s’intéresse au processus d’instauration du péage urbain de Tromsø, dont l’adoption très tardive (2021) pose question dans un pays qui a fait de l’exemplarité environnementale un levier d’intégration mondiale. L’article propose une lecture géohistorique du processus d’adoption du péage au prisme des relations centre-périphérie, explorant les racines de la rétivité locale aux principes nationaux de l’urbanisme durable et s’attachant à comprendre l’attachement singulier des habitants à l’automobile. À l’heure où ailleurs en Europe, la reconfiguration des relations centre/périphérie marque une autonomisation des villes face à la tutelle étatique, l’établissement du péage urbain de Tromsø se singularise par le maintien d’une forte dualité entre la centralité méridionale et sa périphérie septentrionale. L’instauration du péage signe la fin d’un régime particulier accordé à la municipalité par l’État, et révèle le changement de statut de la ville, passée, malgré elle, de marge se...
-
9:30
Contribution des données de surveillance maritime à la Planification de l’Espace Maritime français : entre potentiels techniques et contraintes politiques
sur CybergeoLa Planification de l’Espace Maritime (PEM), plébiscitée autour du globe comme un levier du développement durable en mer, s’illustre en pratique comme une nouvelle forme de négociation pour l’usage de l’espace maritime et de ses ressources. Pour alimenter et conforter la prise de décisions partagées, la PEM suscite un fort besoin d’information sur les dynamiques spatiotemporelles des activités maritimes existantes. Dans ce contexte, la surveillance maritime opérée en temps réel par l’État (défense, suivi des pêches) s’inscrit comme une source stratégique de données (AIS, VMS et radar) et d’informations au profit de la planification. Si l’exploitation de ces données fait l’objet d’un intérêt croissant de la part de la communauté scientifique, leur contribution effective à la planification en mer demeure marginale. Cet article en identifie les principales raisons à partir d’une enquête par entretiens semi-directifs réalisée auprès de 38 acteurs de la PEM française. Il met en lumière d...
-
9:30
La dialectique entre activités informelles et action de l’État dans la construction territoriale des grands espaces : le cas de l’orpaillage dans l’intérieur de la Guyane française
sur CybergeoLes grands espaces, ou régions faiblement peuplées, se distinguent par une série de caractéristiques spécifiques et notamment par un contrôle incomplet de la part des États. Cela ouvre des brèches pour l’exercice de pratiques qui, si elles sont ou illégales ou à la limite de la légalité, apportent des ressources économiques, des connaissances sur les territoires concernés et participent finalement à la domination, voire à la conquête des zones concernées par les États. Bien qu’invisibles ou réprimées, ces activités informelles influencent donc, directement ou indirectement, la construction officielle, symbolique et matérielle du territoire. Cet article analyse la pratique de l’orpaillage en Guyane selon cette perspective. En analysant le jeu dialectique entre contrôle formel du territoire et exploitation informelle des ressources, il met en relief la contribution des activités informelles à l’exploration, à la formation des frontières et à la gouvernance de l’intérieur de ce territo...
-
9:30
Alexandre Grondeau, Altermétropolisation : une autre vi(ll)e est possible, Aix-en-Provence, La Lune sur le toit, collection Hic et nunc, 2022, 337 p.
sur CybergeoLa photographie en couverture de l’ouvrage illustre ce qu’Alexandre Grondeau identifie comme une "schizophrénie urbaine" : la dissociation extrême entre deux espaces proches, un immeuble d’apparence luxueuse et des habitations faites de briques et de tôles. Cette opposition iconique entre un quartier aisé et une favela de São Paulo a été immortalisée par le photographe brésilien Tuca Vieira en 2007, comme symbole des inégalités extrêmes induites par la métropolisation contemporaine. Se posant comme "clinicien" de ces villes métropolisées, Alexandre Grondeau se propose alors d’en analyser les causes et symptômes, permettant d’envisager des remèdes à sa question centrale : comment faire advenir une autre ville ?
À la croisée entre l’ouvrage de synthèse et l’essai universitaire, ce livre interroge l’avenir des espaces urbains, partant de ce que l’innovation (tant technologique que sociale) fait (et peut faire) aux territoires. Actuellement maître de conférences habilité à diriger des re...
-
9:30
Sergio J. Rey, Rachel S. Franklin (eds), 2022, Handbook of spatial analysis in the social sciences, Cheltenham, Northampton, Edward Elgar publishing, 568 p.
sur CybergeoQuel plaisir constitue la lecture de cet ouvrage pour tout amateur d’analyse spatiale quantitative. C’est l’acception disciplinaire (et non technique) de l’analyse spatiale qui est privilégiée ici, celle des théories, des concepts et des méthodes permettant de mieux comprendre les localisations d’objets et de processus sociaux. Si vous cherchez des algorithmes de géotraitements pour votre SIG, passez votre chemin. À la fois très complet, rigoureux, pédagogique, ce livre, édité par Sergio J. Rey (Professeur à l’Université de Californie et directeur du Center for geospatial sciences) et Rachel S. Franklin (Professeure de géographie à l’Université de Newcastle et éditrice-en-chef de la revue Geographical analysis), compile le travail de synthèse de 51 auteurs (dont Roger Bivand, Luc Anselin, Michael Goodchild, Alan T. Murray, Stewart Fotheringham, et d’autres grands noms de la géographie quantitative) à travers 33 chapitres. Si certains de ces chapitres présentent des concepts ou des m...
-
9:30
Géographicité et immersion : La réalité virtuelle pour voyager dans le passé
sur CybergeoLe principe de l’immersion participe depuis le XIXe siècle du succès de nombreuses attractions visuelles, à l’exemple du cinéma, et a atteint une dimension inédite avec les dispositifs de réalité virtuelle à destination du grand public. C’est en particulier parce qu’elle permet d’interagir avec l’environnement simulé, et par le puissant effet de réel de son dispositif, que cette technologie est utilisée en contexte muséal. Outre les perspectives que son usage ouvre en termes de conservation, sa capacité à déplacer le visiteur ailleurs et dans un autre temps invite à l’interroger en termes de géographicité : son caractère immersif relève-t-il d’une "valence organisatrice de l’espace" ? Ou ne relève-t-il que d’un simple effet, aussi spectaculaire soit-il ? Cet article vise à identifier les modalités d’appropriation spectatorielle de cette technologie en contexte patrimonial, à partir d’un travail ethnographique mené sur le site d’une installation de réalité virtuelle présentée au musé...
-
9:30
Karl R. Kegler, 2015, Deutsche Raumplanung. Das Modell der "Zentralen Orte" zwischen NS-Staat und Bundesrepublik, Paderborn, Ferdinand Schöningh GmbH, 648 p.
sur CybergeoCe livre est la version révisée d’une thèse soutenue à l’université d’Aix-la-Chapelle le 10 juin 2011 sous la direction de Gerhard Fehl, fondateur de la chaire de théorie de la planification à l’Université technique de Rhénanie-Westphalie d’Aix en 1971. L’ouvrage a fait l’objet de recensions en allemand et en anglais, mais pas encore en français. Karl R. Kegler est depuis 2015 professeur à la faculté d’architecture de l’Université de Munich, où il enseigne l’histoire et la théorie de la ville et de l’architecture. Outre son enseignement, il travaille actuellement sur le lien entre la planification et les crimes commis par l'État nazi dans les territoires occupés d'Europe de l'Est.
Son ouvrage lie histoire, géographie, aménagement du territoire et architecture. Il témoigne de ses deux domaines de spécialisations, l’histoire d’une part et l’architecture d’autre part. Cette double formation lui permet de formuler son hypothèse de base : le "modèle" christallérien est tellement erroné qu...
-
9:30
Mapping the urban climate to address summer comfort management in French urban planning documents
sur CybergeoIn France, the integration of climate and energy issues in the spatial planning tools of local authorities is compulsory for cities with more than 20000 inhabitants. Through the example of Toulouse Metropole, the interdisciplinary work here presented make use of the available geographic and climatic data to perform spatial microclimatic diagnostics and its translation into recommendations to address thermal summer comfort. Analysis maps and strategic maps for daytime and night time are presented for thermal and aeraulic analysis taking advantage of available numerical simulations at 250x250 m, one year of duration and local weather type classifications. A three years long collaboration with the local authority and the urban agency allowed the co-construction of the cartographic protocol and the publication of an Atlas as well as a set of guidelines. Collaboration with a network of French cartographers allowed original propositions on graphic semiology as visual organization, the cho...
-
9:07
Ecouter le monde: une cartographie des ambiances sonores
sur Veille cartographieCet article Ecouter le monde: une cartographie des ambiances sonores est apparu en premier sur Veille cartographique 2.0.
Mené par cinq personnes qui ont en commun dans leur différent métier le son, le projet “écouter le monde”, propose de raconter, à travers les sons enregistrés dans différentes villes du monde, l’histoire du lieu. Monica Fantani (auteure à Radio France Internationale) s’est associée avec Paola Zavagna (compositrice et professeur de musique électroacoustique, Séverine Janssen […]
Cet article Ecouter le monde: une cartographie des ambiances sonores est apparu en premier sur Veille cartographique 2.0.
-
8:30
Navigae : un outil polyvalent pour valoriser et visualiser les données géographiques patrimoniales
sur MappemondeNavigae est une plateforme de recherche permettant de consulter des données issues de travaux en géographie et de valoriser la dimension spatiale des données. Elle permet de diffuser et de visualiser des données numériques issues de structures de recherche ou de bibliothèques, selon des modes d’interrogation et de visualisation cartographique. Son objectif est de favoriser l’ouverture des données grâce à de nombreux services d’exposition et de récupération de données, ainsi qu’à travers un travail de curation permettant la conservation, la maintenance et l’enrichissement des données des différents fonds documentaires géographiques présents dans la plateforme.
-
8:30
UD-SV : Plateforme d’exploration de données urbaines à n-dimensions — Espace, Temps, Thématiques
sur MappemondeCet article présente la plateforme UD-SV (Urban Data Services and Visualization) développée au laboratoire LIRIS. UD-SV regroupe un ensemble de composants s’appuyant sur du code ouvert permettant de stocker, de visualiser, d’interagir, de naviguer et d’interroger des modèles de villes 2D et 3D, mais aussi temporels. UD-SV permet d’intégrer des données spatiales, temporelles et sémantiques pour l’analyse urbaine et pour la compréhension de son évolution. Nous décrivons l’architecture, la conception, le développement et nous exemplifions avec quelques processus de calcul de UD-SV.
-
8:30
Geodatadays 2022
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis trois ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartites (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
8:30
Augustin J.-P. et Gillon P., 2021, Les jeux du monde. Géopolitique de la flamme olympique
sur MappemondeJean-Pierre Augustin de l’Université Bordeaux-Montaigne, chef de file d’une géographie sociale et culturelle du sport en France depuis presque quatre décennies, et Pascal Gillon, tenant plutôt du courant de l’analyse dite spatiale, inspiré, entre autres, par le travail de Jean Praicheux à l’Université de Franche-Comté et co-auteur notamment de l’Atlas du sport mondial, présentent un ouvrage d’envergure. La quantité d’informations, la qualité du traitement et des fondements théoriques du travail d’analyse, et surtout ce croisement entre deux écoles que parfois tout oppose, mais qui se complètent ici de manière remarquable, offrent un ouvrage majeur sur le sujet.
Le dessin discutable de première de couverture du graphiste pourtant connu Adria Fruitos ne doit pas obérer la teneur des 220 pages au format royal de ce titre de la nouvelle collection « Monde » des éditions Armand Colin, une collection consacrée à des ouvrages d’envergure qui permettent de comprendre les mécanismes de nos so...
-
8:30
La ligne de couleur de W.E.B Du Bois. Représenter l’Amérique noire au tournant du XXe siècle
sur MappemondeDepuis 2013, un mouvement politique lutte contre le racisme envers les Noirs d’Amérique : Black Lives Matter. Pourtant, un tel militantisme en faveur de la cause noire ne date pas d’hier. William Edward Burghardt Du Bois en est un précurseur lorsque, en 1900, pendant l’Exposition universelle de Paris, il entend illustrer les progrès accomplis par la communauté afro-américaine depuis l’abolition de l’esclavage. Pour ce faire, ce sociologue et historien américain réalise une soixantaine de représentations : cartes, graphiques et diagrammes colorés, de véritables innovations, pour son époque, dans les domaines statistique et cartographique. Son travail minutieux est à la croisée de plusieurs disciplines : de l’histoire à la géographie, en passant par les statistiques, la sociologie et l’ethnologie. Il entend, à travers cette exposition, mettre en lumière ce qu’il appelle le « très proche », ces structures invisibles du « colonialisme et du capitalisme racial, qui conditionnent l’organi...
-
8:30
De l’intérêt des pictogrammes pour figurer les représentations sociocognitives de l’espace résidentiel
sur MappemondeQuel rapport émotionnel un individu entretient-il avec son habitat ? Un jeu de simulation de négociation entre les différents critères d’évaluation de l’environnement résidentiel permet de recueillir un corpus de données. Son analyse implique une réflexion sur la formalisation des résultats obtenus. Deux options sont confrontées : une représentation en graphe polaire et une image composée de pictogrammes symbolisant les multiples dimensions de l’espace résidentiel qui peuvent motiver les choix d’installation. Cette dernière image permet une appréhension plus simple du lien entre les structures spatiales, cognitives et sociales.
-
8:30
Saisir la position sémio-spatiale d’un élément géographique dans les cartes cognitives
sur MappemondeL’article propose d’analyser la position sémio-spatiale d’un élément géographique, en l’occurrence une frontière d’État, dans les cartes cognitives d’une ville frontalière. Sur le plan théorique, le recours au concept sémiologique de topos et la notion de position permettent de saisir les significations d’un élément géographique en fonction des positions sociales, afin de cerner leur contribution au positionnement de l’élément dans la carte cognitive. Méthodologiquement, cette analyse requiert une étroite intégration d’une tache discursive aux méthodes plus classiques de la cartographie cognitive.
-
8:30
La photographie comme représentation : L’ancrage et l’objectivation iconographique
sur MappemondeCet article aborde l’utilisation de la photographie de lieux comme un outil de recueil des représentations spatiales. Cette approche repose sur la présence des processus d’ancrage et d’objectivation dans l’iconographie qui révèle un rapport de communication tout comme une représentation sociospatiale. 20 habitants de Montreuil-sous-Bois ont réalisé des photos caractéristiques et non caractéristiques de quatre lieux imposés dans leur ville. Les résultats montrent que pour représenter ce qui est caractéristique d’un lieu, les personnes ancrent et objectivent leurs photos dans l’usage et/ou la fréquentation du lieu. À l’inverse, les photos non caractéristiques tentent d’être impersonnelles. La photographie de lieux apparait comme une réelle communication entre individus et comme un outil à développer pour aborder les représentations sociospatiales.
-
8:30
Des cartes mentales pour analyser la vulnérabilité au risque d’une ville de l’Arctique russe : Khamagatta
sur MappemondeL’article présente les résultats principaux d’un atelier cartographique conduit à Khamagatta (Sibérie orientale). L’objectif en était double : observer la vulnérabilité aux inondations de débâcle de la ville par les connaissances d’enfants et d’adolescents y vivant ; utiliser la carte comme instrument de dialogue, d’intégration des connaissances et de recueil de données. Récits et cartographies ne s’opposent pas, mais se renforcent. L’atelier cartographique a permis que se côtoient différents registres de connaissances et produit au final des informations précieuses pour l’analyse scientifique.
-
8:30
« Self Cartography », une narration autour du monde
sur MappemondeCet article propose une utilisation de la carte géographique comme support à la mise en récit de souffrances psychiques liées à l’expérience de la migration. À partir de la conception d’une méthodologie spécifique — « Self Cartography » — dans le champ de la psychologie clinique, nous reviendrons sur l’élaboration de cette méthode et l’illustrerons par la présentation de cas cliniques.
-
8:03
Mises à jour octobre 2023
sur Toute l’actualité des Geoservices de l'IGNTous les nouveaux services web et toutes les mises à jour de données en téléchargement du mois de octobre 2023.
-
0:49
GeoTools Team: GeoTools 30-RC released
sur Planet OSGeoThe GeoTools team is pleased to share the availability GeoTools 30-RC :geotools-30-RC-bin.zip geotools-30-RC-doc.zip geotools-30-RC-userguide.zip geotools-30-RC-project.zip org.opengis package removalThe main novelty in this release is the renaming of all "org.opengis" packages into "org.geotools.api" ones, to satisfy a request coming from OGC members that manage the "GeoAPI" project, using the -
19:53
From GIS to Remote Sensing: Semi-Automatic Classification Plugin version 8 release date and dependency installation
sur Planet OSGeoThis post is to announce that the new version 8 (codename "Infinity") of the Semi-Automatic Classification Plugin (SCP) for QGIS will be released the 8th of October 2023.This new version is based on a completely new Python processing framework that is Remotior Sensus, which will expand the processing capabilities of SCP, also allowing for the creation of Python scripts.
The SCP requires Remotior Sensus, GDAL, NumPy and SciPy for most functionalities. Optionally, scikit-learn and PyTorch are required for machine learning. GDAL, NumPy and SciPy should already be installed along with QGIS.It might be useful to illustrate the installation steps of these dependencies before SCP is released.Read more »
-
15:53
Prix du Livre de géographie 2024
sur Les cafés géographiquesLe Prix du Livre de géographie des lycéens et étudiants sera décerné en 2024 à un des ouvrages cités ci-dessous.
Gilles Fumey, Alexandre de Humboldt. L’eau et le feu, Double ligne, 2022.
Raphaël Mathevet et Roméo Bondon, Sangliers. Géographies d’un animal politique, Actes Sud, 2022.
Basile Michel, Les quartiers culturels et créatifs, Le Manuscrit, 2022.
Marion Tillous (dir.), Espace, genre et violences conjugales, ce que révèle la crise de la Covid 19, GéoTraverses, 2022.
Nephtys Zwer (dir.), Ceci n’est pas un atlas, Éditions du commun, 2023.
-
15:47
Un prochain colloque sur l’Intelligence artificielle à Albi
sur Les cafés géographiquesNos amis d’Albi nous informent de la tenue d’un colloque, les 5 et 6 octobre 2023 sur “l’IA et les Institutions publiques”, au campus de Champollion à Albi. Vous pouvez vous inscrire grâce au lien [https:]]
-
14:39
Comment migrer vers une version récente de Django ?
sur Makina CorpusQue ce soit pour avoir les dernières fonctionnalités ou les correctifs de sécurité, rester sur une version récente de Django est important pour la pérennité de son projet.
-
9:54
Inside the Tombs & Pyramids of Egypt
sur Google Maps ManiaRamesses I was the founding pharaoh of ancient Egypt's 19th Dynasty. Ramesses burial tomb was rediscovered in the Valley of the Kings by Giovanni Belzoni in October 1817. The tomb is decorated with the Book of Gates. The Book of Gates tells the story of how a newly deceased soul travels into the next world by passing through a series of 'gates'. It is believed that the depiction of this journey
-
5:54
Exposition « Cartografia, la Corse en cartes 1520-1900 »
sur Cartographies numériques
Le musée de la Corse vous invite au voyage et à la découverte du monde des cartes. « Cartografia, la Corse en cartes 1520-1900 » réunit géographie et histoire dans un corpus de représentations de l’île et de la Méditerranée tracé sous l’œil du cosmographe, du politique, du militaire, de l’hydrographie. L’exposition présente une sélection de documents anciens, de cartes et de plans, de livres et d’atlas, ainsi que les acteurs et les nombreuses techniques qui participent à la discipline cartographique. La diversité des collections exposées éclaire par leurs formes, leurs matières et leurs couleurs. La présentation rassemble un florilège d’images qui témoignent de l’intérêt dont la Corse fut l’objet durant plusieurs siècles.Dossier de presse de l'exposition à télécharger en PDF.
Le parcours de l’exposition s’inscrit dans la longue durée. 1520-1900 : quatre siècles de regards portés sur le territoire corse et ses rapports au monde. La présentation d’une sélection des collections du musée de la Corse vise à partager une part du patrimoine insulaire enrichi par la participation de prêts d’œuvres de diverses institutions corses, nationales, internationales et de collections particulières, très rarement présentées au public. Cette exposition est aussi l’occasion d’accéder à une longue et précieuse séquence figurative de l’histoire corse. Construite autour de deux séquences principales et 5 sections distinctes, l’exposition « Cartografia, la Corse en cartes 1520-1900 » présente plus de 300 œuvres.
Séquence I : L’ère géographique
• Section 1 : le XVIe siècle et l’extension du monde connu
• Section 2 : le XVIIe siècle, l’héritage des pairs
Séquence II : L’ère scientifique
• Section 3 : le XVIIIe siècle et la souveraineté disputée
• Section 4 : le XIXe siècle et la topographie moderne
Du plan Terrier à la carte de Jacotin (1770-1824)
Parmi les cartes remarquables à découvrir :
- La Mer Méditerranée et les costes des Estats qui la borne (1709) par Nicolas de Fer, géographe, graveur
- Carte de l'isle de Corse pour servir aux vaisseaux du roi (1768) par le Sr Bellin
- Insula Corsica olim regni Tiulo insignis nunc Genuensis reipublicae potestati subjecta par Matthaeum Seutter
- Le Plan Terrier, une grande entreprise cartographique qui se déroula de 1770 à 1796 (données disponibles sur Open data Corsica)
- De l'usage de la carte dans l'art depuis les années 1960
Articles connexes
Atlas stratégique de la Méditerranée et du Moyen-Orient (FMES)
Etudier les formes urbaines à partir de plans cadastraux
« Un bon croquis vaut mieux qu'un long discours ». Napoléon et les cartes
Cartes et atlas historiques
L'histoire par les cartes
-
11:28
Le samedi, c'est Map Story !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierParmi les plaisirs du week-end, c'est toujours sympa de découvrir une StoryMap qui, en même temps, vous change les idées et vous apprends des choses. C'est le cas de la StoryMap que je vous propose aujourd'hui. En homage à son décès il y a deux semaines, elle est consacrée à Fernando Botero, l'aquarelliste et sculpteur colombien réputé pour ses personnages aux formes rondes et voluptueuses.
Tout le monde connait les peintures de Botero, mais au-delà de ses oeuvres, la StoryMap nous fait découvrir la vie de l'artiste à travers les nombreux allers-retours qu'il aura pu faire entre l'Amérique du Sud, l'Amérique du Nord et l'Europe, durant toute sa vie.
A travers un "Map Tour", le récit nous permet de naviguer dans les principaux lieux de vie durant 91 ans, et de comprendre son cheminement, ses attaches et ses engagements.
D'un point de vue technique, ce joli récit a été configuré à l'aide d'ArcGIS StoryMaps. L'application et ses contenus sont hébergés sur ArcGIS Online, la plateforme de cartographie et de SIG sur le Cloud d'Esri.
-
9:32
How Not to Stare at the Sun
sur Google Maps ManiaIf you have ever traveled by bus then you have probably experienced the frustration of discovering that your seat is in the direct glare of the sun and that you will now have to spend the majority of the journey squinting and attempting to shade your eyes from the sun's blinding rays.If you are a normal person you could avoid this problem simply by checking the sun's position in the sky and
-
8:20
Où sont les femmes dans les rues de Toulouse (et d’ailleurs) ?
sur Icem7L’autre jour, ma femme m’interpelle, tout à trac : « toi qui aimes jouer avec les données, pourrais-tu me faire une carte des rues de Toulouse portant un nom d’une femme ? »
C’est qu’elle coorganise la Transtoulousaine, une randonnée urbaine annuelle, en itinéraires convergeant vers le centre de la ville. Chaque édition comporte un thème : cette année les arbres, une autre fois peut-être bien les femmes. Un enjeu sera alors de définir des parcours qui célèbrent des personnalités féminines, si possible locales.
À cette demande en forme de défi, je réagis d’abord avec réserve : « Ça ne va pas être simple… Je peux sans doute trouver un répertoire des rues, mais comment détecter la présence d’une femme ? ». « Facile », me rétorque-t-elle, « tu n’as qu’à utiliser le fichier des prénoms ! ». Je dois le dire, elle avait bien préparé son affaire !
Et en effet, je connais bien cette source de l’Insee, recensant tous les prénoms donnés depuis au moins 1900, et les distinguant par genre.
La base nationale des prénoms ressemble à ceci, elle présente des effectifs par année de naissance :
Localiser un fichier des rues sur le site open data de Toulouse métropole ne m’a pris que quelques minutes. Il s’agit d’un filaire de voies, un fond de carte couvrant toute la métropole, qui renseigne naturellement le nom des voies, leur nature (rue, allée, boulevard, etc.) et leur commune d’appartenance. Voici un aperçu des données associées à chaque tronçon :
On pressent déjà que les femmes ne seront pas légion.
Pour manipuler des données, mon joujou favori ces derniers temps s’appelle DuckDB. C’est un petit programme tout simple qui permet d’exécuter des requêtes SQL avec une vélocité remarquable. Pour rapprocher les voies des prénoms, je vais joindre les deux bases en précisant une condition : le nom des voies doit contenir un prénom féminin.
Une première écriture ressemble à cela :
LOAD SPATIAL ; CREATE OR REPLACE TABLE filaire_femmes_toulouse AS ( WITH prenoms_feminins AS ( SELECT preusuel, nb_prf FROM ( SELECT strip_accents(preusuel) AS preusuel, sum(nombre)::int AS nb_prf FROM 'https://icem7.fr/data/prenoms_nat2022.parquet' WHERE sexe = 2 GROUP BY ALL HAVING nb_prf > 1000 ) ) , filaire_json AS ( FROM st_read('C:/.../datasets/filaire-de-voirie.geojson') WHERE code_insee = '31555' ) SELECT * FROM filaire_json JOIN prenoms_feminins ON contains(' ' || street || ' ', ' ' || preusuel || ' ') );
Cette requête crée une table en 3 étapes :
- Lecture de la base des prénoms, que j’ai convertie de CSV vers le format parquet, bien plus compact et efficace. Je ne retiens que les prénoms donnés à des filles, et plus de mille fois. Cela représente tout de même 1 800 prénoms.
- Lecture du filaire de voies en ne gardant que les données sur Toulouse, dont le code commune est 31555. La fonction st_read() pourrait lire directement l’URL du fichier, mais celui-ci fait 20 Mo et le serveur de téléchargement est assez lent, je l’ai donc stocké au préalable.
- Jointure sur la condition de présence du prénom dans le nom de la voie (les || permettent de coller des bouts de textes, rajoutant ici des blancs de part et d’autre des colonnes pour bien isoler les prénoms).
En moins de 2 secondes, j’obtiens un résultat qui décrit les tronçons de 372 voies, soit un dixième du total des voies toulousaines.
Impatient de les visualiser, je les exporte dans un format géographique passe-partout, le GeoJSON :
COPY filaire_femmes_toulouse TO 'C:/.../datasets/filaire-femmes-toulouse.json' WITH (FORMAT GDAL, DRIVER 'GeoJSON');
Notez au passage la souplesse de cet outil de requêtage DuckDB : il est à l’aise avec tous les formats, y compris géographiques.
Une première carte bruteIl me suffit enfin de faire glisser ce fichier généré dans mon navigateur, sur [https:]] par exemple, pour voir s’afficher ces tracés. Ils sont visibles ici en gris, sur un fond de plan classique :
© OpenStreetMap - geojson.ioC’est presque trop simple pour être tout à fait crédible ! Mais tout de même, ces 372 voies ne sont pas si loin de la réalité, qui correspond plutôt à 300 (soit 8 % des voies toulousaines), comme on va le voir par la suite.
Rassurez-vous, je vous épargne désormais les écritures SQL, que les curieux·ses pourront trouver dans ce classeur Observable.
Examinons de plus près ces rues de première extraction ; le début du fichier, classé par prénom, se présente plutôt bien :
Mais un peu plus loin, je constate qu’il y a du tri à faire :
Claude est en effet un des nombreux prénoms mixtes, comme Dominique, Dany ou Camille. Sur les 480 000 Claude né·es dans entre 1900 et 2020, 88 % étaient des garçons. Il est donc tentant de ne retenir pour notre recherche que les prénoms majoritairement féminins. Exit donc les Claude, Dominique ou Hyacinthe.
Le cas des Camille est intéressant et davantage épineux.
Ce prénom est devenu bien plus populaire pour les filles à partir des années 1980. Ce qui fait qu’il apparait dans notre sélection de prénoms : il est majoritairement féminin.
Source : Insee - outil interactif sur les prénomsPour l’ensemble de la France (données du répertoire national Fantoir), les voies reprenant ce prénom mettent en tête Camille Claudel, mais pour le reste citent exclusivement des hommes.
Ainsi, je vais devoir gérer dans ce cas une règle particulière : ne pas tenir compte des Camille dans ma recherche de voies féminines, sauf les « Camille Claudel ». Il en va de même pour George Sand.
D’autres prénoms féminins entrent en compétition avec des toponymes ou des articles : que l’on pense à l’occitan LOU (qui correspond à LE), à ETOILE, LORRAINE, NANCY, AVRIL, ALMA… Pour parfaire mon filtrage, je vais exclure de ma base de prénoms majoritairement féminins ces mots fréquemment rencontrés dans les noms de rues, mais probablement peu liés à des personnes. Dans le même temps, je veille à réintroduire quelques exceptions : outre Camille Claudel et George Sand précédemment évoqués, France Gall par exemple, ainsi que quelques rares prénoms locaux comme Géori ou Philadelphe.
Enfin, en l’absence de prénoms reconnus, certains titres comme COMTESSE (de Ségur), MADAME (de Sévigné), SOEUR fournissent de bons indices de la présence d’une femme.
300 voies féminines à Toulouse,
soit 8 % de l'ensemble des voiesC’est ainsi que j’en arrive à identifier 300 voies a priori évocatrices d’une femme, que l’on voit ici en rouge, sur cette carte interactive et zoomable :
/* [https:] */ .fullwidthx { width: 100vw; position: relative; left: 50%; right: 50%; margin-left: -50vw; margin-right: -50vw; }© IGN - Toulouse métropole
import {Runtime, Inspector} from "https://cdn.jsdelivr.net/npm/@observablehq/runtime@5/dist/runtime.js"; import define from "https://api.observablehq.com/@ericmauviere/cartographions-les-voies-se-referant-a-une-femme-a-toulouse@690.js?v=3"; new Runtime().module(define, name => { if (name === "viewof cat") return new Inspector(document.querySelector("#observablehq-viewof-cat-a40b5924")); if (name === "viewof search") return new Inspector(document.querySelector("#observablehq-viewof-search-a40b5924")); if (name === "viewof voies_femmes_sel2") return new Inspector(document.querySelector("#observablehq-viewof-voies_femmes_sel2-a40b5924")); if (name === "viewof map") return new Inspector(document.querySelector("#observablehq-viewof-map-a40b5924")); return ["map_p","fly_p"].includes(name); });Les autres catégories résultent d’un travail similaire mené sur les prénoms masculins. Une fois les voies féminines mises de côté, les voies restantes relèvent de 3 classes :
- Celles dont la dénomination comprend un prénom masculin ou un indice significatif (GENERAL, MAL, PRESIDENT, ABBE…)
- Celles ensuite qui excluent a priori la référence à une personne, par la présence, après le type de voie, de DU, DE, DES : BD DE STRASBOURG, CHE DE TUCAUT…
- Les autres au statut indéterminé, qui évoquent un homme, un lieu ou une profession : RUE LAFAYETTE, RUE MOLIERE, RUE MATABIAU, RUE PARGUAMINERES…
Ainsi, il apparait que les 8 % de femmes font face à une fourchette de 44 – 57 % d’hommes référencés, soit en gros 6 fois plus d’hommes que de femmes.
Source : Toulouse métropole - Insee © icem7Il y a naturellement aussi quelques voies mixtes, Pierre et Marie Curie, Lucie et Raymond Aubrac par exemple, que je ne compte pas deux fois, les classant d’autorité dans la catégorie féminine !
Sur ces 300 voies féminines, une bonne vingtaine renvoient à un prénom seul dont certains sont identifiables (impasse Arletty, rue Colette, impasse Barbara) et d’autres non (impasse Matilda, rue Christiane, rue Sylvie, parc de Claire). 20 autres désignent une sainte.
Des voies aux caractéristiques particulièresToulouse, comme la plupart des grandes villes, conduit un effort de rééquilibrage. Depuis une dizaine d’années au moins, la commission de dénomination célèbre au moins autant de femmes que d’hommes. Il y a aussi ces professions emblématiques que je n’ai pas intégrées, comme les « Munitionnettes » de la Cartoucherie, ou les « Entoileuses » de Montaudran, chargées de recouvrir les avions de tissu.
Mais peu de voies sont débaptisées. Ce sont surtout les nouveaux quartiers, résidentiels ou d’activité, voire des aménagements routiers (bretelles) qui ouvrent des opportunités.
Ici, dans un nouveau quartier près du Zénith, la mixité des dénominations est assurée :
Source : Toulouse métropole - Insee © IGNMais des voies au statut plus incertain, sans adresse (points verts) identifiée, sont aussi utilisées :
Source : base adresse nationale © Etalab - OpenMapTiles - OpenStreetMapJ’ai relevé toutefois un cas de renommage en centre-ville : OpenStreetMap évoque toujours en 2023 la rue du Languedoc quand le début de celle-ci est devenu allée Gisèle Halimi en 2021.
© OpenStreetMap © IGN Peu nombreuses, les voies féminines sont aussi plus courtes et plus modestes, plus représentées dans la catégorie des allées ou des ronds-points ; les boulevards ou les avenues sont quasiment inexistants. Sources : Toulouse métropole - Insee La longueur moyenne d’une voie féminine est de 200 m, contre 300 m pour les masculines. La voie féminine la plus longue, le bd Florence Arthaud, parcourt 1,6 km, une trentaine de voies masculines sont plus longues, allant jusqu’à près de 4 km pour l’avenue du Général Eisenhower. Qu'en est-il ailleurs en France ?Les données disponibles nationalement proviennent de deux sources :
- Fantoir, répertoire des voies et lieux-dits, produit par la direction générale des finances publiques (les Impôts), alimenté par la gestion du cadastre ;
- La base adresse nationale (BAN), qui référence toutes les adresses (soit x points par voie).
Les deux sont accessibles sous forme de fichiers ou d’API. La BAN est par nature bien plus lourde qu’un simple répertoire des voies. Et elle ne référence que celles qui ont des adresses. Par exemple, la rue Karen Blixen que nous avons rencontrée plus haut n’y figure pas.
Reste donc Fantoir, dont la base nationale est téléchargeable en open data depuis 2013, ce qui est à saluer ! En revanche, son format interne est difficile à décoder, j’ai donc converti la dernière version datée d’avril 2023 au format Parquet (ce qui permet aussi de réduire sa taille de 1 Go à 130 Mo).
En voici un extrait (pour Toulouse) :
Source : Fantoir/DGFIPSon intérêt principal, c’est qu’il est national, il présente toutefois quelques limites par rapport au filaire de voies de Toulouse métropole :
- Ce n’est pas un fichier géographique, il ne comprend pas le tracé des voies ;
- Le champ libelle_voie est limité à 30 caractères, ce qui conduit à de fâcheuses abréviations qui peuvent affecter les prénoms. Comment deviner par exemple que les deux premières lignes évoquent une Anne-Marie et une Anne-Josèphe ?
- Il accuse, dans sa version open data, un retard d’environ une année.
Ceci explique qu’une vingtaine de voies manquent à l’appel quand je lui applique, pour Toulouse, mon programme d’identification des voies féminines (soit une sous-estimation de 7 %).
La moyenne nationale s’établit à 3,8 % de part de voies féminines. Je ne m’étends pas sur les comparaisons départementales, tant le degré d’urbanisation parait influer sur les résultats.
En revanche, certaines petites communes se détachent spectaculairement. J’ai par exemple repéré La Ville-aux-Dames, dans l’agglomération de Tours. Cette commune de 5 000 habitants a décidé en 1974 que toutes les rues porteraient des noms de femme, sauf exception, par exemple la place du 8 mai ou celle du 11 novembre.
La commune de Lisores, dans le pays d’Auge, berceau du peintre Fernand Léger, est devenue la cité des peintres, hommes et femmes. Son conseil a décidé en 2018 non seulement de respecter strictement la parité, mais de donner des noms de peintres à toutes ses voies (sauf exceptions toponymiques).
L’examen des plus grandes villes confirme que la taille a un effet sur la féminisationLe taux moyen monte en effet de 3,6 % à 5,5 % pour l’ensemble des villes de plus de 100 000 habitants, et 6,7 % pour les plus de 200 000.
Et dans cette dernière catégorie, Toulouse se classe plutôt bien, 3e derrière Rennes et Nantes.
Sources : Fantoir/DGFIP - InseeParis est proche de la moyenne, mais les disparités sont grandes entre ses arrondissements : moins de cinq références significatives dans le 8e ou le 9e, mais près de 10 % de voies féminines dans le 13e.
Quelles sont les personnalités les plus citées
dans nos rues ?Pour dresser ces tableaux pour les femmes et les hommes, j’ai dû prendre en compte de subtiles variations orthographiques. J’ai aussi choisi d’affecter PIERRE ET MARIE CURIE à MARIE CURIE (idem pour LUCIE AUBRAC, souvent associée à RAYMOND). Par ailleurs, Pasteur, Gambetta ou Foch sont souvent cités sans prénom, il faut donc les prendre en compte manuellement après examen du palmarès de tous les noms de voies en France.
Simone Veil est la personnalité la plus contemporaine à être honorée sur les plaques de nos rues, devant même François Mitterrand.
Quelles sont enfin les tendances récentes ?Pour répondre à cette question, la présence dans Fantoir d’une colonne date_creation m’a paru prometteuse. Mais à l’examen, elle ressemble plus à une date de modification de l’enregistrement (elle est toujours supérieure à 1987), et celles-ci peuvent intervenir pour tout un tas de raisons liées aux évolutions du cadastre.
J’ai donc considéré les noms de voies qui n’étaient que peu représentés à la création du fichier, mais qui sont apparus depuis 2010. Là encore, il a fallu prendre en compte des variations orthographiques, voire des coquilles (Mitterrand étant par exemple parfois écrit avec un seul r).
Commençons donc par les hommes. Quand une personnalité éminente disparait, il est de coutume de la célébrer, entre autres sous la forme d’un odonyme. Et s’il s’agit d’un président, on n’hésitera pas à rebaptiser une voie prestigieuse. L’avenue Jacques Chirac remplace ainsi depuis peu, à Toulouse le boulevard des Crêtes. Toutefois, Jacques Chirac (40 voies à ce jour) et Valéry Giscard d’Estaing (25) n’ont pour l’heure pas connu de succès comparable à la seule année qui a suivi le décès de François Mitterrand.
Nelson Mandela illustre un cas différent et intéressant, il était déjà admiré et célébré de son vivant. Je ne m’attendais pas, enfin, à voir apparaitre dans ce palmarès le colonel Arnaud Beltrame, en 4e position.
Sources : Fantoir/DGFIP - InseePour les femmes, Simone Veil domine ce palmarès des tendances depuis 2010, mais elle était déjà honorée avant son décès. Simone de Beauvoir et Olympe de Gouges restent des valeurs sûres, icônes du féminisme, gagnant même en popularité ces dix dernières années. La disparition brutale de Florence Arthaud, enfin, a provoqué une réelle émotion.
Sources : Fantoir/DGFIP - InseeOn le voit, tester la présence de prénoms permet de bien dégrossir le sujet, mais il reste pas mal de travail manuel pour ne pas rater ce qui apparait après coup comme des évidences. Les bases ont aussi leurs petits défauts, quand ce sont d’abord des bases de gestion, qu’il faut connaitre et savoir contourner.
Le prénom des gens est important, il les identifie et les humanise. Il devrait apparaitre systématiquement, sur les plaques comme dans les fichiers.
En dépit de mes réserves initiales, je dois remercier mon épouse de m’avoir plongé dans cette instructive exploration. Et tout autant les concepteurs de ce fabuleux outil qu’est DuckDB : sa souplesse et sa vélocité m’ont permis de pousser sans entraves tous mes questionnements et souhaits de vérification. Et enfin toutes celles et ceux qui œuvrent à mettre à disposition libre ces précieuses bases de données.
Pour en savoir plus- Classeur Observable avec requêtes et programmation de la cartographie
- La féminisation des noms de rue à Toulouse, c’est pour quand?? Médiacités
- Toulouse : place aux femmes dans les nouveaux noms de rue – France 3
- Archipel Citoyen propose de nouveaux noms de femmes pour les rues de Toulouse – Le journal toulousain
- Parité dans les noms donnés aux rues et son évolution ces dernières années – Christian Quest
- Vers l’automatisation d’une visualisation des hommages aux femmes dans la ville – Philippe Gambette
- Ces 200 personnalités sont les stars des rues françaises – Slate
- Comment nos rues se féminisent et s’internationalisent (lentement) – Slate
L’article Où sont les femmes dans les rues de Toulouse (et d’ailleurs) ? est apparu en premier sur Icem7.
-
18:25
Randopolitain
sur Veille cartographieCet article Randopolitain est apparu en premier sur Veille cartographique 2.0.
En septembre 2020, la région Île-de-France a lancé une initiative appelée « Randopolitain » qui vise à encourager la randonnée pédestre en mettant en avant les sentiers de grande randonnée franciliens et en facilitant leur accès en train. Cette initiative s’inscrit dans une volonté de promouvoir un mode de vie plus sain, de renforcer la connexion entre […]
Cet article Randopolitain est apparu en premier sur Veille cartographique 2.0.
-
17:45
Articque fête le géodécisionnel à Fondettes
sur Décryptagéo, l'information géographiqueL’édition 2023 de la Journée du géodécisionnel s’est déroulée le 21 septembre dans les locaux d’Articque à Fondettes. Elle a également été retransmise en live sur YouTube. Plus de 250 personnes ont suivi cet événement. Des clients de tous secteurs, tels que La Longue Vue, le Groupe IMA, le CHU de Saint-Etienne et Ad Hoc Solutions ont présenté leurs usages innovants et leurs réalisations bluffantes avec Cartes & Données Online et Articque Platform. Une excellente occasion pour la communauté d’utilisateurs des solutions Articque de découvrir des perspectives nouvelles et inspirantes autour du géodécisionnel pour mieux comprendre leurs territoires et dépasser les limites.
Des solutions en adéquation avec les besoins des leurs utilisateursGeorges-Antoine Strauch, Président Fondateur d’Articque est revenu sur le succès croissant des Journées du Géodécisionnel qui offrent aux utilisateurs de nombreux secteurs l’occasion de discuter ensemble de leurs réalisations. Ils ont pu rencontrer les collaborateurs Articque qui mettent leur ingéniosité au service du développement de ses solutions et accompagnent les clients au quotidien tout au long de leurs projets géodécisionnels.
Georges-Antoine Strauch a rappelé les principes fondateurs des solutions Articque : allier la rigueur des statistiques et la puissance de communication de la cartographie au service des besoins d’analyses des clients grâce à sa célèbre interface utilisateur « l’Organigramme ». Graphique et modulaire, elle invite les utilisateurs à construire un raisonnement unique, au « Test & Learn » agile si précieux pour l’analyse des données et la résolution de problèmes complexes.
C’est pourquoi, les clients Articque sont de plus en plus nombreux, qu’il s’agisse des concepteurs de projets cartographiques (1300) ou des utilisateurs finaux (plus de 10 000) qui tirent profit de ces projets pour prendre de meilleures décisions. La fidélité des clients (plus de 8 ans en moyenne) corrobore l’efficacité de Cartes & Données Online et Articque Platform. Ils plébiscitent l’accompagnement humain dont Articque a su faire une véritable force.
En fin de journée, Jérôme Guyot est revenu sur les évolutions majeures du moment en particulier DataComposer pour traiter facilement de gros volumes de données.
Des présentations de différents usages des solutions Articque4 entreprises utilisatrices des solutions Articque ont témoigné de leurs usages originaux du géodécisionnel :
- La Longue Vue a choisi Cartes & Données Online pour créer « La Loupe», un outil géomarketing d’aide à la décision par la visualisation qui accompagne les professionnels de santé pour mieux maitriser leurs enjeux stratégiques d’implantation. Grâce à Cartes & Données Online, la durée des études a été divisée par 2 depuis 2017 ; elle est aujourd’hui de 6-8 jours en moyenne. La cartographie est désormais indispensable pour les études de La Longue Vue, et son rôle dans le processus décisionnel est aujourd’hui majeur.
- Le Groupe IMA a expliqué comment il utilise Articque Platform pour visualiser la sinistralité et représenter/étudier le maillage du réseau de prestataires. Il suit ainsi les carences sur le réseau de santé avec une cartographie interactive réalisée avec Articque Platform ; celle-ci reprend la localisation des partenaires existants. Les équipes IMA visualisent le partenaire le plus proche de la personne à aider avec le meilleur taux d’acceptation pour lui demander d’intervenir. Depuis la mise en place de cette cartographie interactive, le taux de résolution est passé de 56% à 70% entre fin 2021 et le premier trimestre 2022.
- Le CHU de Saint-Etienne décrit les problématiques auxquelles font face les établissements hospitaliers pour répondre aux besoins de la population et aux contraintes bien réelles de la gestion des soins, notamment le traitement des données géographiques de santé. Avec Cartes & Données Online, le CHU peut raisonner sur des données géographiques pour affiner la réflexion et aller vers les 4 B (le Bon soin, au Bon moment, au Bon endroit et au Bon coût) pour les patients d’un territoire.
- Ad Hoc Solutions propose des analyses économiques et de la gestion de projets autour du développement durable. La collaboration avec Articque s’est imposée compte tenu de leur complémentarité pour la réalisation de bilans carbone et la gestion d’actions de réduction des émissions de gaz à effet de serre. Depuis le 1er janvier, les entreprises de plus de 500 salariés doivent réaliser leur bilan carbone et les solutions Articque sont indispensables pour analyser de nombreux postes comme mesurer les émissions de CO2 liées aux déplacements domicile-travail en fonction des modes de transport ou mesurer les transports amont et aval de marchandises.
Articque édite sa propre gamme de logiciels d’aide à la décision depuis plus de 30 ans. Articque accompagne les entreprises pour les aider à mieux piloter leurs activités et à gagner en performance grâce à une connaissance approfondie de leur territoire.
Les solutions géodécisionnelles d’Articque, Cartes & Données Online et Articque Platform conjuguent innovation, efficacité et facilité d’utilisation. Elles s’adaptent aux contraintes métiers pour offrir une visualisation et une analyse optimales des données d’entreprises via des cartes, des tableaux de bord géographiques et des simulations. La dimension géographique reste assurément le meilleur moyen de prendre la bonne décision.
Contacts Média
Georges-Antoine Strauch – PDG | info@articque.com | tél. : 06 10 18 61 29
Cet article Articque fête le géodécisionnel à Fondettes est apparu en premier sur DécryptaGéo, l'information géographique.
-
12:00
La cartographie participative comme support de revendications politiques
sur Veille cartographieCet article La cartographie participative comme support de revendications politiques est apparu en premier sur Veille cartographique 2.0.
Le développement d’outils numériques de cartographie collaborative possède de nombreux avantages, notamment du fait de la mise à disposition de données en open source. Les exemples de sites internet proposant la création de cartes personnalisées sont nombreux, à l’image d’Open Street Map, de uMap ou encore de GoGoCarto. En démocratisant la pratique de la cartographie, […]
Cet article La cartographie participative comme support de revendications politiques est apparu en premier sur Veille cartographique 2.0.
-
10:20
The Global Impact of El Niño
sur Google Maps ManiaThis month New South Wales in Australia has been experiencing temperatures up to 16C above the Sepetember average. This is likely the start of El Niño's grip on the country. In an El Niño year Australia typically experiences drought conditions. In July the the World Meteorological Organization said there is a 90% likelihood of El Niño conditions developing this year. They say that it likely to
-
10:00
Blitzortung : cartographier les éclairs, c’est du tonnerre !
sur Veille cartographieCet article Blitzortung : cartographier les éclairs, c’est du tonnerre ! est apparu en premier sur Veille cartographique 2.0.
Blitzortung est un réseau de capteurs permettant la cartographie en temps réel des impacts de foudre dans le monde.
Cet article Blitzortung : cartographier les éclairs, c’est du tonnerre ! est apparu en premier sur Veille cartographique 2.0.
-
8:35
SDIS 64 : Quand le SIG se met au service des Fêtes de Bayonne
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatique1,3 million de festayres pour les Fêtes de Bayonne 2023 : une fréquentation record pour la 4e plus grande manifestation festive du Monde qui se déroule chaque fin juillet à Bayonne, dans le Sud-Ouest de France. En toute logique, l'ensemble des acteurs de la sécurité civile sont mobilisés et en premier lieu les pompiers du SDIS 64. Si l'événement est un point d'orgue pour le service départemental, il n'est pas le seul. Et puis, toute l'année, les pompiers doivent répondre aux appels du quotidien pour des secours à la personne, des accidents ou incendies (45.000 interventions en 2022), dans un territoire très divers, entre océan et montagnes, qui comptabilise plus de 550 communes pour environ 690.000 habitants.
Pour les sapeurs pompiers des Pyrénées-Atlantiques, savoir où se rendre, connaitre les lieux avant d'y arriver et pouvoir s'y déplacer en toute confiance, est un impératif auquel le service SIG répond. Toute l'année, les 5 techniciens, une stagiaire et un chef de service, vérifient les bases de données utilisées sur le terrain et au CODIS, préparent les Atlas et développent des applications SIG utiles aux 48 centres de secours répartis stratégiquement sur le territoire du Béarn et Pays Basque.
Dans ce reportage, suivez les préparatifs des Fêtes de Bayonne 2023 entre Pau, Bayonne et Anglet, avec la vérification des adresses et mise à jour de la BAN, la collecte de données sur le terrain, la préparation des cartes et Atlas et le développement d'une appli cartographique dédiée. Avec la Colonelle Cécile Macarez (Directrice adjointe), le Capitaine Olivier Pouilly (officier expert prévision en charge des Fêtes de Bayonne), Adrien Carpentier (Responsable SIG), Frédéric Bibian, Peio Delannoy et Noël Morel.
Reportage réalisé par Xavier Fodor et Geoffrey Boyer
+ d'infos :
sdis64.fr
-
8:35
Formation en réalité virtuelle, usage de drones et lutte contre les feux de forêts : le service SIG du SDIS 77 sur tous les fronts
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueAu Service Départemental d'Incendie et de Secours de Seine-et-Marne, comme dans tous les SDIS de France, l'heure est à la mise en route du logiciel national d'appels NexSIS. Sa particularité est de reposer sur le socle géographique fournit par le SIG pour faciliter la gestion des secours. Les sept géomaticiens du service SIG s'apprêtent à réaliser cette importante migration, mais ce n'est pas leur seule mission, bien au contraire ! Chaque jour, l'équipe prend en compte les remontées d'informations du terrain pour mettre à jour les bases de données, réaliser des analyses et éditer la palette d'outils cartographiques, cartes, Atlas et applications, indispensables pour protéger les 1,420 million d'habitants de ce territoire de plus de 5.900 km2.
Signe des temps et conséquence directe du changement climatique, le SDIS 77 intègre désormais le risque de feux de forêt jusqu'ici plus habituel dans le Sud de la France et les régions de l'Entente qu'en Île-de-France. L'objectif est ici de protéger le précieux patrimoine arboré qu'est la forêt de Fontainebleau avec des Atlas DFCI spécifiques, mais aussi d'être capable de prêter main forte à d'autres régions, comme cela a été le cas durant l'été 2022 en Gironde. D'ailleurs, en tant qu'école délocalisée de l'ECASC forme à cette gestion spécifique des feux de forêts.
Enfin, le SIG est un socle de données utile à la formation des pompiers au centre de Gurcy-le-Châtel. Ici c'est la mise en place d'un environnement virtuel qui permet de s'entrainer et valider ses compétences selon divers scénarios. Ce centre forme aussi des télépilotes de drones qui, au cours de leur mission, contribuent à alimenter le SIG en nouvelles données. Cela permet notamment le développement de maquettes numériques de grande précision.
Retrouvez dans ce reportage, les explications du Contrôleur général Bruno Maestracci (Directeur départemental SDIS 77), Aurélie Mucherie (Responsable du service SIG), Lieutenant Olivier Rousseau (Chef du centre de Fontainebleau), Lieutenante Émilie Vanagt (Responsable service de la doctrine opérationnelle), Lieutenant Olivier Poteau (Chef section Innovation et Pédagogie Numérique).
Reportage réalisé par Xavier Fodor et Geoffrey Boyer
+ d'infos :
sdis77.fr
-
7:55
Rapport mondial 2023 sur les déplacements internes (Conseil norvégien pour les réfugiés)
sur Cartographies numériquesLe Rapport mondial sur les déplacements internes du Conseil norvégien pour les réfugiés (NRC) constitue une source importante de données et d'analyses pour appréhender chaque année l'impact des déplacements internes à l'échelle mondiale. Les déplacés internes sont des personnes contraintes de fuir à l'intérieur de leur propre pays, notamment en raison de conflits, de violences, de violations des droits humains ou de catastrophes. Lorsque des personnes passent une frontière pour échapper aux persécutions, elles sont protégées par des conventions internationales et sont juridiquement considérées comme des réfugiés. Les personnes vivant une situation semblable qui quittent leur région d’origine tout en restant dans leur propre pays deviennent des déplacés internes. Leur protection relève de la responsabilité de l’État concerné, mais celui-ci ne peut souvent plus l’assurer – ou refuse de la garantir au groupe de population concerné. Les déplacés internes ne constituent pas une catégorie juridique particulière et ils ne bénéficient donc pas d'une protection spécifique du droit international (source : UNCHR).
Déplacements internes en raison des conflits et des catastrophes en 2022 (source : Norvegian Refugiee Council)
71,1 millions de personnes vivaient en situation de déplacement interne dans le monde fin 2022, une augmentation de 20% par rapport à 2021 soit la plus élevée jamais enregistrée. Le nombre de déplacements associés aux conflits et à la violence a presque doublé pour atteindre 28,3 millions. La guerre en Ukraine a déclenché 16,9 millions de déplacés, le chiffre le plus élevé jamais enregistré dans un pays. Le phénomène météorologique de La Niña qui a persisté pendant trois années consécutives, a conduit à des niveaux records de déplacements dus aux inondations notamment au Pakistan, au Nigeria et au Brésil. Elle a entraîné une sécheresse record en Somalie, en Éthiopie et au Kenya, à l'origine de 2,1 millions de déplacements. Les conflits, les catastrophes et les déplacements ont aggravé la situation en matière d'insécurité alimentaire, qui était déjà préoccupante en raison de la lenteur de la reprise après la pandémie de Covid-19. Le rapport 2023 en est sa huitième édition. Il est consacré à l'insécurité alimentaire en tant que moteur, impact et obstacle potentiel aux déplacements internes.
Déplacements internes en raison des conflits et des violences en 2022 (source : Norvegian Refugiee Council)
Déplacements internes en raison des catastrophes en 2022 (source : Norvegian Refugiee Council)Le rapport se divise en deux parties :
- Partie 1 : Déplacement interne en 2022
Cette section présente les données mondiales sur les déplacements internes collectées par l'IDMC tout au long de l'année 2022, dans les différents contextes politiques, économiques et sociaux de différents pays et régions. Elle présente les chiffres sur les déplacements internes liés aux conflits et catastrophes a, ainsi que les dernières estimations de l'IDMC sur l'impact économique de ces déplacements.
- Partie 2 : Sécurité alimentaire et déplacement
Cette section contient des données et des analyses qui montrent les relations complexes entre les catastrophes, les conflits, l'insécurité alimentaire et les déplacements internes. Le rapport 2023 présente les principales dimensions des relations entre sécurité alimentaire et déplacement interne, chacun agissant à son tour comme un moteur et un impact de l'autre, les deux renforçant les cycles durables de vulnérabilité et de crise.
Coût estimé pour assurer la sécurité alimentaire des personnes déplacées via des plans de réponse humanitaire (source : Norvegian Refugiee Council)Les rapports publiés depuis 2016 consacrent une première partie aux données générales et une deuxième partie au traitement d'une question spécifique, ce qui permet d'aborder la question sous différents angles :
- Rapport 2022 : impact des déplacements sur les enfants et les jeunes
- Rapport 2021 : relations entre changement climatique, catastrophes et déplacements
- Rapport 2020 : politiques et moyens mis en oeuvre par chaque pays pour y répondre
- Rapport 2019 : défis et opportunités des déplacements internes
- Rapport 2018 : voies à suivre pour réduire les déplacements, défis et lacunes en matière de données
- Rapport 2017 : enjeux pour les associations humanitaires et de développement
- Rapport 2016 : défis méthodologiques et conceptuels à surmonter pour établir un tableau
Articles connexes
Cartographier les migrations internationales
MigrExploreR pour géo-visualiser des migrations internationales
Étudier les migrations à l'échelle infranationale pour l'ensemble des pays du monde
Une datavisualisation sur les migrants décédés dans le monde entre 2014 et 2019
Une data visualisation pour étudier les vagues d'immigration aux Etats-Unis (1790-2016)
La Grande Migration des Noirs aux Etats-Unis à travers les romans de Toni Morrison
Étudier les mobilités résidentielles des jeunes Américains à partir du site Migration Patterns
Une data-story sur les flux de migrations en Afrique
Exposition de Mathieu Pernot L’Atlas en mouvement
S'exercer à cartographier des migrations dès la classe de 4ème
-
7:54
Mise à jour de la page de statut d'ArcGIS Online
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
La plateforme SaaS ArcGIS Online repose sur un ensemble de services web pour implémenter vos tâches et vos workflows SIG quotidiens. Depuis de nombreuses années, Esri met à votre disposition le tableau de bord de statut d'ArcGIS Online indiquant le statut de chacun de ces services, le cas échéant, les éventuelles perturbations ou incidents. Depuis aujourd'hui, ce tableau de bord propose une nouvelle interface pour que les utilisateurs d'ArcGIS Online puissent plus facilement vérifier l'état de divers services ArcGIS Online.
La nouvelle page de statut d'ArcGIS Online
Les informations suivantes restent disponibles sur la nouvelle page, mais elles peuvent se présenter de manière un peu différente :- Les mêmes catégories de services sont listées
- Les mêmes flux RSS (individuel et global) sont accessibles
- Les incidents antérieurs sont toujours consultables
- Les horodatages et le texte de mise à jour sont disponibles pour les incidents actuels et passés
- L'état de chaque catégorie s'affiche toujours avec les libellés "Fonctionnement normal", "Problèmes de performances", "Interruption de service" ou "Message d'information".
- Un lien pour contacter le support Esri si vous rencontrez un problème
- Un lien en haut à droite vers des tableaux de bord de statut supplémentaires
- Living Atlas – Flux en direct
- Statut d'ArcGIS Hub
- La liste des incidents passés a été étendue de 28 jours à 30 jours
- Les textes des fenêtres contextuelles sont désormais copiables
La nouvelle page de statut d'ArcGIS Online avec des messages d'info et des incidents
N'hésitez pas à faire part de vos remarques auprès de l'équipe ArcGIS Online en utilisant l'espace de partage d'Esri Community concernant ArcGIS Online.
-
6:51
Atlas des « cercles de fées » dans le monde
sur Cartographies numériques
Source : Emilio Guirado & al. (2023). The global biogeography and environmental drivers of fairy circles, Proceedings of the National Academy of Sciences (PNAS), sept. 2023)Des chercheurs de l'Université d'Alicante en Espagne ont produit un nouvel atlas du phénomène naturel connu sous le nom de « cercles de fées ». Présents principalement dans les régions arides de Namibie et d’Australie, les cercles de fées sont une végétation organisée en forme d’anneau. L'équipe de recherche a pu découvrir des centaines d'emplacements de cercles de fées en utilisant des images satellite haute définition pour analyser environ 574 799 parcelles de terrain dans le monde.
Carte représentant la répartition des « cercles de fées » indiqués par des points jaunes (source : Guirado et al., PNAS, 2023)
L’équipe a découvert 263 sites où ces tâches brunes peuvent être trouvées. Elles sont répartis sur 3 continents et 15 pays, notamment au Sahel, au Sahara occidental, dans la Corne de l’Afrique, à Madagascar, en Asie du Sud-Ouest et en Australie centrale. Les scientifiques ont pu relever plusieurs points communs :
- des sols sableux et pauvres en nutriments
- des climats arides avec une forte saisonnalité des précipitations
- la présence de nids de termites comme facteurs à l'origine de la formation de cercles de fées
L'article suggère que les cercles contribuent à augmenter les ressources en eau et que les zones dotées de cercles de fées connaissent une productivité végétale plus stable que celles qui n'en sont pas dotées.
« L'atlas mondial présenté ici fait progresser notre compréhension de la biogéographie des modèles de végétation en forme de cercle de fées et facilitera la conduite de recherches futures sur les caractéristiques et les mécanismes qui sous-tendent ces modèles de végétation énigmatiques dans des endroits jamais étudiés jusqu'à présent... Nos travaux ouvrent également la voie à des recherches plus approfondies sur les implications fonctionnelles de ces structures végétales, qui rendent les écosystèmes plus stables et pourraient les aider à éviter les points de bascule associés au changement climatique ».
L'origine mystérieuse a conduit à l'appellation « cercles de fées » (fairy circles). Différentes hypothèses scientifiques ont été avancées jusque-là sur leur origine (voir l'article consacré au sujet sur Wikipedia)Articles connexes
Une carte animée des biomes anthropogéniques ou anthromes à l'échelle mondiale (Anthroecological Lab)
GeoSahel. Suivre l'évolution de la biomasse et améliorer la surveillance pastorale au Sahel
Une carte de l'INPN pour analyser et discuter la répartition de la biodiversité en France
Eduquer à la biodiversité. Quelles sont les données... et les représentations ?
Une carte mondiale des types d'habitats terrestres
-
19:52
Cartographie du séisme au Maroc de septembre 2023
sur Veille cartographieCet article Cartographie du séisme au Maroc de septembre 2023 est apparu en premier sur Veille cartographique 2.0.
Dans la nuit du 8 au 9 septembre 2023, un séisme violent a touché le Maroc, mais plus spécifiquement, la zone rurale se situant dans la province de Al Haouz, dont Marrakech est la préfecture. Le déroulé des faits est le suivant : le séisme d’une rare violence frappe le pays aux alentours de 23h, heure […]
Cet article Cartographie du séisme au Maroc de septembre 2023 est apparu en premier sur Veille cartographique 2.0.
-
15:58
Fernando Quadro: Verificações de URL no GeoServer
sur Planet OSGeoA versão 2.24.x do GeoServer traz entre suas novidades as verificações de acesso externo de URL que permite controlar as verificações executadas em URLs fornecidas pelo usuário que o GeoServer usará para acessar recursos remotos.
Atualmente, as verificações são realizadas nas seguintes funcionalidades:
- Solicitações WMS GetMap, GetFeatureInfo e GetLegendGraphic com folhas de estilo SLD remotas (parâmetro SLD)
- Ícones remotos referenciados por estilos (o acesso aos ícones no diretório de dados é sempre permitido)
- Solicitações WMS GetMap e GetFeatureInfo no modo de representação de recursos (parâmetros REMOTE_OWS e REMOTE_OWS_TYPE)
- Entradas remotas WPS, como solicitações GET ou POST
Para criar as regras de verificação, o GeoServer utiliza expressões regulares. Na internet existem sites disponíveis que irão te ajudar a definir um padrão de expressão regular Java (linguagem que o GeoServer é desenvolvido) válido. Essas ferramentas podem ser usadas para interpretar, explicar e testar expressões regulares. Por exemplo:
– [https:]] (habilitar o tipo Java 8)
1. Configuração de verificações de URL
Navegue até a página Dados > Verificações de URL para gerenciar e configurar verificações de URL.
Tabela de verificações de URL
Use as opções Ativar/Desativar para habilitar este recurso de segurança:
- Quando a caixa de seleção de verificações de URL está habilitada, as verificações de URL são realizadas para limitar o acesso do GeoServer a recursos remotos, conforme descrito acima. A ativação de verificações de URL é recomendada para limitar a interação normal dos protocolos Open Web Service usados ??para ataques de Cross Site Scripting.
- Quando a caixa de seleção está desabilitada, as verificações de URL NÃO são habilitadas, o GeoServer recebe acesso irrestrito a recursos remotos. Desativar verificações de URL não é uma configuração segura ou recomendada.
2. Adicionando uma verificação baseada em expressão regular
Os botões para adicionar e remover verificações de URL podem ser encontrados na parte superior da lista de verificação de URL.
Para adicionar uma verificação de URL, pressione o botão Adicionar nova verificação. Você será solicitado a inserir os detalhes da verificação de URL (conforme descrito abaixo em Editando uma verificação).
3. Removendo uma verificação
Para remover uma verificação de URL, marque a caixa de seleção ao lado de uma ou mais linhas na lista de verificação de URL. Pressione o botão Remover verificações de URL selecionadas para remover. Você será solicitado a confirmar ou cancelar a remoção. Pressionar OK para remover as verificações de URL selecionadas.
4. Editando uma verificação
As verificações de URL podem ser configuradas, com os seguintes parâmetros para cada verificação:
- Nome: Nome da verificação, utilizado para identificá-lo na lista.
- Descrição: Descrição da verificação, para referência posterior.
- Expressão regular: Expressão regular usada para corresponder aos URLs permitidos
- Habilitado: Caixa de seleção para ativar ou desativar a verificação
Veja abaixo como é a tela de configuração:
Tela de configuração de verificação de URL
5. Testando verificações
O formulário Testar verificações permite que uma URL seja verificada, informando se o acesso é permitido ou não.
Pressione o botão Testar URL para realizar as suas verificações. Se pelo menos uma verificação corresponder ao URL, ele será permitido e o teste indicará a verificação que permite o acesso. Caso contrário, será rejeitado e o teste indicará que nenhuma verificação de URL foi correspondente.
Tela de teste de verificações de URL
Fonte: GeoServer Documentation
-
10:30
How does revisit affect data fusion methods (between S2 and a potential VHR constellation)
sur Séries temporelles (CESBIO)In a previous post, we showed that spatio-temporal fusion methods would enable to obtain hybrid data with the revisit of the S2-NG mission (3 to 5 days), and the resolution of the Sentinel-HR mission (2 m), with an uncertainty better than the atmospheric correction errors (better than 0.01 in reflectance). In this section, we tested how this uncertainty evolves if we change the revisit of the Sentinel-HR constellation. The analysis was done by Julien Michel and Ekaterina Kalinicheva at CESBIO, and was partially funded by ESA in the framework of S2-NG preparation, by CNES, and by the EVOLAND (Horizon Europe) project.
Data SetsAs explained in the previous post, the work is based on VENµS and Sentinel-2 time series, with VENµS simulating the VHR mission, and S2 the S2-NG mission. To keep a factor 2.5 between the resolution of S2-NG and VENµS, we had to degrade S2 resolution to 12.5 m, as VENµS has a resolution of 5 m. VENµS images can be acquired with a 2 day revisit, but the acquisitions from this microsatellite have not always been fully reliable: there have been periods when the satellite was devoted to another mission, a few temporary breakdowns, and also recurrent downlink issues. As a result, it is not straightforward to simulate a regular time series with 10, 20, 30 and 60 days revisit for instance.
The study has been applied to 5 VENµS time series on different sites displayed in the table below, and an image of each region is provided.
VENµS site name Country description ARM USA Intensive agriculture ESGISB France Forests, small urban fabric ES-IC3XG SPAIN Forest Herbaceous vegetation FR-LAM France Agriculture, some woods MAD-AMBO Madagascar Arid, Shrubs The following graph provides a representation of the dates for the ARM site :
For the ARM time series, the blue dots correspond to the dates of VENµS with less than 50% of clouds, while the red dots are the S2 dates. The green dates correspond to acquisitions on the same day.In order to simulate the desired VHR series revisit, the following process is applied.
- all the dates with more than 50% cloud coverage are discarded
- S2 and VENµS acquisitions on the same day are searched to be used as a validation data set. In order to have an independent evaluation, same day acquisitions are therefore removed from the HR series and kept apart to serve as reference images in the evaluation process.
The remaining HR dates are processed as follows:
- A grid of dates with target revisit, starting at the first available HR date, is defined
- For each position in the grid, the closest HR date is selected. If this date was acquired less than N days apart from the grid date, the date is kept, otherwise it is discarded. We used N=¼ of the Target HR revisit.
Target revisit with less than 50 % of clouds Number of dates Mean revisit Minimum revisit Maximum revisit Rough value of revisit of a real satellite mision allowing the target revisit 10 20 16.4 6 32 8 20 14 23 16 38 12 30 11 30 24 36 15 40 8 39.7 34 46 20 50 7 50 48 53 25 60 6 60 56 64 30 Because of the gaps in VENµS acquisitions and because we removed the simultaneous images to get reference results, we could not simulate a real and regular revisit over long period of times. As explained above we worked with ‘target HR revisits with less than 50% of cloud cover. The mean revisit is the most interesting column, as it takes into account the missing dates, the reference dates, and the cloud coverage. For the high values, we have a mean revisit close to the target one, but for the low values, the mean revisit is higher.
Knowing that on average, 70 % of pixels are cloudy on the earth, we estimate that half of the acquisitions in a regular revisit provide images with less than 50% of clouds. We acknowledge that this should be checked. With this rule of thumb, we decided to test 3 configurations that correspond to 20, 40 and 60 days revisit with 50% cloud free, and therefore should correspond respectively to more or less to 12, 20 and 30 days revisit of a VHR constellation. We would have liked to test longer periods, but the number of dates used would be really reduced and the results could be statistically insignificant.
MethodsTo the 5 methods presented in the previous section, we removed the single image super resolution CARN, as it is not sensitive to the revisit (the VHR data are only used to train the network). Two new methods were added, named “Data Mining Sharpener”, and “Data fusion”.
- DMS : Data Mining Sharpener[1], has been widely use to improve the resolution of TIR images. It makes a regression between HR and LR data, and requires to make a new learning at each image. It needs a new learning for each image.
- DF (Data fusion), uses the Extended Super-Resolution Convolutional Neural Network[2], based on the architecture of Single Image Super resolution network named SCRNN. It has a simple architecture with 3 convolution layers, uses N HR images as input, and needs a new training for each image.
The zoom method does not need VHR data, and the gap-filling does not use S2-NG data. The four other methods (StarFM, DMS, DF and DDI ) used 2 dates before and 2 dates after the reference date. For a target revisit of 30 days (60 days with less than 50% of clouds), the VHR acquisition span over 180 days (three intervals of about 60 days), or half a year !
ResultsThe graphs below show that the DDI method has better performances than the other methods, that the Gap filling (or linear interpolation against time), which does not use the more frequent S2-NG images, can sometimes have very good performances when the VHR images are frequent, or when the landscape does not change much. However, of course, when changes occur, the performances are degraded, and an increased degradation is observed with the revisit. The three data fusion methods (DMS, DF, DDI) seem to behave almost equally, with DDI marginally better. We only show the red band here, but the results for the other VHR bands are similar.
RMSE error of fused images, for 20 days revisit with less than 50% of clouds, expressed as reflectances, for 5 sites and 74 validation dates, for the red band, a factor 2.5 in resolution between S2-NG and VHR, for the different methods, zoom, Gap filling (GF), StarFM (*FM), Data Mining Sharpener (DMS), Data Fusion (DF) and Data Driven Interpolation (DDI). For each method, a modeled histogram of errors per date is provided. The values are provided for all pixels, and for two strata of image gradients, the 25% lowest gradients (rather uniform environment), and the 25% highest gradients (pixels with a contrasted environment)Another experiment was done simulating the S2-NG images from VENµS ones, before applying the fusion methods to the simulated images (next figure). This avoids all the differences between S2 and VENµS regarding spectral bands, viewing directions, registration errors and noise… The figure below shows that the performance of (DMS, DF and DDI) are much better, and that DDI gives the best results. It is also interesting to know that most of the residual errors in the figures above are due to differences between VENµS and S2 and not to the data fusion. However, we think that the performances obtained using VHR data simulated by VENµS and LR simulated from S2 correspond better to the real performances, than similar results with both VHR and LR simulated from VENµS. The degradation of performances due to using two different sensors is maybe a little exagerated because of the the larger viewing angles of VENµS, while the VHR constellation should be observing at NADIR.
Same as above, but for 20 days revisit with less than 50% of clouds, or about 10 days revisit without accounting for clouds, and with simulated S2-NG images instead of real ones.The following figure compares the DDI method performances as a function of the revisit (with less than 50% cloud cover). Contrarily to the Gap filling, the degradation with time exists but is very low, showing that 30 days revisit (or 60 days with less than 50 of clouds) could be acceptable.
Comparison of results obtained from the DDI method with a mean revisit of 20, 40 and 60 days, with images with less that 50% of clouds. This should correspond to a mission with a revisit of, 10, 20 and 30 days regardless of cloud cover.As a conclusion, it appears that the fusion methods are quite robust to the degradation of the VHR revisit. The high resolution feature seem to be quite stable with time, and that the evolutions only concern a small fraction of the pixels. With such results, a revisit of 30 days could seem acceptable. However, such a diagnostic should be tempered by the fact that even if they don’t happen frequently, quick changes of VHR details are an important part of what is searched in such missions. Fusion methods may provide unreliable results when for instance a catastrophic event occurs which is not observed by the VHR imagery because of an infrequent revisit.
[1] Feng Gao, William P. Kustas, and Martha C. Anderson. A data mining approach for sharpening thermal satellite imagery over land. Remote Sensing, 4(11):3287–3319, 2012.
[2] Zhenfeng Shao, Jiajun Cai, Peng Fu, Leiqiu Hu, and Tao Liu. Deep learning-based fusion of landsat-8 and sentinel-2 images for a harmonized surface reflectance product. Remote Sensing of Environment, 235(nil):111425, 2019.
-
10:14
Test of spatio-temporal fusion of Sentinel-2 New Generation data with a potential VHR mission
sur Séries temporelles (CESBIO)Three years ago, we started the phase-0 study of a mission named Sentinel-HR : S-HR would be a satellite mission to complement Sentinel-2 new generation (S2-NG) with
- better resolution images (2 m),
- a lower revisit (around 20 days),
- 4 spectral bands (Blue, green, red and near-infrared),
- and the capacity to make stereoscopic observations
In that study, one of our assumptions was that a lower revisit frequency than that of Sentinel-2 was sufficient. This seems possible because, in most cases, the high frequency features of the images (the details) do not change as quickly as the low frequency features (the colors).
During that study, Julien Michel spent quite some time in verifying this assumption. To do so, he studied if it is possible to fuse the time series from S2-NG and from S-HR in order to get hybrid time series with the high resolution of S-HR (2 m), and the high revisit of S2 (5 days) or S2-NG (3 days). These results have already been shown in our report one year ago, but we are not fully sure everyone reads reports with 150 pages.
In this first article, we show the methodology, validation data set and first results, and in a second post, we study the influence of the revisit frequency. A second post studies the influence of the revisit.
Data sets
Different techniques allow to merge time series of S2NG and VHR data, to get at the same time the frequent revisit of S2NG, and the very high resolution of the S-HR, with a good accuracy. Our study compared different methods, using Sentinel-2 and VENµS images to simulate S-HR and S2NG data. As VENµS images are acquired every second day, for each time series, one image every 20 days was used for the data fusion, and the other ones to validate the fused data.
The following series gives an example of the data set we used (which has been published [4]). We have such data on 110 sites, observed by VENµS for two years.
Series of images obtained from Sentinel-2 (top row) and VENµS (bottom row). For each column, S2 and VENµS data were acquired one day apart or even on the same day. The first S2 image is shown in black as it was fully cloudy. As VENµS resolution is 5 m, the S2 data have been downgraded to 12.5 m, in order to keep the 2.5 resolution factor we will have between S2 NG and S-HR. In this data set, the first and last S-HR images are separated by 20 days. The real Sentinel-HR data would not provide the data in between. The S-HR images acquired in between are therefore used to validate the data fusion. Data fusion methodsFor sake of conciseness we do not detail the methods here, as they are fully described in the report. We studied five methods :
Two trivial methods for reference:
- GF : Gap filling the VHR data, without using any information from the S2 or S2NG sensors. It is just a temporal interpolation, performed pixel wise
- Zoom : Zooming the S2NG or S2 using resampling techniques. In that case S-HR data are not used.
Three more methods where tested:
- STARFM [3] or *FM is a classical multi-linear approach to data fusion, that uses information from both missions
- CARN [2] is an efficient single image super-resolution method, that only uses the S-HR data as reference data for the machine learning, while the inference of super-resolution images is obtained with the S2 (NG) data.
- DDI is a guided interpolation approach. Neural networks are trained to learn how to interpolate the S2(NG) data at S2(NG) resolution, and then, the same neural network is used to interpolate the VHR data at full resolution. The DDI method was tested with two different normalizations. DDI, developed at CESBIO ash not been published yet, but should be published soon.
The results displayed in next figure show that differences lower than 0.01 with the reference data set have been reached in the red, green and blue bands with the DDI methods. It has been tested for uniform pixels, where temporal variations are preponderant, and with the 25% of pixels that include the highest gradients, for which the spatial features are more important. The results are not as accurate for the near infra-red bands because of larger differences in the spectral response functions between VENµS and Sentinel-2. Standard deviations of 0.01 are close to the performances of atmospheric correction on Sentinel-2 images. It may therefore be considered as a really good result.
Comparison of data fusion methods for 4 bands, obtained on a data set of Sentinel-2 images degraded to 25 m GSD, and VENµS images at 5m, representing the VHR images with a low revisit of 20 days. The factor between resolution is the same as in Sentinel2 vs VHR mission. GF is gap filling, or temporal interpolation, using only VENµS images, ZOOM is a spatial interpolation using only S2 images, STARFM is a classical but old multilinear data fusion method, CARN is a single image super resolution method based on deep learning, using S2 and VENµS for training but only S2 for inference, and DDI is a modern data fusion method. The results show that an accuracy on reflectance of 0.01 can be reached even for the pixels with sharp variations. Gap Filling provides good results for the rmse, but terrible results for the temporal criteria.The next figure shows, for just one case, the differences observed in the fused data depending on the methods. The final report includes much more results.
It is interesting to note that the gap filling methods predicts the contours very well, but the linear interpolation in time is not able to capture the complex evolution of landscape colors, while the other methods manage to provide the low frequency evolution, but do not obtain the contours as well as the gap filling. However, the DDI methods does quite a good job for both criteria, as shown by the statistics above. These results show that our assumption of the possibility of a lower revisit for the Sentinel-HR is correct. Of course, in terms of cost, a constellation with a revisit of 20 days is probably 4 times cheaper than the same constellation with 5 days revisit. In a second post we studied if we could further reduce the revisit.
[1] Julien Michel, Olivier Hagolle, Jean-Marc Delvit, Martin Thierry, Lebegue Laurent, et al.. Sentinel-HR Phase 0 Report. CNES – Centre national d’études spatiales; CESBIO. 2022. [https:]]
[2] Li, Yawei, Agustrsson, Eirikur, Gu, Shuhang, et al. Carn: Convolutional anchored regression network for fast and accurate single image super-resolution. In : Proceedings of the European Conference on Computer Vision (ECCV) Workshops. 2018. p. 0-0.
[3]Hilker, T., Wulder, M. A., Coops, N. C., Seitz, N., White, J. C., Gao, F., … & Stenhouse, G. (2009). Generation of dense time series synthetic Landsat data through data blending with MODIS using a spatial and temporal adaptive reflectance fusion model. Remote Sensing of Environment, 113(9), 1988-1999.
[4] Michel, J., Vinasco-Salinas, J., Inglada, J., & Hagolle, O. (2022). SEN2VENµS, a dataset for the training of Sentinel-2 super-resolution algorithms. Data, 7(7), 96.
-
9:52
More Medieval Murder Maps!
sur Google Maps ManiaOn Saturday 2 Feb 1297 three Oxford University students decided to celebrate the festival of the purification of the Blessed Virgin Mary by going on a frenzied rampage. On the evening of the festival John de Skurf and his two friends Michael and Madoc ran through the streets of Oxford with swords, bows, and arrows "attacking all passers-by". One John Metescharp was shot with an arrow by
-
8:08
Entre corps et espace (Jean-David Nkot)
sur Carnet (neo)cartographiqueJean-David Nkot est un brillant artiste plasticien camerounais né en 1989 à Douala, formé à l’Institut des Beaux arts de Foumban et installé à Douala, au Cameroun. Ce très exceptionnel artiste – bah, je dis ça parce que j’aime beaucoup son travail – mobilise la carte et des éléments de la cartographie en support avant ou arrière de plusieurs de ses œuvres, liant deux mots-clés : corps et espace.
Jean-David Nkot sur les frontières et les circulations
Profondément humaniste, Jean David Nkot a dédié l’une de ses séries aux circulations humaines et non aux migrations (il se défend de s’intéresser aux migrations en tant que telles) dans le monde contemporain qu’il donne à voir en les questionnant, du point de vue de l’humain. Ce qui l’intéresse c’est la matérialisation par l’art de cet entre-deux vécut entre lieux d’origine et de destination et qui correspond au voyage dans son ensemble, c’est-à-dire aux moments de circulations mais aussi à ces temps de pause, d’arrêts, finalement à ce qu’il qualifie la « zone grise ».
Ses œuvres montrent en effet des portraits des personnes noires, posant avec des cartes très prégnantes. Dans ce travail, la carte en elle-même ou des éléments de la conception cartographique sont une composante fondamentale de l’œuvre.
Les éléments cartographiques sont ainsi placés soit en arrière-plan soit au premier plan par rapport au sujet principal soit incrustés sur celui-ci.
Dans le premier cas, ces éléments sont des collages de sections de cartes réelles ou des bouts de carte fabriquées par l’auteur, des aplats, des points de repère. L’ensemble est toujours customisée pour servir le propos. En fonction de la position et de l’attitude du sujet, toujours évocatrice, les cartes sont complétées d’éléments de contexte : un tabouret pour signifier une localisation, un emplacement assez peu confortable, le tampon d’un visa évoquant le droit de passage, d’apparaître sur la carte, des mentions de lieux remarquables (Le Louvre par exemple), le dessin de voies de circulation plus ou moins importantes et ainsi de suite.
Dans le second cas, les éléments cartographiques, souvent un enchevêtrement fin de voies de circulation servent à cacher la personne représentée qui se laisse ainsi deviner, en n’étant pas au premier plan du décor. C’est le cas des séries Undesirables (2022) ou encore The Shadows of space (2019 à 2021 voir exemples ci-après).
Le travail de l’artiste autour de la cartographie et des circulations a notamment été interrogé par Anne Bokandé en 2020, dans le cadre le cadre de la Saison #6 Nouvelles Cartographies et du projet « Nouvelles cartographies – Lettres du Tout-Monde » du Labo 148.
L’entretien avec Jean-David Nkot qui en résulte, intitulé Les cartographies comme espaces de questionnement des circulations aujourd’hui et des manières d’habiter est disponible dans Bitume d’où est extrait le questionnement suivant de l’artiste.
« Aujourd’hui vous voyez que c’est important de circuler librement, parce que lorsqu’un cas se déclare quelque part, un autre peut être espace d’accueil le temps de trouver des solutions. Pourtant, que faites-vous, vous, quand le reste du temps, vous fermez les frontières, et interdisez que d’autres entrent ? Si tout le monde commence à faire cela, comment s’en sortir ? Vous voyez bien qu’on a besoin de son voisin pour exister. » En Italie désormais ce sont les Cubains qui viennent aider les malades. Alors je me questionne : quelle sera la nouvelle cartographie du monde après la sortie de cet événement ? Comment les gens vont reconstruire la carte du monde ? Soit nous allons davantage nous enfermer, soit nous allons véritablement revoir les questions de frontières entre nous. Pas physique, mais entre humains. Comment avons-nous envie de les revoir ? La cartographie est quelque chose de crucial. On ne peut rien faire sans. Cela nous oriente. Mais quelles cartographies ? Est-ce que celles que nous utilisons actuellement nous conviennent ?
Jean-David Nkot à propos des européens qui résident en Afrique et ne veulent en partir.
A savoir également que Jean-David Nkot a participé avec Michel Ekeba et Géraldine Tobé (République Démocratique du Congo), dans le cadre de l’Art Space Projet (ASAP) présenté dans cet article du Monde, à l’œuvre « Memory of today, Memory of the future » qui a été placée sur le premier satellite météorologique africain lancé en décembre 2022 par Ariane Espace.
Un artiste vraiment exceptionnel, je vous disais en introduction, qui est représenté en France par la sympathique galerie Afikaris
Jean-David Nkot, Le transporteur, 2021 ©Jean-David Nkot. Source : Afikaris.
Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.
-
7:07
Mise à jour ArcGIS for Microsoft 365 - Juin/Août 2023
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
ArcGIS for Microsoft 365 est un ensemble de composants qui s'exécutent directement dans les applications Microsoft 365 (Excel, SharePoint, Power BI, Teams, Power Automate et Power Apps) et qui permettent aux utilisateurs de votre organisation d'accéder, d'analyser, d'enrichir et de collaborer avec les données de votre portail ArcGIS, tout en restant dans l'environnement applicatif Microsoft de l'utilisateur.
En juin dernier, la documentation des composants d'ArcGIS for Microsoft 365 a été consolidée en un seul site pour vous permettre de voir comment cette suite de produits est intégrée à tous vos produits Microsoft préférés.
Suite à la mise en ligne de cette nouvelle documentation, la mise à jour d'août 2023 apporte cette fois-ci de nouvelles capacités fonctionnelles, des améliorations significatives, des corrections de bugs et de nouveaux outils à explorer.
Ci-dessous, je vous propose un petit tour des évolutions notables pour chaque composant...
Retrait d'ArcGIS for Office
Pour suivre les évolutions de Microsoft avec les outils Microsoft 365, Esri propose sa suite de composants sous la terminologie ArcGIS for Microsoft 365. De même, ArcGIS for Excel a remplacé ArcGIS for Office. Depuis le 1er juin 2023, ArcGIS for Office a été retiré. Esri ne prend plus en charge les versions précédentes d'ArcGIS for Office. Vous devrez, le cas échéant, recréer vos anciennes cartes ArcGIS for Office dans ArcGIS for Excel après avoir déployé le complément ArcGIS for Excel. Pour plus d’informations, consultez l’article du blog ArcGIS (en anglais) Préparer le retrait d’ArcGIS for Office.
ArcGIS for Excel- Vous pouvez utiliser les outils "Zoom vers" ou "Sélectionner" dans l'onglet "Map Data" pour accéder à partir de leur ligne, cellule ou plage de cellules correspondante dans la feuille de calcul Microsoft Excel.
- Vous pouvez désormais ajouter et modifier la table d'attributaire d'une couche d'entités ArcGIS Online ou ArcGIS Enterprise dans une feuille de calcul Excel. Les modifications que vous apportez dans Microsoft Excel peuvent être immédiatement mises à jour dans les champs modifiables des données hébergées dans votre organisation.
Inversement, en cliquant sur "Rafraîchir" sur la couche lorsque vous l'avez ouverte dans Excel pour voir les modifications apportées à la couche hébergée par une autre application connectée à ArcGIS Online ou ArcGIS Enterprise.
- Vous pouvez dorénavant ajouter une nouvelle colonne dans Excel et l'ajouter automatiquement dans la table attributaire de votre couche d'entités ArcGIS Online ou ArcGIS Enterprise. Les types de données pouvant ainsi être écrits dans une cellule sont les nombres, les textes, les valeurs logiques (vrai et faux) ou les erreurs. Lorsque vous saisissez des données dans une cellule, Microsoft Excel détecte et attribue automatiquement le type correspondant.
- L'utilisation de formules dans Microsoft Excel est l'un des moyens les plus efficaces de travailler avec vos données Excel. ArcGIS for Excel inclut des fonctions que vous pouvez utiliser l'outil le constructeur de fonction d'Excel dans la barre d'outils.
Dans cette mise à jour, Esri a ajouté un générateur de fonctions fournissant des menus déroulants pour définir les paramètres des fonctions d'ArcGIS for Excel afin de rendre la construction de ces fonctions encore plus facile.
- L'outil Fonds de carte" est désormais plus intuitif à utiliser. Les paramètres de cet outil étaient auparavant gérés depuis le volet Visualizations. Maintenant, lorsque l'outil "Fonds de carte" est désactivé et que vous faites glisser des données dans un champ Power BI, l'outil s'active automatiquement, vous permettant de mettre à jour le fond de carte.
- Lorsque vous sélectionnez des entités sur une couche temporelle et que vous exécutez l'animation temporelle, seules les entités visibles pendant la période de temps spécifiée sont affichées pendant la lecture de l'animation.
ArcGIS for SharePoint- Vous pourrez utiliser le bouton "Réinitialiser la connexion" pour supprimer le contenu d'une carte ou changer les connexions de votre organisation ArcGIS ou de votre portail.
- De nouvelles commandes PowerShell permettent maintenant de modifier les connexions ArcGIS et de contrôler l'accès à l'organisation ArcGIS.
- La documentation d'installation et de gestion d'ArcGIS for SharePoint a été mise à jour.
- Le partage de cartes est désormais désactivé pour les visionneuses et les contributeurs peuvent masquer les options de partage des visionneuses.
ArcGIS for Teams- La disposition de l'onglet Options dans l'installation à portée personnelle (privée) a été améliorée.
- D'autres types d'éléments de recherche sont disponibles pour être ouverts dans ArcGIS pour Teams pendant que vous effectuez une recherche.
Connecteurs ArcGIS for Power Automate- ArcGIS Connectors for Power Automate inclut maintenant le connecteur ArcGIS Enterprise pour accéder et utiliser certaines actions.
- L'action "Find address candidates" fournit désormais plusieurs résultats, classés par score de correspondance, contenant des informations de localisation sur une entrée.
- Les actions "Find address candidates" et "Geocode addresses" prennent désormais en charge les géocodeurs personnalisés.
- Le problème de rafraîchissement du token qui entraînait des interruptions de flux a été résolu.
Ressources supplémentaires
Pour aller plus loin, vous pouvez lire les récents articles (en anglais) du blog ArcGIS. Vous pouvez également découvrir les composants ArcGIS for Microsoft 365 en visualisant les vidéos (en anglais) sur Esri Media, la nouvelle page de produit ou encore les pages de la communauté ArcGIS for Microsoft 365 et les articles de blog spécifiques à chaque composant :- ArcGIS for SharePoint
- ArcGIS for Excel
- ArcGIS for Power BI
- ArcGIS for Teams
- Connecteurs ArcGIS for Power Automate
- Vous pouvez utiliser les outils "Zoom vers" ou "Sélectionner" dans l'onglet "Map Data" pour accéder à partir de leur ligne, cellule ou plage de cellules correspondante dans la feuille de calcul Microsoft Excel.
-
21:20
Fernando Quadro: GeoServer ACL
sur Planet OSGeoA versão 2.24.x do GeoServer traz entre suas novidades o GeoServer ACL (Access Control List), um sistema de autorização avançado.
Ele consiste em um serviço independente que gerencia regras de acesso e um plugin do GeoServer que solicita limites de autorização por solicitação.
Como administrador, você usará o GeoServer ACL para definir regras que concedem ou negam acesso a recursos publicados com base nas propriedades da solicitação de serviço, como credenciais do usuário, o tipo de serviço OWS (OGC Web Services) e as camadas solicitadas.
Essas regras podem ser tão abertas quanto conceder ou negar acesso a espaços de trabalho inteiros do GeoServer, ou tão granulares quanto especificar quais áreas geográficas e atributos de camada permitir que um usuário ou grupo de usuários específico veja.
Como usuário, você executará solicitações ao GeoServer, como WMS GetMap ou WFS GetFeatures, e o mecanismo de autorização baseado no ACL limitará a visibilidade dos recursos e conteúdos das respostas àqueles que correspondem às regras que se aplicam às propriedades da solicitação e as credenciais do usuário autenticado.
GeoServer ACL não é um provedor de autenticação. É um gerenciador de autorização que usará as credenciais do usuário autenticado, sejam elas provenientes de HTTP básico, OAuth2/OpenID Connect ou qualquer mecanismo de autenticação que o GeoServer esteja usando, para resolver as regras de acesso que se aplicam a cada solicitação específica.
GeoServer ACL é Open Source, nascido como um fork do GeoFence. Como tal, segue a mesma lógica para definir regras de acesso a dados e acesso administrativo. Portanto, se você estiver familiarizado com o GeoFence, será fácil raciocinar como o GeoServer ACL funciona.
Fonte: GeoServer ACL Project
-
19:16
Recap des GéoDataDays
sur Veille cartographieCet article Recap des GéoDataDays est apparu en premier sur Veille cartographique 2.0.
Les 13 et 14 septembre 2023 avaient lieu la 6ème édition des GéoDataDays à Reims, manifestation annuelle qui regroupe l’ensemble des acteurs de la filière géomatique en France. Les GéoDataDays est un évènement organisé communément par l’association Afigéo et le média DécryptaGéo et émane des désormais anciennes « Rencontres des Dynamiques régionales en information géographiques » et […]
Cet article Recap des GéoDataDays est apparu en premier sur Veille cartographique 2.0.
-
15:00
Wuhan University receives OGC Community Impact Award
sur Open Geospatial Consortium (OGC)The Open Geospatial Consortium (OGC) has announced Wuhan University, represented by Professor Peng Yue, as the latest recipient of the OGC Community Impact Award. The award was presented at the VIP Dinner of the 127th OGC Member Meeting in Singapore.
The Community Impact Award is given by OGC to highlight and recognize those members of the OGC Community who, through their exceptional leadership, volunteerism, collaboration, and investment, have had a positive impact on the wider geospatial community.
“Wuhan University and Professor Peng Yue exemplify the mission of OGC through their combined efforts in technical leadership and international consensus building,” commented OGC Chief Standards Officer, Scott Simmons. “Their recent contributions toward standardization in AI were inclusive of the breadth of OGC membership and will prove truly useful for the geospatial community.”
Wuhan University has, and continues to, make an impact within the OGC Community through their active leadership, international collaboration, and engagement across numerous OGC Collaborative Solutions and Innovation Program (COSI) Initiatives, Working Groups, Member Meetings, and the OGC China Forum. Professor Peng Yue was also the primary lead on the newly published Training Data Markup Language for Artificial Intelligence (Part 1) Standard.
The OGC Community Impact award highlights the importance of collaboration, volunteering time and energy, advancing technologies and standards, raising awareness, and helping solve critical issues across the geospatial community. Wuhan University exemplifies all of these qualities in their work to drive innovation and standards for AI/ML and associated training data, and their efforts in leading the OGC Community in China.
The post Wuhan University receives OGC Community Impact Award appeared first on Open Geospatial Consortium.
-
11:42
HCMGIS, un plug-in multivarié
sur Veille cartographieCet article HCMGIS, un plug-in multivarié est apparu en premier sur Veille cartographique 2.0.
Développés par des organisations (par exemple Oslandia, 3Liz…) ou bien par des développeurs indépendants, QGIS est rempli de ce que l’on appelle plug-ins ou communément appelés en français extensions. Ils permettent de rajouter de nouvelles fonctionnalités à celui-ci comme par exemple faire du traitements d’images satellitaires en télédétection avec l’extension SCP (Semi-automatic Classification PlugIn) ou […]
Cet article HCMGIS, un plug-in multivarié est apparu en premier sur Veille cartographique 2.0.