Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
4738 éléments (2 non lus) dans 55 canaux
- Cybergeo
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (1 non lus)
- Mappemonde
- Dans les algorithmes
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée
- Geotribu
- Les cafés géographiques
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (1 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques
- Veille cartographie
- Makina Corpus
- Oslandia
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Éléments récents
-
18:39
How OGC Contributes to FAIR Geospatial Data
sur Open Geospatial Consortium (OGC)Standards are a key element of the FAIR Principles of Findability, Accessibility, Interoperability, and Reusability. As such, the Open Geospatial Consortium (OGC) has been supporting the FAIR Principles for geospatial information since its formation 30 years ago.
Following the more recent codification of the FAIR principles, the growing recognition of their potential to improve data production, storage, exchange, and processing is seeing them being used to support and enhance recent technological developments such as artificial intelligence, crowdsourcing, data spaces, digital twins, cloud computing, and beyond. This blog post, therefore, offers an overview of select OGC standards and components that support FAIRness in geospatial data.
Within the whole OGC Standards suite, we can broadly distinguish two types of Standards: data format and transfer standards that facilitate data exchange between systems; and semantic interoperability standards that support a common understanding of the meaning of data. For example, OGC Standards that define interoperable geometrical information formats, such as 3D Tiles, GML, GeoPackage, GeoTiff, or KML, support FAIRness by facilitating data Access and Reuse.
Communication StandardsStarting with OGC Web Map Service (WMS) 1.0 in 2000, the suite of OGC Web Services Standards grew to become OGC’s most popular and successful suite of Standards. Services that implement OGC Web Services Standards give access to different kinds of data through the web. Most OGC Web Services provide instructions on how to post a message or build a query URL that gives access to the data behind the service. The URL contains an action to perform and parameters to modify the action and specify the form of the result.
While perfectly functional, the OGC Web Services Standards do not completely follow modern practices on the Web. In particular they do not focus on resources but on operations. To correct that issue, the OGC is evolving the OGC Web Services into the OGC APIs – open web APIs that define resources and use HTTP methods to retrieve them. OGC APIs have diverse functionalities, as explained below.
Communication Standards for Finding DataThe Catalog Service for the Web (CSW) is an OGC Web Service that provides the capacity to query a collection of metadata and find the data or the services that the user requires. Deploying a CSW (e.g. a GeoNetwork instance) is a way to comply with the FAIR sub-principle “F4. (Meta)data are registered or indexed in a searchable resource.” CSW is compatible with Dublin Core and ISO 19115 metadata documents. An interesting characteristic of the GeoNetwork is its capability to store attachments to the metadata. This provides a way to store the actual data as an attachment and link it to the distribution section of an ISO 19115. This ensures not only Findability of the metadata but also Findability of the data. In the Open Earth Monitor (OEMC) project, CSW can be effectively used to store metadata about the in-situ data and some of the results of the pilots, making them Findable on the web. The original Remote Sensing data is offered through a SpatioTemporal Asset Catalog (STAC).
The OGC API – Records Standard is an alternative to CSW that uses the aforementioned resource-oriented architecture. It gives a URL to each and every metadata/data record stored in the catalog, making it compliant with the FAIR sub-principle “F1. (Meta)data are assigned a globally unique and persistent identifier.” The OGC API – Records Standard is still in its draft phase and the authors are making efforts to exploit STAC good practices and make the two compatible.
For flexibility, in the CSW and OGC API – Records Standards, a metadata record is not obligatory, though it is desirable in many cases. This is useful for improved findability, but also for preservation purposes when the dataset may no longer be available. This ensures compatibility with the FAIR sub-principle “A2. Metadata are accessible, even when the data are no longer available.”
Communication Standards for Accessing DataThe OGC Web Feature Service (WFS) and the Web Coverage Service (WCS) give access to feature or coverage data independently of the data’s data model or schema. Implementations of these services are based on Open Standards that can be implemented for free. This complies with the FAIR sub-principle “A1.1 The protocol is open, free, and universally implementable.” It is possible to get the whole resource or a subset of it based on spatial or thematic queries. However, these services are based on a service-oriented architecture and do not necessarily provide a URI for each resource.
The newer OGC API – Features and OGC API – Coverages Standards, though, provide similar functionality with a resource-oriented architecture. They provide a URI for each resource they expose. This makes the OGC API Standards, as well as the SensorThings API, compliant to the FAIR sub-principle “A1. (Meta)data are retrievable by their identifier using a standardized communications protocol.” OGC Web Services and OGC APIs both use the HTTP protocol over the Internet and can make use of the current standards and practices for authentication and authorization, such as OpenID Connect.
However, the resource-oriented architecture of the OGC API Standards means they are better positioned to adopt best practices for authentication and authorization. In this paradigm, authorization on geospatial resources can be fine-tuned for each resource URI in the same way as any other resource on the Web. As such, OGC API – Features, OGC API – Coverages, and The Sensor Things API comply with the FAIR sub-principle “A1.2 The protocol allows for an authentication and authorization procedure, where necessary.”
Semantic Interoperability Standards The OGC RAINBOWTo better support the “Interoperable” FAIR principle as it applies semantic interoperability, OGC is implementing the OGC RAINBOW (formerly the OGC Definitions Server) as a Web accessible source of information about concepts and vocabularies that OGC defines or that communities ask the OGC to host on their behalf. It applies FAIR principles to the key concepts that underpin interoperability in systems using OGC specifications.
The OGC Registry for Accessible Identifiers of Names and Basic Ontologies for the Web (RAINBOW) is a linked-data server, published and maintained by OGC, used to manage and publish reference vocabularies, standard definitions with profiles, ontologies, and resources. It is intended to be a node in an interoperable ecosystem of resources published by different communities. It supports a wide spectrum of resources and allows more value to be realized from data. It can be accessed at opengis.net/def.
OGC RAINBOW is implemented using Linked Data principles that provide enhanced findability, making it compliant with the FAIR sub-principles “F1. (Meta)data are assigned a globally unique and persistent identifier” and “F4: (Meta)data are registered or indexed in a searchable resource.” It is accessed using the HTTP protocols over the Internet, so is also compliant with “A1. (Meta)data are retrievable by their identifier using a standardised communication protocol” and “A1.1 The protocol is open, free, and universally implementable.”
The set of concepts stored in the RAINBOW or in other vocabularies can be used by data and metadata to comply with the FAIR sub-principles “I1. (Meta)data use a formal, accessible, shared, and broadly applicable language for knowledge representation” and “I2. (Meta)data use vocabularies that follow FAIR principles.”
The OGC SensorThings APIThe OGC SensorThings API is an open and free standard that complies to the FAIR sub-principle “A1.1 The protocol is open, free, and universally implementable.” It incorporates a data model that includes two properties that allow for linking to URLs for “units of measurement” and “observed properties” (e.g. references to variable definitions) that makes it compliant with the FAIR sub-principle “I2. (Meta)data use vocabularies that follow FAIR principles.” However, other services and APIs, such as OGC API – Features and OGC API – Coverages, do not specify how this could be done in practice, so more work needs to be done in that respect.
On the other hand, the new OGC APIs use link mechanisms to connect datasets, resources, and resource collections to other resources for different purposes, making them compliant with the FAIR sub-principle “I3 (Meta)data include qualified references to other (meta)data.”
Similarly, the new OGC SensorThings API plus (STAplus) Standard includes an additional element called “Relation” that allows for relating an observation to other internal or external observations. It also adds an element called “License” associated with the datastream or observation group that complies with the FAIR sub-principle “R1.1. (Meta)data are released with a clear and accessible data usage license.” Further, the STA data model can be extended to domain-specific areas by subclassing some of the entities, such as “Thing” and “Observation,” allowing it to meet the FAIR sub-principle “R1.3. (Meta)data meet domain-relevant community standards.”
STAplus includes many considerations for secure operations and can support authentication and authorization through the implementation of business logic, making it compliant with the FAIR sub-principle “A1.2. The protocol allows for an authentication and authorization procedure where necessary.”
Other Standard Thematic Data ModelsOGC also offers Standards that define thematic data models and knowledge representations. For example, WaterML is an information model for the representation of water observations data. In addition, PipelineML defines concepts supporting the interoperable interchange of data pertaining to oil and gas pipeline systems. The PipelineML Core addresses two critical business use-cases that are specific to the pipeline industry: new construction surveys and pipeline rehabilitation.
Another example is the Land and Infrastructure Conceptual Model (LandInfra) for land and civil engineering infrastructure facilities. Subject areas include facilities, projects, alignment, road, railway, survey, land features, land division, and “wet” infrastructure (storm drainage, wastewater, and water distribution systems). CityGML is intended to represent city objects in 3D city models. The (upcoming) Model for Underground Data Definition and Integration (MUDDI) represents information about underground utilities. IndoorGML offers a data model to represent indoor building features. Finally, GeoSciML is a model of geological features commonly described and portrayed in geological maps, cross sections, geological reports and databases. This standard describes a logical model for the exchange of geological map data, geological time scales, boreholes, and metadata for laboratory analyses.
The existence of these Standards can help each thematic sector to comply with the FAIR Interoperability sub-principle “I1. (Meta)data use a formal, accessible, shared, and broadly applicable language for knowledge representation.” As well as these standards, connecting their vocabularies to information systems or databases would significantly increase their usefulness and encourage the principle of Reusability “R1.(Meta)data are richly described with a plurality of accurate and relevant attributes” and sub-principle “R1.3 (Meta)data meet domain-relevant community standards.”
FAIR in Everything We DoOGC’s Mission, to “Make location information Findable, Accessible, Interoperable, and Reusable (FAIR),” places the FAIR Principles at the heart of everything we do. This post has shown how OGC Standards explicitly address the FAIR Principles to contribute to FAIR geospatial data.
The Standards shown here were chosen due to their popularity and utility, but represent only a small portion of what’s available from OGC. You can see the full suite of OGC Standards at ogc.org/standards.
For more detailed information on OGC API Standards, including developer resources, news of upcoming code sprints, or to learn how the family of OGC API Standards work together to provide modular “building blocks for location” that address both simple and the most complex use-cases, visit ogcapi.org.
The post How OGC Contributes to FAIR Geospatial Data appeared first on Open Geospatial Consortium.
-
10:24
The Most Popular Music in Your Town
sur Google Maps ManiaSZA's Kill Bill was the most listened to song in New York and San Francisco this year. In Denver and New Orleans the most listened to song was Morgan Wallen's Last Night. While Eslabon Armado y Peso Pluma's Ella Baila Sola was the most popular tune in Los Angeles, Houston and San Diego.Spotify has released a new interactive map which reveals the most listened to songs in cities around the world
-
8:13
Les nouveautés d'ArcGIS Insights 2023.3
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
ArcGIS Insights est l'application du système ArcGIS qui combine l'exploration, la visualisation et l'analyse des données pour accélérer la prise de décision. Les diagrammes, les statistiques à la volée, les filtres et les cartes sont interactifs et offrent des capacités très avancées d'analyse. Insights offre un large éventail de fonctionnalités pour vous aider à comprendre vos données, à répondre à des questions importantes et à créer des rapports interactifs.
La version Insights 2023.3 (novembre 2023) est disponible depuis quelques jours. Elle propose un nouveau widget de filtre, un nouveau type de diagramme "alluvial" et des flèches nord pour les cartes. Dans cet article, je vous propose d'en savoir un peu plus sur ces nouvelles fonctionnalités afin de pouvoir les essayer la prochaine fois que vous utiliserez Insights.
Widget de filtre
Un nouveau widget de filtre a remplacé le widget de filtre prédéfini. Les widgets de filtre prennent en charge toutes les configurations de filtres prédéfinis, ainsi que des configurations supplémentaires et des performances améliorées.
Les widgets de filtre sont idéaux pour permettre aux utilisateurs de filtrer les données sur les rapports publiés.
Les filtres prédéfinis existants peuvent toujours être utilisés dans les classeurs et les rapports, mais ne peuvent pas être mis à jour ou configurés. Pour de meilleurs résultats, remplacez les widgets de filtre prédéfinis par un widget de filtre.
Diagrammes alluviaux
Les diagrammes alluviaux sont un type de graphique qui montre la relation entre des valeurs uniques dans plusieurs champs. Vous pouvez utiliser des diagrammes alluviaux pour comprendre l'ampleur des relations entre les catégories et la façon dont les objets, les personnes ou les phénomènes circulent entre eux.
Flèche d'orientation du nord
Une flèche nord peut désormais être ajoutée à une carte. Les flèches Nord sont utiles pour orienter les cartes qui ont été pivotées.
Autres mises à jour
Les fiches de type "Diagrammes de densité" et de type "Date Clock" prennent désormais en charge la définition de classification manuelle.
Des polices supplémentaires sont désormais disponibles pour les étiquettes de carte
Davantage de ressources
Vous pouvez désormais accéder à ces améliorations et à plusieurs autres dans ArcGIS Insights. Pour obtenir la liste complète des nouvelles fonctionnalités, consultez Nouveautés dans la documentation d’aide Insights.
Vous pouvez poser vos questions ou signaler vos réalisations via la communauté ArcGIS Insights, et accéder également à des ressources et soumettre des idées de nouvelles fonctionnalités que vous souhaitez voir arriver dans Insights.
Conclusion
Vous pouvez dès maintenant commencer à tester ces nouvelles fonctionnalités. Sachez cependant qu'ArcGIS Insights 2023.3 est actuellement disponible uniquement sur ArcGIS Online. Les éditions d'ArcGIS Insights sur ArcGIS Enterprise et ArcGIS Insights Desktop 2023.3 seront bientôt disponibles.
-
1:00
GeoServer Team: GeoServer installation methods on Windows
sur Planet OSGeoGeoSpatial Techno is a startup focused on geospatial information that is providing e-learning courses to enhance the knowledge of geospatial information users, students, and other startups. The main approach of this startup is providing quality, valid specialized training in the field of geospatial information.
( YouTube | LinkedIn | Facebook | Reddit | X )
GeoServer installation methods: “Windows Installer” and “Web Archive”GeoServer installation methods: “Windows Installer” and “Web Archive” In this session, we will talk about how to install GeoServer software by two common methods in Windows. If you want to access the complete tutorial, simply click on the link.
IntroductionGeoServer can be installed on different operating systems, since it’s a Java based application. You can run it on any kind of operating system for which exists a Java virtual machine. GeoServer’s speed depends a lot on the chosen Java Runtime Environment (JRE). The latest versions of GeoServer are tested with both OracleJRE and OpenJDK. These versions are:
- Java 17 for GeoServer 2.23 and above
- Java 11 for GeoServer 2.15 and above
- Java 8 for GeoServer 2.9 to GeoServer 2.22
- Java 7 for GeoServer 2.6 to GeoServer 2.8
- Java 6 for GeoServer 2.3 to GeoServer 2.5
- Java 5 for GeoServer 2.2 and earlier
But remember that the older versions are unsupported and won’t receive fixes nor security updates, and contain well-known security vulnerabilities that have not been patched, so use at own risk. That is true for both GeoServer and Java itself.
There are many ways to install GeoServer on your system. This tutorial will cover the two most commonly used installation methods on Windows.
- Windows Installer
- Web Archive
The Windows installer provides an easy way to set up GeoServer on your system, as it requires no configuration files to be edited or command line settings.
Installation- GeoServer requires a Java environment (JRE) to be installed on your system, available from Adoptium for Windows Installer, or provided by your OS distribution. For more information, please refer to this link: [https:]
Consider the operating system architecture and memory requirements when selecting a JRE installer. 32-bit Java version is restricted to 2 GB memory, while the 64-bit version is recommended for optimal server memory. Utilizing JAI with the 32-bit JRE can enhance performance for WMS output generation and raster operations.
- Install JRE by following the default settings and successfully complete the installation.
- Navigate to the GeoServer.org and download the desired version of GeoServer.
- Launch the GeoServer installer and agree to the license.
- Enter the path to the JRE installation and proceed with the installation. The installer will attempt to automatically populate this box with a JRE if it is found, but otherwise you will have to enter this path manually.
- Provide necessary details like the GeoServer data directory, administration credentials, and port configuration.
- Review the selections, install GeoServer, and start it either manually or as a service.
- Finally, navigate to localhost:8080/geoserver (or wherever you installed GeoServer) to access the GeoServer Web administration interface.
GeoServer can be uninstalled in two ways:
- By running the uninstall.exe file in the directory where GeoServer was installed
- By standard Windows program removal
GeoServer is packaged as a web-archive (WAR) for use with an application server such as Apache Tomcat or Jetty. It has been mostly tested using Tomcat, and so is the recommended application server. There are reasons for installing it such as it is widely used, well-documented, and relatively simple to configure. GeoServer requires a newer version of Tomcat (7.0.65 or later) that implements Servlet 3 and annotation processing. Other application servers have been known to work, but are not guaranteed.
Installation- Make sure you have a JRE installed on your system, then download Apache Tomcat from its website [https:] For the Windows installation package, scroll down and choose the 32bit/64bit Windows Service Installer option.
- Configure Tomcat by selecting components, setting up a username and password, and specifying memory settings. So, before start the Tomcat service, you have to configure the memory settings that will use for Java VM. To do it, open the Tomcat9w from the bin folder, then click on the Java tab. This tab allows for configuration of memory settings, including initial and maximum memory pool sizes. Recommended values are 512MB for the initial memory pool and 1024MB for the maximum memory pool.
- Start Tomcat service and verify its functionality, then navigate to localhost:8080, and get the Tomcat9 web page.
- Navigate to the GeoServer.org and Download page. Select Web Archive on the download page from the version of GeoServer that you wish to download.
- Deploy the GeoServer web archive as you would normally. Often, all that is necessary is to copy the GeoServer.war file to the Tomcat’s webapps directory, then the application will be deployed automatically.
- Now to access the Web administration interface, open a browser and navigate to localhost:8080 and press Manager App button. Enter the username and password of apache tomcat. Click on the start button for the GeoServer. Once it has started, click the GeoServer link. This will take you to the GeoServer web page.
Stop the container application. Remove the GeoServer webapp from the container application’s webapps directory. This will usually include the GeoServer.war file as well as a GeoServer directory.
Difference between GEOSERVER.war and GEOSERVER.exe?- The ‘GeoServer.exe’ NSIS installer registers GeoServer as a Windows Service, which uses the Jetty application server to run GeoServer. The ‘GeoServer.war’ is a platform independent web-archive package to be deployed in your own application server (we recommend Apache Tomcat). Using the ‘GeoServer.exe’ installer is a reliable way to setup GeoServer as a windows background service. The downside is the included Jetty application server is managed using text files (jetty.ini) once installed.
- Use of ‘GeoServer.war’ web-archive is provided to install into your own application server (we recommend Apache Tomcat as the market leader, with excellent documentation and integration options). A single application server may support several web application allowing GeoServer to be run alongside your own java web application.
-
19:42
Le dessin du géographe
sur Les cafés géographiquesUn certain nombre de géographes dessinent lors d’excursions sur le terrain ou de missions scientifiques. Certains en ont même fait une activité régulière, et en illustrent leur production. Mais cette activité demeure presque confidentielle. Beaucoup de dessins restent dans les tiroirs, n’ayant bénéficié que d’un regard furtif et admiratif des collègues qui jettent un coup d’œil sur le carnet. Rares sont les géographes qui comme Pierre Deffontaines en ont fait l’argument central d’un ouvrage (Petit Guide du voyageur actif, réed.1980 Presses d’Ile de France). Nous souhaitons sortir cette activité artistique et scientifique de cet anonymat.
En même temps les dessins géographiques qui ont illustré les publications de nos prédécesseurs méritent d’être revus (et relus comme on le fait dans les recherches sur l’épistémologie de la Géographie)
Il conviendra alors de distinguer le croquis fait par le géographe sur le motif ou d’après nature, du croquis d’après photographie qui fut beaucoup pratiqué aussi longtemps que l’appareil photographique demeura lourd et encombrant. Le croquis du géographe professionnel diffère aussi du croquis à usage pédagogique des manuels de l’enseignement primaire et secondaire, croquis le plus souvent supervisé et contrôlé par un géographe.
Le croquis à finalité géographique a changé de place au cours du temps. Les expéditions de découverte, de recherche scientifique, de conquête coloniale ont souvent été accompagnées par des artistes dessinateurs et ont produit des croquis qu’on peut considérer comme les premiers paysages géographiques, puisqu’ils avaient une finalité documentaire et qu’ils ont souvent été repris ensuite par les premiers ouvrages de géographie (cf les relations des voyages d’Alexandre von Humboldt ou les images de la géographie universelle d’Elisée Reclus,). Et les « pères fondateurs » de la science géographique, dans les écoles allemande, française, américaine, ont été parfois de bons dessinateurs sur le terrain.
A la fin du XIX° siècle, quand se met en place l’enseignement de la géographie dans sa forme moderne, les manuels sont illustrés de nombreux dessins ; les photographies sont rares, pour des raisons techniques, dont la qualité de l’impression et du papier. Puis les photos élargissent leur champ au détriment des dessins.
En même temps surgit avec Vidal de la Blache une géographie si soucieuse des paysages qu?elle en fait une des bases fondamentales de sa réflexion. La géographie est alors conçue comme une description raisonnée des paysages. Les paysages incitent au croquis. La prééminence de la géographie physique et à l’intérieur de celle-ci, la domination de la géomorphologie encouragent alors l’usage du dessin et du bloc-diagramme dont de Martonne se fait le chantre et le propagandiste.
Notre propos n’est pas de retracer une histoire du croquis géographique : cette histoire se construira d’elle-même chemin faisant. Elle est plutôt de sortir de l’oubli une pratique et de la raccrocher au devenir de la géographie, comme nous avons pu le faire par ailleurs pour la chanson des géographes. Enfin, la technique du croquis reste une pratique d’aujourd’hui et chacun des lecteurs peut proposer ses croquis, si leur esprit se raccroche à cette rubrique.
Les carnets de terrain illustré à la main gardent leur séduction : l’édition et les expositions en témoignent. Si l’appareil photo numérique est devenu un outil quasi indispensable, les perfectionnements technologiques de ce dernier, ne lui confèrent pas la puissance analytique d’un croquis de terrain qui trie et hiérarchise les éléments du paysage : et aide à comprendre le monde avec une feuille de papier et un crayon.
Remarques importantes :
*Le dessin de paysage (naturel, rural, urbain) proposé sur le site, sera accompagné d’un court commentaire, qui l’identifiera (auteur, date, lieu, site représenté, source) et le situera dans la production géographique de l’auteur en question : contexte, place du dessin dans l’analyse, dans l’illustration du texte, des faits décrits…, afin de le resituer dans la production générale de dessins géographiques.
*Chaque proposition devra se préoccuper des droits d’auteur et de reproduction de l’image sur le site des cafés géo : Les droits de l’auteur (propriété intellectuelle) s?éteignent 70 ans après sa mort (et jusque là leur édition dépend de l’autorisation des ayant-droit). Mais les droits de reproduction de l’image, liés à la source dont elle a été tirée (éditeur d’un ouvrage, musée, bibliothèque, archives, etc?) sont plus difficiles à connaître et souvent plus compliqués à obtenir.
Roland Courtot, Michel Sivignon
• Retrouvez également la liste des dessins du géographe
-
19:41
Le dessin du géographe n°95. Les ciels brésiliens d’Hercule Florence (1804-1879)
sur Les cafés géographiquesEn France, son visage n’est connu de personne ou presque, sa maison natale à Nice n’est pas un musée, son existence n’a intéressé que quelques Monégasques qui lui ont consacré une exposition à la Villa Paloma en 2017. Au Brésil, l’Institut Hercule Florence n’a été créé qu’en 2006 à Sao Paulo. Pourtant, c’est un génial inventeur que l’Atlantique a séparé des savants de son temps. Cet isolement l’a privé d’une quelconque notoriété. Cet héritier des Lumières n’a eu de cesse, sa vie durant, d’inventer, de chercher des procédés pour améliorer la distribution de l’eau (noria permanente), le séchage accéléré des grains de café, le filage du coton, la reproduction d’écrits et d’images (découverte de la photocopie qu’il appelle « photographie »), l’écriture du langage des oiseaux, etc. Il souffre de l’ingratitude de ses contemporains comme en témoigne son journal : « Pourquoi ma vie n’est-elle qu’adversité ? Comment briser l’étau de l’isolement de cette lointaine province de l’empire sud-américain ? Parmi les milliers de documents, dont il est l’auteur, accessibles seulement depuis la fin du XXe siècle, figurent des dessins zoologiques, botaniques, ethnologiques et cartographiques. Dans cette œuvre graphique, nous avons choisi d’étudier les dessins de paysages célestes.
Un « dessinateur », membre de l’expédition scientifique russe en AmazonieFils d’un médecin militaire, également professeur de dessin, Hercule Florence est né à Nice en 1804. Son oncle et son grand-père Vignali furent peintres à la cour du Prince de Monaco. A 14 ans, Hercule rêve d’aventures et se fait embarquer sur une frégate. A 19 ans, il est apprenti dans la Marine royale. Et à 21 ans, il répond à une petite annonce vue dans un journal à Rio de Janeiro et parvient à se faire embaucher comme « géographe », deuxième dessinateur et chroniqueur de l’expédition scientifique amazonienne du baron Von Langsdorff.
Ce baron hessois est un naturaliste, qui a déjà fait le tour du monde. Il vit près de Rio où il est chargé d’affaires du tsar Alexandre 1er et consul général de Russie au Brésil. Il est mandaté pour explorer le Mato Grosso depuis la région de Sao Paulo afin d’atteindre l’Amazone. Un projet un peu fou car le pays est politiquement instable depuis la récente indépendance de 1822. Pour cette campagne de prospection scientifique, il engage quarante personnes, dont des savants et deux jeunes dessinateurs : Adrien Taunay et Hercule Florence. Le baron achète aussi du matériel, dont sept embarcations et des mules. Toute l’équipe quitte Rio le 3 septembre 1825, longe la côte jusqu’à Sao Paulo et remonte vers le nord-ouest par le Rio Tieté. Tout va bien jusqu’à l’arrivée à Porto Feliz à 300 km de Sao Paulo, en octobre 1826. Mais ensuite, les embarcations chavirent dans les rapides, les hommes souffrent de la fièvre jaune… L’expédition parvient en janvier 1827 à Cuiaba, la capitale du Mato Grosso. Les hommes y passent un an car le baron est malade et sénile. Un groupe de morts-vivants finit par arriver le 1er juillet 1828 à Santarèm, là où le rio Tapajos se jette dans l’Amazone. Épuisés, les survivants embarquent sur un brick qui les ramène à Rio le 13 mars 1829. Les données recueillies lors de l’expédition sont envoyées à l’Académie impériale de Saint-Pétersbourg (objets, dessins, cartes, notes, graines, fruits, spécimens de bois, ossements, etc.). Le recensement du contenu des caisses et leur analyse devait donner matière à une publication, synthèse de l’expédition. Mais, Langsdorff ne peut s’en charger et tout est délaissé jusqu’à ce que les autorités soviétiques retrouvent les caisses en 1930. Aujourd’hui, une partie des objets rapportés est exposée au musée ethnographique de la ville.Après l’expédition, Hercule Florence revient à Porto Feliz. En janvier 1830, il épouse Maria Angelica, la fille du notable, Francisco Alvares Machado e Vasconcellos, futur gouverneur du Rio Grande do Sul. Machado possède une plantation de café à Sao Carlos (aujourd’hui Campinas), une petite ville de 6000 habitants. Le jeune couple s’y installe. Les inventions multiples pour alléger le travail des esclaves rendent les méthodes d’Hercule Florence très impopulaires dans la communauté des planteurs de la région, dont il fait partie en tant qu’héritier de la plantation de son beau-père. Trois ans après le décès de Maria Angelica, Hercule fonde une école à Campinas en 1863, avec sa seconde épouse Carolina Krug. Ce Colégio Florence est destiné aux filles. Il y enseigne des méthodes expérimentales de dessin comme l’emploi de l’huile de ricin dans la peinture à l’huile appelée cellographie, l’aquarellographie, la peinture solaire…
Un « aquarelliste » d’arrière-plans célestes, au service de ses confrèresLes dessins d’Hercule Florence les plus reproduits sont ceux de l’expédition : des spécimens de la flore et de la faune, des paysages de rivières et leurs rapides, des forêts, les coutumes des indiens Apiacas observés en 1828. Moins connues, sont les images des activités rurales (l’élevage bovin, les cultures sur brûlis, les champs de café ou de canne à sucre) et du travail de transformation des produits agricoles. Elles datent de son installation à Campinas.
Curieux de tout, dès 1830, Hercule Florence est intrigué par le rayonnement solaire et ses effets. Après avoir constaté que le soleil efface les couleurs des tissus, il reconstitue la chambre noire de Léonard de Vinci. En 1832, il réalise des ‘‘Tableaux Transparents de jour’’ issus de la projection concentrée des raies de soleil sur du papier recouvert de nitrate d’argent. A la lueur de la bougie, dans l’obscurité, des ombres de nuages sont visibles.
Son intérêt pour la nature et la qualité de la lumière le pousse à se pencher sur la couleur du ciel, la forme et la genèse des nuages. Il découvre tout du sujet puisqu’il semble n’avoir entendu parler « que d’un homme très instruit, qu’un artiste allemand [qui] s’occupait principalement des ciels dans des paysages ». Est-ce une allusion à Goethe et son Traité des couleurs ? En tout cas, Hercule Florence tente de comprendre les ciels et leurs nuages par le dessin. Une méthode largement partagée à l’époque. En effet, de très nombreuses peintures de ciels ont été réalisées de la fin du XVIIIe au début du XIXe siècle. Les artistes les plus connus sont : Caspar Friedrich, Alexandre Cozens, Corneille Cels, et bien sûr Luke Howard et John Constable. Les dessins d’Hercule Florence répondent à une curiosité scientifique très similaire. Mais, son originalité vient du fait qu’il n’habite pas les moyennes latitudes d’Europe mais le Brésil à la latitude du tropique du Capricorne. Cela fait de lui le pionnier de l’étude des nuages aux basses latitudes australes. Et il en est bien conscient puisqu’il écrit : « On pourra dire que ces études ayant été faites sous le tropique du Capricorne, ne peuvent servir que pour les peintres qui habitent les régions intertropicales, parce que les ciels de la zone torride sont différents des ciels des contrées tempérées. »
Les ciels qu’il observe lui inspirent un Atlas pittoresque des ciels à l’usage des jeunes paysagistes. Cet ensemble comprend 22 aquarelles. Une sorte de catalogue, qui s’adresse en priorité aux peintres afin qu’ils représentent des arrière-plans vraisemblables (saison, heure du jour) dans leurs tableaux. Chaque ciel est en principe numéroté, daté et décrit plus ou moins minutieusement. Le descriptif prend souvent le point de vue critique d’un utilisateur potentiel artiste-peintre.
On y retrouve des archétypes de ciels plus ou moins nuageux des deux grandes saisons du climat de la région de l’état de Sao Paulo. A la latitude du tropique, la température n’est pas le facteur discriminant de la périodisation. C’est au contraire, la fréquence et l’abondance des pluies déversées par les nuages (près d’1,5 m/an en moyenne) qui divisent le cycle annuel.
La période la plus nuageuse et pluvieuse débute en octobre par des ondées et dure jusqu’à fin mars. En décembre-janvier, le ciel est couvert 90 % du temps. De grosses masses de nuages à fort développement vertical, très noirs et menaçants (22 janvier 1833) se déplacent rapidement. Ils font dégringoler des pluies très drues un jour sur deux (16 décembre 1832) parfois accompagnées d’éclairs et de tonnerre. En février et surtout mars, l’atmosphère est plus calme et engendre des nuages bourgeonnants contigus. Ils montent, près du sol, dans l’air « équatorial amazonien » surchargé d’humidité et apportent des ondées en fin d’après-midi (9 mars 1835).22 janvier 1833, 4 h du soir. © Hercule Florence. Instituto Moreira Salles
16 décembre 1832 © Hercule Florence. Instituto Moreira Salles
9 mars 1835 © Hercule Florence. Instituto Moreira Salles
A l’opposé dans l’année, pendant la saison relativement sèche (avril-septembre), les ciels sont plus dégagés. C’est le cas un jour sur deux, en juillet-août-septembre. Pourtant, il n’y a aucun « grand bleu » dans l’atlas d’Hercule Florence. Le peintre est trop soucieux du pittoresque. Il cherche à donner aux peintures de la profondeur de champ et des contrastes. Une autre raison peut justifier cette rareté. Campinas est à près de 700 mètres d’altitude et l’air maritime atlantique de l’alizé s‘élève sur les contreforts de la Serra do mare. Cette ascendance conduit à la saturation et la condensation. Vers 2000 mètres d’altitude, des altocumulus isolés s’alignent en rues, dans le sens du vent (27 juillet 1832) laissant les rayons du soleil atteindre le sol par des trouées. Parfois, des ciels d’un bleu plus vif et plus vert accompagnent les coulées d’air frais à froid venu de l’Antarctique, via la Patagonie. En haute altitude, de grands cirrus zèbrent alors l’azur (25 avril 1844, 16 octobre 1832). Sous ces ciels d’apparence radieuse, l’air gélif peut brûler les feuilles, les branches et les cerises du caféier, et ainsi mettre en péril la qualité et la quantité de café récolté. Ce qui arrive malheureusement plusieurs fois par siècle.
27 juillet 1832, 3 h de l’après midi © Hercule Florence. Instituto Moreira Salles
25 avril 1844 © Hercule Florence. Instituto Moreira Salles
L’Atlas est structuré par ordre chronologique ; des commentaires figurent en marge du dessin mais aussi dans un texte descriptif. Quant au travail sur les images, il est inabouti parce que la pensée de l’inventeur est, entre autres, accaparé simultanément par la mise au point d’un papier monnaie inimitable et surtout par la quête d’un appareil, efficace et bon marché, pour reproduire des images et du texte.
Un « artiste », à l’écart de la science météorologiqueCet inventaire de types de ciels brésiliens ne se comprend qu’à la lueur de l’histoire sud-américaine de la science météorologique. Des décennies après l’Europe, l’INEMET (Institut National de Météorologie) est créé en 1909. Il ne gère alors que 74 stations de mesures, un réseau très insuffisant pour un si vaste pays. Les premières publications scientifiques, comme celle de Henrique Morize datent de 1892. Elles permettront des synthèses fondatrices au début du XXe siècle (Climatologie du Brésil, en 1916 et Météorologie du Brésil, en 1917). Hercule Florence ne dispose donc que des connaissances vernaculaires, empiriques, nécessaires aux pratiques de l’agriculture vivrière. Elles sont largement partagées et mises en scène par des « prophètes de la pluie », des anciens souvent illettrés qui prédisent l’arrivée et l’abondance des précipitations de chaque saison pluvieuse. Les productions agricoles d’exportation comme la canne ou le café se calent également sur ce calendrier climatique subtropical à deux saisons. Le peintre fait allusion à cette bipartition annuelle du climat pour les brûlis.
Dans ses descriptifs de nuages, Hercule Florence n’emploie jamais la terminologie en usage aujourd’hui. Il n’en a pas connaissance. Certes, c’est en 1802, lors d’une conférence à l’Askesian Society,que l’Anglais Luke Howard, a proposé sa classification, publiée un an plus tard, sous le titre On the modifications of Clouds and on the Principles of their production, suspension and destruction. Sa typologie de nuages aux noms latins (cumulus, cirrus, stratus) les définit d’après leur physionomie (altitude et forme). Elle a été complétée du nimbostratus en 1830, du stratocumulus en 1841 et du cumulonimbus en 1880, avant d’être officiellement adoptée en 1891 par les services météorologiques internationaux. L’année suivante paraissait le premier atlas des nuages. Dans l’ignorance de ce vocabulaire, Hercule Florence utilise un langage populaire, très descriptif comme la classification oubliée de Lamarck. Les mêmes images y sont utilisées pour caractériser les formes des nuées. Les termes : pommelé (1 sept 1832, 28 octobre 1832, 5 novembre 1832, 22 janvier 1833, 1er janvier 1833), cotonné (5 novembre 1832, 27 juillet 1832), arrondi, moelleux, etc. s’appliquent aux nuages cumuliformes. Le caractère échevelé (27 juillet 1832), arqué, strié, en filet léger (28 octobre 1832) est le propre des cirriformes. Quant au nuage fondu sur ses bords, ce ne peut être qu’un stratus (5 novembre 1932, 28 octobre 1832). Comme l’artiste privilégie les heures du levant ou du couchant, les teintes des nuages du blanc pur au noir sont modifiées par les reflets, jaunes, rouges, orangés, voire pourpre, des rayons du soleil.Date effacée, 10 h du matin © Hercule Florence. Instituto Moreira Salles
Hercule Florence décrit aussi leur agencement linéaire (horizontal, oblique, vertical par rapport à l’horizon), en grille ou quadrillage (16 octobre 1832), en pyramide inversée (19 septembre 1832) etc. Par deux fois, des rideaux de pluies drues apparaissent à l’horizon comme le 16 décembre 1832. Les effets des nuages chauds des brûlis sont aussi observables dans les très basses couches de l’air ainsi que la mise en suspension de cendres. Tel est le cas le 28 octobre 1832, qu’il décrit ainsi : « l’horizon est rempli de la fumée d’une grande partie des feux qu’en ce pays et dans cette saison, on allume pour brûler de grands abattis que l’on fait dans les bois pour semer des grains ». Depuis 2017, la nomenclature internationale intègre une nouvelle classe pour ces nuages d’origine le plus souvent humaine : les pyrocumulus ou cumulus flammagenitus.
Modestement, Hercule Florence met l’accent sur des ciels « mal exécutés », sur « l’insuffisance de ses esquisses », à cause en partie des « difficultés du lavis, et le mauvais papier, [qui] m’ont empêché de faire mieux ». Compte tenu de son objectif artistique, il suggère des premiers plans pour accompagner ces ciels. Pour celui du 28 octobre 1832, il écrit : « ce ciel me paraît convenir à une vue de cascade, où la blancheur de beaucoup d’eaux écumantes serait rehaussée par le sombre de l’horizon ». Le 27 juillet 1832, il propose, pour améliorer les contrastes de couleur, « un ciel d’invention » en redoublant « les masses obscures à volonté ». Et, le 9 mars 1835, il juxtapose au ciel, un « accessoire, une vue de l’Amazone, dans la Guyane portugaise ». Plus que la réalité d’un ciel d’une journée donnée, c’est la vraisemblance d’un type de temps dans sa saison, qu’il convient de chercher dans ces dessins. Et d’ailleurs, cet inventeur touche à tout n’installe pas de station météorologique dans sa propriété, parce que les données quantitatives ainsi recueillies ne résoudraient aucune de ses préoccupations esthétiques.
Conclusion
Florence conclut même au sujet de son travail sur les ciels : « je prie les connaisseurs de les examiner, et si elles méritent leur approbation, je les recommande à leur zèle pour les arts, afin qu’elles ne restent pas dans l’oubli qui est mon partage, et ce qu’elles auront d’appréciable, sera alors plutôt leur ouvrage que le mien ».A la toute fin de sa vie, en 1879, la traduction en portugais de ses notes sur l’expédition Langsdorff est enfin publiée. Elle va lui valoir d’intégrer l’Académie des sciences à Rio. Par contre, ses découvertes dans le domaine de la photographie ne sont reconnues que plus timidement. Son inventivité multiforme est résumée par le qualificatif de l’historien Komissarov qui parle de “Léonard de Vinci” du Brésil.
Depuis peu, Hercule Florence connaît un début de reconnaissance posthume en tant que dessinateur. Et en effet, ses ciels n’ont rien à envier à ceux de Constable, ses dessins naturalistes à ceux de Bernard Germain de Lacépède, ses planches de travailleurs à celles de Louis-Jacques Goussier qui œuvra pour les Encyclopédistes…Illustrations :
Toutes les images sont reproduites avec l’aimable autorisation de Julia Kovensky, Coordenadora de Iconografia, Instituto Moreira Salles.
+ 55 21 3284 7432
www.ims.com.brBibliographie :
Beaud Marie-Claire et al., 2017, Hercule Florence. Le Nouveau Robinson, éditions du Nouveau Musée National de Monaco, 381 p.
Carelli Mario, 1992, A la découverte de l’Amazonie. Les carnets du naturaliste Hercule Florence, Découverte Gallimard, 144 p.
Dubreuil Vincent, Fante K., Planchon O., Sant’Anna Neto J., 2019, Climate change evidence in Brazil from Köppen’s climate annual types frequency, International Journal of Climatology, 39 (3), pp.1446-1456.
Florence Hercule. L’ami des arts livré à lui-même ou Recherches et découvertes sur différents sujets nouveaux, 1837-1859. Manuscrito, Tinta ferrogálica sobre papel, 30,0 x 20,0 cm (fechado). Coleção Instituto Hercule Florence (São Paulo).
Florence Leila (org.), 2010, Céus. O teatro pitoresco-celeste de Hercule Florence. São Paulo, Florescer Produções Culturais – Coleção Cyrillo Hércules Florence.
Jefferson Mark, 1924, New Rainfall Maps of Brazil , Geographical Review, Vol. 14, No.1, pp. 127-135.
Komissarov, Boris N. 2010. “Langsdorff: Com o Brasil, para Sempre.” In Expedição Langsdorff [catálogo da exposição], 14-35. Rio de Janeiro: Centro Cultural Banco do Brasil. [https:]]
Luret William, 2001, Les trois vies d’Hercule Florence, éditions Jean-Claude Lattès, 305 p.Mendonça Francisco, 2012, La connaissance du climat au Brésil : entre le vernaculaire et le scientifique Confins, numéro 15/7610.
Monbeig Pierre, 1952, Pionniers et planteurs de Sâo Paulo, A. Colin, 376 p.
Morize Henrique, 1889. Esboço da climatologia do Brasil. Observatorio Astronômico, Rio de Janeiro, 47 p.
Papy Louis, 1954, Au pays des plantations caféières de Sâo Paulo, avec M. Pierre Monbeig, Les Cahiers d’Outre-mer, 7-26, pp. 195-203.
Planchon Olivier, 2003, Transition entre climats tropicaux et tempérés en Amérique du sud : essai de régionalisation climatique, Les Cahiers d’Outre-mer, 223, pp. 259-280.Martine Tabeaud, novembre 2023
-
19:22
Makina Corpus sponsorise le Capitole du Libre 2023 et nos experts animent une conférence !
sur Makina CorpusCette année encore, Makina Corpus est heureuse de sponsoriser le Capitole du Libre 2023. Nos experts animent une conférence autour de la constitution d'une communauté du libre à l'occasion de l'événement.
-
15:34
Du 26 au 28 mars 2024 à Aix-en-Provence: formation "savoir utiliser les Fichiers fonciers"
sur Datafoncier, données pour les territoires (Cerema)Publié le 06 novembre 2023Une session de formation "Savoir utiliser les Fichiers fonciers" se tiendra du 26 au 28 mars 2024 dans les locaux du Cerema Méditéranée à Aix-en-Provence. Cette session est à destination des bénéficiaires des Fichiers fonciers et des bureaux d'études. Vous trouverez le contenu et le coût de la formation dans la rubrique Accompagnement Inscription jusqu'au 1er mars (…)
Lire la suite
-
12:42
Retour sur le webinaire CoSIA, la donnée Couverture du Sol par Intelligence Artificielle
sur Toute l’actualité des Geoservices de l'IGNLe mardi 10 octobre a marqué la participation de plus de 600 personnes au webinaire CoSIA. -
12:27
Nouvelles fonctionnalités de l’outil IGN de création cartographique Ma carte
sur Toute l’actualité des Geoservices de l'IGNMa Carte, outil en ligne IGN de création et de publication de cartes à la disposition de tous les publics, s’enrichit de nouvelles fonctionnalités.
-
11:34
Locking Up Louisiana
sur Google Maps ManiaThe state of Louisiana likes putting its citizens in jail. Nearly 1 in every 100 Louisiana residents are locked up in a state prison or local jail. The reasons for Louisiana's high incarceration rates are simple. It isn't because Louisiana is full of criminals. It is because of racism and the profits to be made from enforced slave labor.I arrived at this conclusion after reading the Vera
-
11:03
Marco Bernasocchi: New QGIS Courses dates for 2024
sur Planet OSGeoWe published our new dates for all courses in 2024 and are looking forward to your participation
- Cours QGIS de base, 10.01. et 17.01.2024 à Lausanne in French
- Cours QGIS avancé, 24.01. et 31.01.2024 à Lausanne in French
- INTERLIS Webinar, 07.03.24 Online in German
- Modelbaker Kurs, 14.03.24 in Zürich in German
- QGIS Kurs Einsteiger, 22.05 und 29.05.2024 in Zürich in German
- QGIS Kurs Fortgeschrittene, 05.06 und 12.06.2024 in Zürich in German
- QGIS Kurs Einsteiger, 30.10 und 06.11.2024 in Bern in German
- QGIS Kurs Fortgeschrittene, 13.11 und 20.11.2024 in Bern in German
- QGIS Kurs Fortgeschrittene, 13.11 und 20.11.2024 in Bern in German
You can find all course information by clicking on the corresponding link
Subscribe now
-
2:38
Nouveautés Site Scan for ArcGIS - Novembre 2023
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Alors que l'année 2023 se termine en termes de nouvelles versions d'applications ArcGIS, je souhaitais partager certaines des améliorations majeures de l'année pour Site Scan for ArcGIS ainsi que les nouvelles fonctionnalités publiées ce mois-ci. Cet article contient les points forts, mais j'ai également veillé à inclure des liens pour que vous puissiez trouver des informations plus détaillées.
Première version de Reality EngineTrue-Ortho générée par le moteur ArcGIS Reality
Au premier semestre de cette année, Esri a lancé ArcGIS Reality, une suite de produits de cartographie de la réalité par photogrammétrie numérique conçue pour permettre des flux de travail de capture de la réalité à l'échelle de sites, de villes et de pays, à partir d'images de drones, aériennes ou satellites. Ce qui rapproche ces produits, c'est qu'ils utilisent la même technologie de traitement pour fournir des cartes et des modèles 3D visuellement hyper-réalistes et très précis. Cela vous permet d'interagir avec un jumeau numérique qui contient une représentation des objets tels qu'ils sont réellement, et d'y superposer des données géospatiales qui enrichissent la réalité avec un contexte plus large. Le Reality Engine était en version bêta dans Site Scan et est maintenant publié dans son intégralité.
Ce nouveau moteur "Reality Engine" d'Esri sur lequel repose Drone2Map, ArcGIS Reality Studio et l'extension ArcGIS Reality for Pro est également disponible depuis quelques mois en beta dans Site Scan for ArcGIS. Il est désormais disponible en tant que moteur de traitement principal (par défaut) dans Site Scan for ArcGIS.Exemple de photomaillage 3D généré par Site Scan for ArcGIS
Le traitement des images de drones fait partie des fondements de Site Scan, et il est crucial que le traitement soit précis, efficace et génère des résultats de haute qualité. En intégrant le nouveau moteur Reality Engine, Esri souhaite fournir le meilleur moteur de traitement du marché et le partager dans tous les produits de la famille ArcGIS Reality.
La famille des produits ArcGIS Reality
Vous verrez que Reality Engine est désormais défini sur le moteur de traitement par défaut pour certains types de projets Site Scan. A mesure qu'Esri publiera davantage de mises à jour, Esri fera évoluer tous les types de projets pour utiliser systématiquement le moteur Reality Engine. Pour plus d'informations, veuillez consulter cet article de la communauté Site Scan for ArcGIS.
Capacités de publication améliorées vers ArcGIS Online ou ArcGIS Enterprise.
Si vous êtes un utilisateur d'ArcGIS Image for ArcGIS Online, vous pouvez désormais publier de manière transparente et directes des couches d'imagerie tuilée à partir de Site Scan. Cela offre une possibilité immédiate pour des analyses avancées, des flux de travail de GeoAI, ainsi et des capacités plus larges de communication via votre portail ArcGIS. Avec la possibilité de publier selon le format d'imagerie directement dans ArcGIS Online, vous pouvez supporter des workflows entièrement basés sur le cloud, depuis la capture d'images par votre drone jusqu'à l'analyse avancée des images, la détection de changement, ... en passant par le partage des résultats d'une manière facile à comprendre avec les autres collaborateurs de votre organisation (ou même le grand-public).
Pour mieux comprendre les différences et les avantages des couches de tuiles raster (parfois appelées cache de tuiles de carte ou encore couches de cache de tuiles) et les couches d'imagerie tuilée, vous pouvez vous référer à cet article arcOrama.
De plus, vous pouvez désormais publier des couches d'imagerie orientée et créer une application web de consultation de ces données d'imagerie orientée dans ArcGIS Online à l'aide d'ArcGIS Experience Builder. Ceci vous permettra, par exemple, d'effectuer des inspections détaillées de vos sites/équipements. Les données d'imagerie orientée vous permettront de naviguer autour de votre site (ou de vos équipements) dans un environnement 3D immersif.
Connecter votre compte Site Scan à votre portail ArcGIS Enterprise est désormais plus simple que jamais. Cette opération peut désormais être effectuée par n'importe quel administrateur de Site Scan en suivant les étapes fournies sur la page Paramètres de votre organisation.
Pour en savoir plus sur les fonctionnalités de publication dans Site Scan et sur la manière d'activer les fonctionnalités beta, vous pouvez consulter cet article de la communauté Site Scan for ArcGIS (en anglais).Volet Paramètres dans Site Scan for ArcGIS pour activer la version bêta des outils de publication.
Garder ses cartes web à jour automatiquement
Les organisations Site Scan for ArcGIS bénéficiant d'un abonnement personnalisé peuvent désormais créer des services web pour leurs projets Site Scan et les intégrer à d'autres applications SIG telles qu'ArcGIS Pro ou ArcGIS Online. Cela vous permet de visualiser les True Orthos d'un projet avant de publier les données. Site Scan génère un service web de type Web Map Tile Service (WMTS), qui fournit une vue des données sans les étapes supplémentaires de téléchargement, de publication ou de stockage des données en dehors du cloud Site Scan. Pour en savoir plus sur la façon d'utiliser cette fonctionnalité, consultez cet article de la communauté Site Scan for ArcGIS (en anglais).
Rester informer
L'équipe de Site Scan for ArcGIS travaille en continu pour poursuivre ces améliorations. N'hésitez pas à partager vos idées et vos questions sur la page de la communauté Site Scan for ArcGIS (en anglais) et pour rester informé de tout ce qui concerne Site Scan, vous pouvez aussi vous abonner à cette newsletter (en anglais).
-
18:57
Free and Open Source GIS Ramblings: Analyzing mobility hotspots with MovingPandas & CARTO
sur Planet OSGeoToday, I want to point out a blog post over at
written together with my fellow co-authors and EMERALDS project team members Argyrios Kyrgiazos and Helen McKenzie.
In this blog post, we walk you through a trajectory hotspot analysis using open taxi trajectory data from Kaggle, combining data preparation with MovingPandas (including the new OutlierCleaner illustrated above) and spatiotemporal hotspot analysis from Carto.
-
15:47
gvSIG Team: Free workshop on ‘Introduction to gvSIG,’ using version 2.6 and its new icon set at 19th gvSIG Conference
sur Planet OSGeoOn November 30, 2023, during the 19th International gvSIG Conference, a free workshop will be held to learn to use version 2.6 of gvSIG, showcasing the new icon set.
To participate in the workshop, simply register using the following link: Workshop Registration.
Version 2.6 comes with an improved default icon set, replacing the one used since its initial versions.
This workshop will cover the main tools of the application, creating views, loading vector and raster layers, both locally and remotely, editing them graphically and alphanumeric, applying geoprocessing, and creating maps. All of this will be done using the new icon set, providing a refreshed version of gvSIG.
Whether you’ve used gvSIG before or it’s your first time, you won’t want to miss this workshop.
To follow it, you’ll need to download the portable version 2.6 of gvSIG for your operating system: Windows 64 – Windows 32 – Linux 64 – Linux 32
You’ll have to extract it to a folder without spaces. For example, you can create a folder called ‘gvSIG’ in C:\ (on Windows) or in the user’s home directory (on Linux), place the zip file inside, and extract it there.
You’ll also need to download the cartography to be used: Workshop Cartography ‘Introduction to gvSIG 2.6’
-
13:54
3 explorations bluffantes avec DuckDB – Butiner des API JSON (2/3)
sur Icem7DuckDB saurait-il rivaliser avec JavaScript pour exploiter des données JSON ? Ce n’est pas le terrain sur lequel j’attendais ce moteur SQL. Quelle ne fut pas ma surprise, pourtant, de le voir se jouer des imbrications les plus retorses, des modèles de données les plus échevelés, auxquels JSON accorde volontiers son flexible habillage.
Après le premier épisode consacré aux formats Parquet et CSV dans DuckDB, voici donc à nouveau deux exemples concrets de jeux avec des données formattées en JSON.
A - API recherche d'entreprises : celles autour de chez moi, quelles sont-elles ?C’est en explorant les belles ressources du portail api.gouv.fr que l’idée de cet article a pris forme. De multiples API de données sont désormais proposées de façon ouverte, sans identification : professionnels bio (Agence bio), base adresses (BAN), demandes de valeurs foncières (DVF), annuaire de l’Éducation nationale, annuaire des entreprises…
Je me suis arrêté sur cette dernière source, interrogeable par une API très simple, construite par la Dinum.
Vous pouvez lui poser deux questions :
• quelles infos peux-tu me donner sur une entreprise ? Ex. : icem7, et si je tape icem77 j’aurai tout de même la bonne réponse ;
• quelles sont les entreprises autour d’un point GPS ?Alors, j’ai voulu regarder les entreprises près de chez moi. Les bureaux d’icem7 jouxtent mon domicile, j’ai donc bien retrouvé ma société et constaté que nous étions cernés par les sociétés civiles immobilières – le quartier est, il est vrai, plutôt résidentiel.
Voyons gentiment comment arriver à un tel résultat, avec DuckDB et un outil web simple.
L’URL suivante construite d’après la doc prend comme paramètres un point GPS (longitude et latitude) et un rayon (en km) ; j’ai choisi 300 m, le rayon maximum est de 50 km.
https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3
Dans un navigateur (ici Chrome), vous pouvez facilement consulter la réponse dans un affichage confortable et flexible. Quelques données numériques encadrent un « array » JavaScript de results, avec ici 10 entreprises (sur 89 annoncées, dans total_results).
Si je déplie le premier résultat (d’indice 0), se révèle une structure hiérarchique, avec bon nombre de rubriques :
On devine déjà l’intérêt de cette API, pour laquelle la Dinum collationne en temps réel de multiples sources de données : immatriculation et statut juridique, certifications, résultats financiers, siège et établissements. Les entreprises listées ici ont au moins un établissement dans le rayon de ma requête (matching_etablissements).
Que sait lire DuckDB ? Je vais l’utiliser ici dans sa version la plus dépouillée et la plus rapide, l’exécutable de 20 Mo, qui présente les résultats de façon toujours lisible, quelle que soit la largeur de votre écran.
FROM read_json_auto('https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3');
Cette simple requête constitue un tableau d’une seule ligne, dont la première colonne reprend results, c’est-à-dire un array (ou liste) de données structurées. Là où JavaScript parle d’array et d’objets, DuckDB évoquera des listes et des structures. Le format Parquet a aussi cette capacité d’accueillir de telles colonnes complexes.
Comment déplier ce tableau en autant de lignes que d’entreprises ?
Découvrons le pouvoir magique (et proprement bluffant, oui) de la fonction unnest() :
SELECT unnest(results, recursive := true) FROM read_json_auto('https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3');
Avec le paramètre recursive := true, unnest() va continuer à déplier les structures cachées dans les colonnes de chaque « result », si bien que le tableau ci-dessus contient désormais 10 lignes et 78 colonnes, autant de pépites d’information sur chaque entreprise.
Affichons-en quelques-unes en clair ; je vais réduire mon champ géographique à 10 m autour de chez moi :
SELECT unnest(results, recursive := true) FROM read_json_auto('https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.01');
Et en effet, je retrouve bien icem7, et même ma précédente entreprise, dont icem7 a pris la suite. Emc3 n’existe plus à cette adresse, l’API renvoie, je le découvre, des entreprises dont le statut administratif a pu évoluer.
Je vais donc affiner mes requêtes ultérieures en demandant à voir, près de chez moi, les seuls établissements actifs :
FROM ( SELECT unnest(results, recursive := true) FROM read_json_auto('https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.01') ) WHERE list_filter(matching_etablissements, d -> d. etat_administratif = 'A').len() >= 1 ;
Avec list_filter(), je vous laisse goûter à l’une des nombreuses fonctions de manipulations de listes, qui donnent à DuckDB toute facilité pour explorer des structures imbriquées à la JSON.
Il reste plusieurs colonnes de type liste que unnest() n’a opportunément pas dépliées, car cela aurait encore multiplié le nombre de lignes.
Déplions manuellement la colonne dirigeants, ce qui fait apparaitre une sous-table, où je me reconnais avec mon associée. On y trouve des infos étonnamment personnelles comme l’identité, la nationalité et même la date de naissance (que je ne dévoile pas ici, par galanterie) !
WITH tb1 AS ( SELECT unnest(results, recursive := true) FROM read_json_auto('https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.01') ) SELECT unnest(dirigeants, recursive := true) FROM tb1 WHERE list_filter(matching_etablissements, d -> d. etat_administratif = 'A').len() >= 1 ;
Sur les 78 colonnes de la table dépliée, je vais donc choisir quelques infos parmi les plus parlantes, afin de localiser ces entreprises et d’en savoir plus sur ce qu’elles font et qui les dirige. Je peux identifier des certifiés « bio » (producteurs ou revendeurs / préparateurs), des organismes de formation, par exemple ceux certifiés Qualiopi comme icem7.
Par commodité, je m’en tiens au seul premier établissement près de chez moi d’une même entreprise. DuckDB utilise des indices qui commencent par 1 (et non 0 comme dans JavaScript).
SELECT siret, nom_complet, activite_principale, dirigeants, matching_etablissements[1].longitude::float AS lon, matching_etablissements[1].latitude::float AS lat, est_qualiopi FROM ( SELECT unnest(results, recursive := true) FROM read_json_auto('https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3') ) WHERE list_filter(matching_etablissements, d -> d. etat_administratif = 'A').len() >= 1 ;
Avec ce premier résultat, je pourrais déjà cartographier ces entreprises et produire une analyse coloriée par code activité (NAF).
Dépasser les contraintes de l'APIBien sûr, le problème est que je n’ai reçu d’infos que sur 10 entreprises. Voyons comment relever le curseur. La doc de l’API indique que je peux pousser jusqu’à 25 entreprises par appel, et lancer 7 appels par seconde.
Pour avoir les 89 établissements à 300 m de chez moi, je m’attends donc à m’y reprendre à plusieurs fois.
SELECT total_results, total_pages FROM read_json_auto('https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3&per_page=25');
Avec le paramètre per_page=25, l’API me renvoie désormais une première « page » de 25 résultats, et me précise le nombre de pages nécessaires (4). Pour avoir la page 2, je dois ajouter à l’URL un paramètre &page=2.
DuckDB permet commodément de charger dans le même mouvement toute une collection d’URL :
SELECT unnest(results, recursive := true) FROM read_json_auto([ 'https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3&per_page=25', 'https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3&per_page=25&page=2', 'https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3&per_page=25&page=3', 'https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3&per_page=25&page=4' ]) ;
Mais une telle écriture reste bien lourde. Il y a plus élégant, plus « vectoriel » :
SELECT unnest(results, recursive := true) FROM read_json_auto( list_transform(generate_series(1, 4), n -> 'https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3&per_page=25&page=' || n) ) ;
generate_series(1, 4) produit un vecteur [1,2,3,4], lequel se voit transformer avec list_transform() en un vecteur d’URL.
Je suis donc en mesure de récupérer en une seule requête tous mes voisins entrepreneurs, et pour ne pas solliciter l’API à chaque raffinement de mes écritures, je vais stocker ce premier résultat dans une table.
CREATE OR replace TABLE etab_proches_icem7 AS FROM ( SELECT unnest(results, recursive := true) FROM read_json_auto( list_transform( generate_series(1, 4), n -> 'https://recherche-entreprises.api.gouv.fr/near_point?lat=43.69875&long=1.46158&radius=0.3&per_page=25&page=' || n) ) ) WHERE list_filter(matching_etablissements, d -> d. etat_administratif = 'A').len() >= 1 ;
Voici un aperçu de cette table de 89 établissements, liste que j’ai triée pour montrer en premier les organismes de formation certifiés Qualiopi ; icem7 apparait bien.
SELECT nom_complet, activite_principale, matching_etablissements[1].longitude::float AS lon, matching_etablissements[1].latitude::float AS lat, est_organisme_formation, est_qualiopi FROM etab_proches_icem7 ORDER BY est_organisme_formation DESC, nom_complet ;
Désormais, je peux cartographier ce résultat à partir d’un export GeoJSON de cette table :
LOAD SPATIAL ; COPY ( SELECT nom_complet, activite_principale, ST_Point(matching_etablissements[1].longitude::float, matching_etablissements[1].latitude::float) AS geometry FROM etab_proches_icem7 ) TO 'C:/.../entr_proches_icem7.json' WITH (FORMAT GDAL, DRIVER 'GeoJSON') ;
L’export GeoJSON repose sur l’extension SPATIAL, que je charge au préalable (cette procédure devrait prochainement se simplifier dans DuckDB, avec un chargement automatique déclenché dès l’appel d’une fonction spatiale).
La table doit ensuite comprendre une colonne de géométrie (nommée obligatoirement geometry), ici une colonne ponctuelle générée avec la fonction ST_Point().
Je fais glisser le fichier ainsi créé dans l’interface de geojson.io pour découvrir – enfin – cette carte des entreprises près de chez moi – et elles sont nombreuses !
Joindre une nomenclatureLe code activité principale, issu de la NAF, me parle peu, je vais donc chercher des libellés clairs.
Grâce à SQL, le pouvoir des jointures, et la capacité de DuckDB à piocher directement sur le web, je récupère, par une table de passage constituée par mes soins au format parquet, les différents niveaux d’agrégation de la NAF et leurs dénominations.
SELECT nom_complet, activite_principale, ST_Point(matching_etablissements[1].longitude::float, matching_etablissements[1].latitude::float) AS geometry, n.LIB_NIV5,n.LIB_NIV1 FROM etab_proches_icem7 LEFT JOIN 'https://static.data.gouv.fr/resources/naf-1/20231123-121750/nafr2.parquet' n ON etab_proches_icem7.activite_principale = n.NIV5 ;
Pour produire une cartographie plus analytique, avec des punaises coloriées selon l’activité, j’utilise le service MyMaps de Google, seul outil en ligne que j’aie pu identifier pour ce faire et afficher en arrière-plan une couche de rues.
Maps ne lit pas de GeoJSON mais accepte le CSV, pourvu qu’on y insère les deux colonnes longitude et latitude (nommées comme on veut).
COPY ( SELECT nom_complet, activite_principale, matching_etablissements[1].longitude AS lon, matching_etablissements[1].latitude AS lat, n.LIB_NIV5,n.LIB_NIV1 FROM etab_proches_icem7 LEFT JOIN 'https://static.data.gouv.fr/resources/naf-1/20231123-121750/nafr2.parquet' n ON etab_proches_icem7.activite_principale = n.NIV5 ) TO 'C:/.../etab_proches_icem7.csv' ;
Comme il me reste, même au niveau le plus agrégé de la NAF, beaucoup de modalités différentes, je termine en créant un code activité simplifié, avec une catégorie « Autres » regroupant les effectifs les plus faibles :
COPY ( WITH tb1 AS ( SELECT nom_complet, activite_principale, matching_etablissements[1].longitude AS lon, matching_etablissements[1].latitude AS lat, n.LIB_NIV5,n.LIB_NIV1, count(*) OVER (PARTITION BY LIB_NIV1) AS eft_naf FROM etab_proches_icem7 LEFT JOIN 'https://static.data.gouv.fr/resources/naf-1/20231123-121750/nafr2.parquet' n ON etab_proches_icem7.activite_principale = n.NIV5 ) SELECT CASE WHEN eft_naf >= 3 THEN LIB_NIV1 ELSE 'Autres' END AS activite, * FROM tb1 ) TO 'C:/.../etab_proches_icem7.csv' ;
Et voici une carte interactive, dont vous pouvez déplier la légende (bouton en haut à gauche) ou cliquer les punaises :
B - DataTourisme et le hackaviz DataGrandEstMon second exemple sera plus concis, et il a surtout servi à résoudre un problème concret. Mon collègue Alain Roan, qui prépare le Hackaviz du 13 décembre 2023 de DataGrandEst, s’est déclaré lui-même proprement « bluffé » par l’agilité de DuckDB.
Le concours s’appuie sur des données touristiques ; il s’agit de mettre en regard des nuitées et des points d’intérêt (POI) touristiques, c’est-à-dire de tenter d’expliquer la venue des touristes par l’existence de ressources attractives : monuments, spectacles, itinéraires, etc.
Alain et l’agence régionale du tourisme voulaient constituer un fichier de POI avec une double localisation longitude/latitude et code commune Insee. Selon les sources, ils disposaient soit de l’un, soit de l’autre, mais pas des deux.
Ils le savaient, la réponse se trouve dans le portail DataTourisme. Il s’agit d’une superbe initiative, formalisée en 2017, rassemblant en temps réel toutes les sources de données disponibles. Toutefois, son « API web moderne » évoque plutôt les années 1980, époque regrettée des programmes lancés « en batch » sur « grosse machine ». Comme quand j’ai commencé à l’Insee, il faut attendre le lendemain pour disposer des résultats d’une demande d’extraction. Les « flux » ainsi mis à disposition sont d’une fluidité toute relative, celle d’une grosse goutte se détachant toutes les 24 heures.
Plus enthousiasmant encore, la requête en partie décrite dans l’image suivante (région Grand Est) conduit à récupérer une archive de plus de 20 000 fichiers JSON :
Ces 21 211 fiches JSON représentent environ 500 Mo de données, qu’il faut décompresser sur son disque dur pour envisager de les exploiter. Elles s’organisent dans une arborescence à deux niveaux. Les noms de fichier sont peu évocateurs et chaque document présente un contenu assez dense.
Voilà un court extrait d’une fiche pour vous donner une petite idée :
Armé de DuckDB, ma première entreprise fut d’extraire d’une fiche au hasard les variables essentielles pour le hackaviz. Les noms de champ sont un peu pénibles à manier, mais le bonheur de toucher du doigt l’univers enchanté des « ontologies » et du « web sémantique » l’emporte sur le désagrément d’avoir à multiplier les quotes et les crochets :
SELECT isLocatedAt[1]['schema:address'][1]['hasAddressCity']['insee'] AS code_com, "rdfs:label"['fr'][1] AS label, array_to_string("@type", ',') AS types, array_to_string(isLocatedAt[1]['schema:address'][1]['schema:streetAddress'], ' ') AS streetAddress, isLocatedAt[1]['schema:address'][1]['schema:postalCode'] AS postalCode, isLocatedAt[1]['schema:address'][1]['schema:addressLocality'] AS addressLocality, isLocatedAt[1]['schema:geo']['schema:latitude']::float AS latitude, isLocatedAt[1]['schema:geo']['schema:longitude']::float AS longitude FROM read_json_auto('C:\...\objects\2\23\3-23a1b563-5c8c-32e0-b0fc-e0fcbb077b29.json');
Et voici l’apparition du dernier effet bluffant DuckDB, la lecture en une seule passe et moins de 10 secondes des 21 211 fiches JSON :
CREATE OR replace TABLE poi_grandest AS SELECT isLocatedAt[1]['schema:address'][1]['hasAddressCity']['insee'] AS code_com, "rdfs:label"['fr'][1] AS label, array_to_string("@type", ',') AS types, array_to_string(isLocatedAt[1]['schema:address'][1]['schema:streetAddress'], ' ') AS streetAddress, isLocatedAt[1]['schema:address'][1]['schema:postalCode'] AS postalCode, isLocatedAt[1]['schema:address'][1]['schema:addressLocality'] AS addressLocality, isLocatedAt[1]['schema:geo']['schema:latitude']::float AS latitude, isLocatedAt[1]['schema:geo']['schema:longitude']::float AS longitude FROM read_json_auto('C:\...\objects\*\*\*.json') ;
L’API DataTourisme est tellement monumentale et raffinée que la plupart des professionnels du tourisme sont incapables de l’utiliser (mais des simplifications sont annoncées pour la fin de l’année). Qu’à cela ne tienne, un marché de développeurs affutés a pu naitre, auxquels les acteurs du tourisme en besoin de données sur mesure commandent des extractions, réalisées en Python, R ou autres langages d’académique facture.
Bienvenue donc au trublion DuckDB, qui sait rendre l’open data véritablement open.
FROM poi_grandest LIMIT 10;
J’ai voulu montrer avec ces deux exemples comment interroger des ressources JSON avec DuckDB, en les manipulant comme des tables. J’ai même pu apparier avec un fichier distant au format Parquet.
L’annuaire des entreprises gagnerait sans doute à être mis à disposition aussi au format parquet. L’API offre de son côté des services spécifiques complémentaires (recherche textuelle, recherche de proximité). Mais le format GeoParquet, dès qu’il aura intégré les index spatiaux, saura rivaliser avec une API par ailleurs contrainte en volume et nombre d’appels.
Dans le prochain épisode (3/3), je parlerai de cartographie, de requêtes spatiales et précisément du format GeoParquet.
Pour en savoir plus- 3 explorations bluffantes avec DuckDB – Interroger des fichiers distants (1/3), icem7, 2023
- 3 explorations bluffantes avec DuckDB – Croiser les requêtes spatiales (3/3), icem7, 2023
- Parquet devrait remplacer le format CSV, icem7, 2022
- DuckDB redonne une belle jeunesse au langage SQL, icem7, 2023
- Why parquet files are my preferred API for bulk open data, Robin Linacre, 2023
- DuckDB – nested functions
- Annuaire des entreprises
L’article 3 explorations bluffantes avec DuckDB – Butiner des API JSON (2/3) est apparu en premier sur Icem7.
-
11:00
LOG’AU voit le jour !
sur Le blog de GeomatysLOG'AU : Le Grand Départ !- 28/11/2023
- Jordan Serviere
Ça y est, c’est fait ! La nouvelle plateforme de Geomatys consacrée à la gestion et la surveillance de la qualité de l’eau est opérationnelle ! LOG’AU est une plateforme qui offre aux producteurs d’eau potable une solution complète pour surveiller en temps réel la qualité de l’eau à leurs différents points de captage, afin d’avoir une vue d’ensemble de leur territoire pour prendre des décisions éclairées et réactives pour garantir la sécurité sanitaire de leurs usagers.
LOG’AU permet à ses utilisateurs :
- D’avoir accès à leurs données détaillées pour chaque capteur…
- …Et des rapports complets pour chaque BAC et Structures
- D’accéder à module cartographique pour contextualiser géographiquement vos données
- De paramétrer des alertes en cas de dépassement des seuils sanitaires
Les quatre principaux modules de LOG’AU
Lancé avec le soutien de ses partenaires, LOG’AU reflète une véritable avancée dans la gestion proactive des ressources hydriques, et met en avant la volonté de Geomatys d’agir dans des secteurs environnementaux et sanitaires. En permettant aux producteurs d’eau potable de prendre des mesures basées sur des données fiables et précises, cette plateforme devient un atout essentiel pour garantir la durabilité de nos ressources en eau ainsi que la santé des populations locales.
Pour en savoir encore plus sur LOG’AU, visitez le site dédié, afin de trouver des informations complémentaires concernant chaque fonctionnalité du produit.
Vous souhaitez prendre contact avec nous ? Ou demander une démo de LOG’AU ? Contactez nous par mail : contact@logau.eu , ou par téléphone : +33 (0)4 84 49 02 26
Menu Linkedin Twitter YoutubeThe post LOG’AU voit le jour ! first appeared on Geomatys.
-
9:06
Geotrek lauréat des OSOR Awards : meilleure initiative open source du secteur public européen !
sur Makina CorpusGeotrek, l'application de gestion et valorisation des activités de pleine nature et touristiques remporte le prix de la meilleure initiative open source du secteur public européen des OSOR Awards.
-
7:28
Bien comprendre les options de partage d'images et de données raster proposées par ArcGIS
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
La donnée raster (ou donnée image) est bien plus qu’une jolie image, on est bien d'accord ? Nous achetons, collectons et acquérons des images dans le but d’en extraire des informations, que ce soit par visualisation ou par analyse. Cependant, ces données raster doivent être partagées en tant que services web avant que vous ou quiconque dans votre organisation puissiez profiter de ces images. Une fois que vous avez trouvé un endroit pour héberger vos images, il peut être difficile de décider du type de service web à utiliser pour les partager.
Cet article a pour objectif de fournir les informations dont vous avez besoin lors du partage d'images et de rasters. Dans ArcGIS, vous disposez de trois manières de partager (ou de diffuser) vos images et vos données raster : les couches de tuiles raster, les couches d'imagerie tuilée et les couches d'imagerie dynamique. Mais si vous débutez dans l'imagerie, vous vous demandez probablement quelles sont les différences, les avantages et les inconvénients de chacune et laquelle vous convient le mieux. Alors, plongeons-nous…
Qu'est-ce qu'une couche de tuile raster ?
Considérez les couches de tuile raster comme une collection d’images assemblées en mosaïque pour créer une jolie image, souvent un fond de carte. Cette image est optimisée pour les performances et conçue pour pouvoir être potentiellement mise à jour (totalement ou partiellement). Ce qui rend ces couches de tuiles raster rapides, c'est que le prétraitement et la compression sont effectués avant sa diffusion. Étant donné que chaque imagette est mise en cache et optimisée pour l'affichage, les imagettes sont affichées immédiatement lorsque vous effectuez un déplacement ou un zoom sur la carte. Techniquement, elles sont générallement publiées à partir d'un paquetage de tuile (fichiers tpk).
Un exemple de couche de tuiles raster est le World Imagery Service accessible depuis le Living Atlas ArcGIS.
Avantages
Les couches de tuiles raster sont très performantes, ce qui les rend particulièrement bien adaptées à la visualisation. Lorsque les images ou les données d'altitude sont uniquement destinées à servir de couche d'habillage ou de fond de carte, il est recommandé de diffuser vos images en tant que couche de tuiles raster (appelés aussi parfois cache de tuiles de carte).
Inconvénients
Bien que les couches de tuiles raster soient performantes, il faut aussi que vous diffusez en réalité des tuiles d'images compressées "statiques" sans autres capacités que l'affichage. Les informations potentiellement très riches qui sont souvent contenues dans les images sont perdues. Le processus de mise en cache des tuiles enregistre automatiquement vos images au format 8 bits et les projette sur une seule projection. Un cache de tuiles de carte ne donne pas accès aux valeurs des différentes bandes spectrales, aux métadonnées des images ou à la possibilité de reprojeter à la volée les images (sauf des outils bureautiques comme ArcGIS Earth ou ArcGIS Pro). Si vous devez permettre aux utilisateurs de faire plus avec l'imagerie qu'une visualisation de base, il est recommandé de diffuser des couches d'imagerie tuilée ou des couches d'imagerie dynamique.
Qu'est-ce qu'une couche d'imagerie tuilée ?
À l’instar des couches de tuiles raster, les couches d'imagerie tuilée rassemblent une collection d’images pour créer un service unique ou un tapis d’images. Cependant, contrairement à un cache de tuiles de carte, les images n'ont pas besoin d'être compressées ou projetées, donc davantage d'informations provenant des images d'origine restent accessible via le service web.
Avantages
Les couches d'imagerie tuilée offrent une expérience "idéale" pour la visualisation mais aussi pour l'analyse. Ce sont des couches rapides et performantes, comme les couches de tuiles raster dont le rendu des tuiles se fait côté client, sans aucun calcul requis sur le serveur. Et le contenu riche des images achetées, collectées ou acquises est préservé. La fidélité des valeurs de chaque bande pour chaque pixel n’est pas perdue. Cela signifie que vous ne limitez pas le nombre de bandes que vous pouvez diffuser ; la profondeur (bits) reste fidèle à l'image d'origine et vous pouvez obtenir des valeurs de pixels pour n'importe quel emplacement. Cela vous permet d'effectuer une analyse, de définir des rendus et de visualiser différentes combinaisons de bandes à l'aide d'une seule couche d'images prête pour l'analyse.
Inconvénients
Cette option n’est pas idéale si vous disposez d’images superposées, multi-résolution ou multi-temporelles. Comme mentionné ci-dessus, les couches d'imagerie tuilée traitent vos données comme un aplat d'images avec une projection et une taille de pixel prédéfinies. Si vous souhaitez assembler des images en temps réel provenant de différents capteurs ou collectées à différentes dates pour une zone donnée, il est recommandé d'utiliser des couches d'images dynamiques.
En résumé, les couches d'imagerie tuilée ont (en partie) le coté dynamique d'une couche d'imagerie dynamique et le coté performant d'une couche de tuiles raster.
Qu'est-ce qu'une couche d'imagerie dynamique ?
Les couches d''imagerie dynamique sont des collections d'images qui sont dynamiquement mosaïquées (assemblées) à la volée par le serveur. Lorsque vous effectuez un déplacement et un zoom sur la carte, les images d'une zone entière sont récupérées sur le serveur pour couvrir l'étendue spécifique requise. Cela fonctionne de la manière suivante : pour la zone d'intérêt, un appel est effectué au serveur pour sélectionner toutes les images de cette zone, les traiter si nécessaire, les assembler puis les renvoyer le rendu final à l'application cliente. Le résultat vous donne ainsi une vue "dynamique" basée sur les règles de mosaïquage que vous avez spécifiées, extraites directement de l'imagerie source.
Avantages
Vous pouvez utiliser des couches d’images dynamiques pour analyser des images superposées et multi-temporelles. Ce service d'imagerie est idéal pour les cas d'utilisation qui nécessitent de parcourir la dimension temporelle des images ou de trier dynamiquement les images en fonction d'attributs, tels que la couverture nuageuse, la date d'acquisition ou l'angle du nadir.
Exemple de couche d'imagerie dynamique avec différentes combinaisons de bandes
et mosaïquage dynamique de plusieurs images en partie superposées.
Pour les scénarios où la couverture nuageuse pose problème, ces couches permettrons de choisir dynamiquement les images disponibles sans nuages. Si vous effectuez un flux de travail de détection de changements, vous utiliserez une couche d'imagerie dynamique pour interroger deux images de dates différentes.
Et comme si cela ne suffisait pas, les couches d'images dynamiques vous permettent de traiter les images sur le serveur à l'aide de fonctions raster avant de renvoyer les pixels au client.
Pour résumer, l'objectif d’une couche d’imagerie "dynamique" est de fournir à l'utilisateur la capacité de contrôler finement la combinaison, le traitement et le rendu des pixels envoyés par le serveur à l'application cliente.
Inconvénients
Étant donné que les données sont traitées à la volée, les couches d'imagerie dynamique ont tendance à être plus lentes et légèrement plus coûteuses que les options précédentes, mais cela est dû au fait qu'elles offrent davantage de fonctionnalités. Elles nécessitent également de la puissance de traitement de votre serveur. Et, si vous hébergez vos images via ArcGIS Image for ArcGIS Online, ces services ne peuvent pas être diffusés publiquement, uniquement au sein de votre organisation. Cependant, vous pouvez également fournir un accès public via ArcGIS Image Dedicated, le SaaS géré par Esri ou simplement avec ArcGIS Enterprise en utilisant le rôle serveur ArcGIS Image Server.
J'espère que ces conseils vous aideront à décrypter les différents services d'image et à sélectionner celui qui répond le mieux à vos besoins. Cette rapide matrice vous sera peut-être également utile.
Passer à l'étape suivante
Si vous avez besoin d’un moyen rapide d’héberger et de partager vos images et données raster, vous devez absolument regarder ce qu'ArcGIS Image for ArcGIS Online peut faire pour vous à l'aide de cette vidéo :
Vous en apprendrez également bien davantage sur la suite de produits ArcGIS Image.
Enfin, si vous recherchez plus de ressources sur le partage de vos images et données raster, vous pouvez consulter le site d'Esri (en anglais) sur les flux de travail d'imagerie.
-
1:30
The Live Amtrak Train Map
sur Google Maps ManiaTrains.fyi is a live interactive map which shows the real-time locations of passenger trains in the U.S. and Canada. The map uses colored markers to show the near real-time positions of trains from a number of different train companies in North America. The arrow on the markers show a train's direction of travel and the colors indicate the transit operators of individual trains. If you
-
1:06
GeoTools Team: GeoTools 30.1 released
sur Planet OSGeo The GeoTools team is pleased to the release of the latest stable version of GeoTools 30.1:geotools-30.1-bin.zip geotools-30.1-doc.zip geotools-30.1-userguide.zip geotools-30.1-project.zip This release is also available from the OSGeo Maven Repository and is made in conjunction with GeoServer 2.24.1. The release was made by Jody Garnett (GeoCat).Release -
22:31
Free and Open Source GIS Ramblings: Setting up a graph db using GTFS data & Neo4J
sur Planet OSGeoIn a recent post, we looked into a graph-based model for maritime mobility data and how it may be represented in Neo4J. Today, I want to look into another type of mobility data: public transport schedules in GTFS format.
In this post, I’ll be using the public GTFS data for Riga since Riga is one of the demo sites for our current EMERALDS research project.
The workflow is heavily inspired by Bert Radke‘s post “Loading the UK GTFS data feed” from 2021 and his import Cypher script which I used as a template, adjusted to the requirements of the Riga dataset, and updated to recent Neo4J changes.
Here we go.
Since a GTFS export is basically a ZIP archive full of CSVs, we will be making good use of Neo4Js CSV loading capabilities. The basic script for importing the stops file and creating point geometries from lat and lon values would be:
LOAD CSV with headers FROM "file:///stops.txt" AS row CREATE (:Stop { stop_id: row["stop_id"], name: row["stop_name"], location: point({ longitude: toFloat(row["stop_lon"]), latitude: toFloat(row["stop_lat"]) }) })
This requires that the stops.txt is located in the import directory of your Neo4J database. When we run the above script and the file is missing, Neo4J will tell us where it tried to look for it. In my case, the directory ended up being:
C:\Users\Anita\.Neo4jDesktop\relate-data\dbmss\dbms-72882d24-bf91-4031-84e9-abd24624b760\import
So, let’s put all GTFS CSVs into that directory and we should be good to go.
Let’s start with the agency file:
load csv with headers from 'file:///agency.txt' as row create (a:Agency { id: row.agency_id, name: row.agency_name, url: row.agency_url, timezone: row.agency_timezone, lang: row.agency_lang });
… Added 1 label, created 1 node, set 5 properties, completed after 31 ms.
The routes file does not include agency info but, luckily, there is only one agency, so we can hard-code it:
load csv with headers from 'file:///routes.txt' as row match (a:Agency {id: "rigassatiksme"}) create (a)-[:OPERATES]->(r:Route { id: row.route_id, shortName: row.route_short_name, longName: row.route_long_name, type: toInteger(row.route_type) });
… Added 81 labels, created 81 nodes, set 324 properties, created 81 relationships, completed after 28 ms.
From stops, I’m removing non-existent or empty columns:
load csv with headers from 'file:///stops.txt' as row create (s:Stop { id: row.stop_id, name: row.stop_name, location: point({ latitude: toFloat(row.stop_lat), longitude: toFloat(row.stop_lon) }), code: row.stop_code });
… Added 1671 labels, created 1671 nodes, set 5013 properties, completed after 71 ms.
From trips, I’m also removing non-existent or empty columns:
load csv with headers from 'file:///trips.txt' as row match (r:Route {id: row.route_id}) create (r)<-[:USES]-(t:Trip { id: row.trip_id, serviceId: row.service_id, headSign: row.trip_headsign, direction_id: toInteger(row.direction_id), blockId: row.block_id, shapeId: row.shape_id });
… Added 14427 labels, created 14427 nodes, set 86562 properties, created 14427 relationships, completed after 875 ms.
Slowly getting there. We now have around 16k nodes in our graph:
Finally, it’s stop times time. This is where the serious information is. This file is much larger than all previous ones with over 300k lines (i.e. times when an PT vehicle stops).
This requires another tweak to Bert’s script since
using periodic commit
is not supported anymore:The PERIODIC COMMIT query hint is no longer supported. Please use CALL { … } IN TRANSACTIONS instead.
So I ended up using the following, based on [https:]] ::auto load csv with headers from 'file:///stop_times.txt' as row CALL { with row match (t:Trip {id: row.trip_id}), (s:Stop {id: row.stop_id}) create (t)<-[:BELONGS_TO]-(st:StopTime { arrivalTime: row.arrival_time, departureTime: row.departure_time, stopSequence: toInteger(row.stop_sequence)})-[:STOPS_AT]->(s) } IN TRANSACTIONS OF 10 ROWS;
… Added 351388 labels, created 351388 nodes, set 1054164 properties, created 702776 relationships, completed after 1364220 ms.
As you can see, this took a while. But now we have all nodes in place:
The final statement adds additional relationships between consecutive stop times:
call apoc.periodic.iterate('match (t:Trip) return t', 'match (t)<-[:BELONGS_TO]-(st) with st order by st.stopSequence asc with collect(st) as stops unwind range(0, size(stops)-2) as i with stops[i] as curr, stops[i+1] as next merge (curr)-[:NEXT_STOP]->(next)', {batchmode: "BATCH", parallel:true, parallel:true, batchSize:1});
This fails with:
There is no procedure with the name apoc.periodic.iterate registered for this database instance. Please ensure you've spelled the procedure name correctly and that the procedure is properly deployed.
So, let’s install APOC. That’s a plugin which we can install into our database from within Neo4J Desktop:
After restarting the db, we can run the query:
No errors. Sounds good.
Let’s have a look at what we ended up with. Here are 25 random Trips. I expanded one of them to show its associated StopTimes. We can see the relations between consecutive StopTimes and I’ve expanded the final five StopTimes to show their linked Stops:
I also wanted to visualize the stops on a map. And there used to be a neat app called Neomap which can be installed easily:
However, Neomap does not seem to be compatible with the latest Neo4J:
So this final step will have to wait for another time.
-
18:49
gvSIG Team: Taller gratuito sobre “Introducción a gvSIG”, con la versión 2.6 y su nuevo juego de iconos en las 19as Jornadas gvSIG
sur Planet OSGeoEl día 30 de noviembre de 2023, durante las 19as Jornadas Internacionales gvSIG, se realizará un taller gratuito sobre el manejo de la versión 2.6 de gvSIG, con el nuevo juego de iconos.
Para seguir el taller solo deberás registrarte desde el siguiente enlace: Inscripción taller.
La versión 2.6 incluye por defecto un nuevo juego de iconos mejorado, sustituyendo al que llevaba desde sus versiones iniciales.
En este taller se repasarán las principales herramientas de la aplicación, aprendiendo a crear vistas, cargar capas vectoriales y raster, locales y remotas, a editarlas, tanto gráfica como alfanuméricamente, a aplicar geoprocesamiento y a generar mapas. Todo ello se realizará con el nuevo juego de iconos, que da una versión renovada a gvSIG.
Tanto si ya has utilizado gvSIG previamente, como si es tu primera vez, no puedes perderte este taller.
Para poder seguirlo, deberás descargarte la versión 2.6 portable de gvSIG, según tu sistema operativo: Windows 64 – Windows 32 – Linux 64 – Linux 32
Se deberá descomprimir en una carpeta sin espacios ni acentos ni eñes. Se puede crear por ejemplo una carpeta “gvSIG” en C:\ (en Windows) o en el home de usuario (en Linux), dejar el zip dentro, y descomprimir ahí.
Se deberá también descargar la cartografía a utilizar: Cartografía taller “Introducción a gvSIG 2.6”
-
14:07
The Climate of Middle Earth: définir le climat d’un lieu imaginaire
sur Veille cartographieCet article The Climate of Middle Earth: définir le climat d’un lieu imaginaire est apparu en premier sur Veille cartographique 2.0.
Dans l’univers de la Terre du Milieu, décor du Seigneur des Anneaux, imaginé par J.R.R Tolkien, le climat façonne les paysages et les différents espaces. De la forêt luxuriante des elfes à la verte campagne des Hobbits en passant par les montagnes enneigées du territoire des nains et les paysages volcaniques du Mordor, Terre de […]
Cet article The Climate of Middle Earth: définir le climat d’un lieu imaginaire est apparu en premier sur Veille cartographique 2.0.
-
9:20
The World as 1000 People
sur Google Maps ManiaIf the world's population was proportionally represented as 1,000 people then 591 of those people would live in Asia, 185 would live in Africa, 91 in Europe, 75 would live in North America, 55 in South America and the remaining 5 people would live in Oceania. The Visual Capitalist has mapped The World's Population as 1,000 People. On the map each marker (shaped as a human figure)
-
9:00
Geotrek pour l'agglomération d'Alès !
sur Makina CorpusMise en place et maintenanceL'histoire de ce projet débute par un besoin :
-
8:48
2023 : quelles nouveautés pour TerraVisu ?
sur Makina CorpusCette année, la solution TerraVisu a connu de nombreux bouleversements, tant dans l'organisation de son code source que dans l'amélioration et l'enrichissement de ses fonctionnalités.
-
8:32
ArcGIS modernise ses briefings
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueUne nouvelle fonctionnalité s’ajoute dans ArcGIS StoryMaps. afin de réaliser des présentations. Cet outil sera idéal pour les organisations souhaitant partager et présenter des informations efficacement avec un visuel attrayant. Il permet de communiquer, en interne ou en externe, en proposant un contenu structuré et intuitif. En ajoutant des cartes en direct et des données temps-réel, le format de présentation est dynamisé. La narration est plus courte et basée sur des diapositives, à la manière d’un PowerPoint amélioré. Dans un contexte d’urgence ou même de manière plus classique, Briefings peut apparaître comme un bon support pour la prise de décision. Les présentations peuvent se partager à l’aide de liens et seront prochainement exportables au format PDF. Le contenu est sécurisé par le cadre de sécurité robuste d’Esri. La table des matières permet de naviguer entre les slides de façon plus fluide et rapide. Pour créer un briefing, il suffit d’éditer un récit ou une collection.
+ d'infos :
esri.com
-
6:49
La version 3.2 d'ArcGIS Pro est disponible (en anglais)
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierEn février dernier, ArcGIS Pro passait en version 3.1 avec de nombreuses nouveautés que vous avez peut-être oublié et si c'est le cas je vous recommande de redécouvrir cet article sur arcOrama. Aujourd'hui, c'est la seconde mise à jour majeure de l'année qui est disponible avec l'arrivée de la version 3.2 d'ArcGIS Pro 3.2 (en anglais). Comme à chaque mise à jour, cette version regorge de nouvelles fonctionnalités mais aussi de nombreuses améliorations en termes de capacité fonctionnelle, de performance, de productivité et de qualité. Ce sont littéralement des centaines de nouvelles choses que vous allez pouvoir essayer, avec de nouveau plus de 100 idées d'utilisateurs mises en œuvre à partir du site collaboratif ideas.arcgis.com.
Avec tant de nouveautés, il y en a forcément certaines qui vous concernent, mais par où commencer ? Tout d'abord, vous pouvez vous référer à cette page des nouveautés de la documentation en ligne. Vous pouvez également poursuivre cet article dans lequel je vous propose une première liste des nouveautés les plus marquantes :
- Documenter et parcourir votre modèle de données de Géodatabase
- Gagner en efficacité grâce aux améliorations apportées aux raccourcis clavier
- Créer des séries de cartes thématiques
- Affiner vos modèles de données avec 4 nouveaux types de champ
- Offrir de nouvelles perspectives à votre SIG avec de l'imagerie orientée (vue immersives)
- Interopérer avec votre SIG 3D avec les nouveaux outils d'import/export de fichier 3D
- Donner du contexte à vos scènes avec les fonds de carte 3D
- Prendre le contrôle de votre expérience lors des sessions de mise à jour
- Organiser et rationaliser les éléments visuels de votre projet avec l'export complet des styles
- Utiliser le nouveau rendu de nuages de points LiDAR par carrés pour plus de performance
- Possibilité de modifier les jeux de données LiDAR basé sur des fichiers zLAS
Documenter et parcourir votre modèle de données de Géodatabase
Si vous étiez fan du complément X-Ray pour ArcCatalog, cet outil est fait pour vous ! Vous pouvez désormais créer un document complet décrivant le modèle de données de vos Géodatabases avec l'outil "Générer le rapport de structure". Vous produirez ainsi un rapport décrivant les ensembles de données, les relations, les règles et les propriétés, fournissant un aperçu complet du schéma. Avec la possibilité d'exporter dans plusieurs formats, tels qu'Excel, JSON, HTML et PDF, vous pouvez facilement collaborer autour de la structure de vos données avec vos collaborateurs, aider à la migration des données, ou encore les utiliser comme dictionnaire de données. Les hyperliens du rapport permettent une navigation et une exploration rapides des éléments de votre schéma, facilitant ainsi la recherche des informations dont vous avez besoin.Exemple de rapport de structure de Géodatabase exporté au format Excel
Exemple de rapport de structure de Géodatabase exporté au format Excel
Pour en savoir plus sur les récentes évolutions de fonctionnalités, les améliorations et les didacticiels disponibles pour vous aider à gérer vos données dans ArcGIS Pro, je vous recommande le nouveau hub de ressources sur les Géodatabases.
Gagner en efficacité grâce aux améliorations apportées aux raccourcis clavier
La toute nouvelle boîte de dialogue des raccourcis clavier (accessible via la touche F12) vous permet de rechercher des raccourcis par défaut, de modifier les raccourcis existants et d'en ajouter de nouveaux pour répondre à vos besoins spécifiques.
En quoi est-ce nouveau ? Le nouveau cadre de raccourcis clavier de Pro prend en charge les raccourcis contextuels ; c'est-à-dire que vous pouvez réutiliser le même raccourci lorsque différentes parties de l'application sont actives. Par exemple, vous souhaiterez peut-être que Ctrl+S enregistre le projet lorsque vous travaillez dans une vue cartographique, mais vous souhaiterez peut-être également que Ctrl+S enregistre les modifications lorsque vous travaillez dans la table attributaire. Maintenant, vous pouvez le faire !
La boîte de dialogue comprend des avertissements pour vous alerter si le même raccourci est attribué à des commandes en conflit, garantissant ainsi une expérience fluide et sans erreur. Prenez le contrôle de votre productivité en utilisant des raccourcis clavier personnalisables dans cet environnement efficace et convivial.
Créer des séries de cartes thématiques Il dorénavant possible de créer des séries de cartes thématiques, c'est à dire des pages dans lesquels la fenêtre cartographique est paramétrée une seule fois, tandis que les données de la carte sont mises à jour sur chaque page. Imaginez les possibilités !
Vous pourrez ainsi mettre en évidence différentes couches ou groupes de couches dans votre carte, fournissant ainsi une représentation dynamique de vos différentes couches thématiques pour générer ce que l'on appelle souvent un atlas de cartes. Comment ça marche ? En parcourant de manière transparente les couches d'un groupe de couches de type "radio" (avec affichage exclusif des couches), chaque page de la série de cartes présente une couche différente, tout en gardant l'étendue inchangée. Cela signifie qu'une seule couche du groupe est visible sur chaque page, tandis que les autres couches du groupe restent masquées, garantissant une présentation claire et ciblée. Les couches extérieures au groupe de couche "radio" restent visibles sur toute la série de cartes, offrant ainsi le contexte et la continuité.Créer une série de carte thématique Exemple de série de carte thématiques dans ArcGIS Pro
Affiner vos modèles de données avec 4 nouveaux types de champ
Pour optimiser et affiner vos modèles de données, Esri améliore les capacités de stockage de données avec quatre nouveaux types de champs dans ArcGIS Pro, ainsi que le support des ID d'objet en 64 bits. Ces types de données offrent plus de flexibilité et de précision pour stocker et analyser vos informations avec la plus grande maîtrise. Les nouveaux types de champs sont disponibles lors de la création de nouvelles tables ou classes d'entités, dans l'interface "Champs" ou via des outils de géotraitement tels que "Ajouter un champ".
Les 4 nouveaux types de champs :- Entier très grand (Big Integer) : Permet de stocker de très grands nombres entiers au-delà de la plage du type de données entier "Long".
- Décalage d'horodatage (Timestamp offset): Permet de stocker la date et l'heure en tant que décalage par rapport au temps universel coordonné (UTC), idéal pour gérer les informations de fuseau horaire.
- Date uniquement (Date only): capturez les dates sans valeurs temporelles, idéal pour suivre les dates de naissance, les périodes de vacances ou les années scolaires.
- L’heure uniquement (Time only): concentrez-vous sur l’horloge ! Stockez les valeurs temporelles sans dates, ce qui facilite la gestion des heures de travail, des horaires de transport, etc.
Et pour compléter les améliorations autour des données de type date-heure, l'outil de géotraitement "Migrer le champ de date en haute précision" vous permet de migrer les données vers des champs de "Date" en haute précision prenant en charge l'heure en millisecondes.
Offrir de nouvelles perspectives à votre SIG avec de l'imagerie orientée (vue immersives)
L'intégration, la gestion et l'affichage d'imagerie orientée dans ArcGIS Pro était possible depuis quelques années à l'aide d'un complément fourni par Esri. Désormais, ces capacités sont intégrées en standard au cœur d'ArcGIS et donc dans Pro. Quelles soient terrestres ou aériennes, c'est un moyen génial de gérer, de visualiser et d'explorer des collections d'images obliques, localisées et orientées dans vos cartes. ArcGIS Pro gère divers types d'images, depuis les images obliques prises par avion ou par drone jusqu'aux photos d'inspection rapprochées et aux images prises de la rue.
Une fois les photos référencées dans les nouvelles couches d'imagerie orientée, à l'aide de leurs métadonnées associées, vous utiliserez la visionneuse d'images orientées, en cliquant sur la carte pour afficher la meilleure image pour l'emplacement cliqué. Soyez témoin des mises à jour dynamiques des empreintes d'images lorsque vous effectuez un panoramique et un zoom et utilisez l'outil de navigation ou la galerie d'images pour explorer différentes perspectives. Lorsque vous êtes prêt, partagez votre couche d'imagerie orientée pour la collaboration et l'analyse.
Interopérer avec votre SIG 3D avec les nouveaux outils d'import/export de fichier 3D
Lorsque vous travaillez avec des couches d'objets 3D (nouvelle génération des couches multipatch), vous pouvez maintenant importer (ou exporter) des objets 3D à partir (ou à destination) de fichiers aux formats suivants :- COLLADA (.dae)
- Drawing (.dwg)
- Autodesk Filmbox (.fbx)
- Graphics Library Transmission (.glb)
- JSON Graphics Library Transmission (.gltf)
- Industry Foundation Class (.ifc)
- Wavefront Object (.obj)
- Universal Scene Description (.usdc)
- Compressed Universal Scene Description (.usdz)
Donner du contexte à vos scènes avec les fonds de carte 3D
A partir de cette version 3.2, vous pourrez améliorer vos scènes ArcGIS Pro en accédant aux nouveaux fonds de carte 3D d'Esri à partir du Living Atlas ArcGIS.Fond de carte topographique 3D sur le campus Esri à Redlands
Les fonds de carte 3D peuvent fournir un contexte intéressant à vos scènes en ajoutant des bâtiments, des arbres et des étiquettes sur des POI 3D tout en visualisant des fonds de carte à tuiles vectorielles populaires comme la carte topographique Esri, la carte communautaire Esri ou encore le fond de carte OSM.
Interopérer avec votre SIG 3D avec les nouveaux outils d'import/export de fichier 3D
Lorsque vous travaillez avec des couches d'objets 3D (nouvelle génération des couches multipatch), vous pouvez maintenant importer (ou exporter) des objets 3D à partir (ou à destination) de fichiers aux formats suivants :- COLLADA (.dae)
- Drawing (.dwg)
- Autodesk Filmbox (.fbx)
- Graphics Library Transmission (.glb)
- JSON Graphics Library Transmission (.gltf)
- Industry Foundation Class (.ifc)
- Wavefront Object (.obj)
- Universal Scene Description (.usdc)
- Compressed Universal Scene Description (.usdz)
Exploiter des photomaillages et des objets 3D depuis des sources au format 3D Tiles
Avec la dernière version d'ArcGIS Pro 3.2, les utilisateurs peuvent exploiter des éléments de type photomaillage 3D (3D Textured Mesh) et de type Objet 3D à partir de répertoires locaux ou de services web au format 3D Tiles. Vous pouvez ainsi combiner ces couches 3D Tiles avec d'autres couches SIG standard de communauté Open Geospatial Consortium (OGC) telles que les couches de scènes 3D au format I3S. Les couches I3S et 3D Tiles permettent une utilisation dans les outils d'exploration, l'analyse, l'animation, les mises en page, etc. A la différence de nombreuses applications accédant à des données 3D Tiles, dans ArcGIS Pro, ces sources de données sont parfaitement intégrées au SIG 3D ArcGIS. Les utilisateurs peuvent exploiter ces données au-delà de la visualisation réaliste en tirant parti de la puissance analytique d'un SIG complet.
Prendre le contrôle de votre expérience lors des sessions de mise à jour
Vous pouvez personnaliser votre flux de travail de mise à jour dans ArcGIS Pro. Tout d’abord, vous pouvez définir les options liées aux sessions de mise à jour pour exiger l’activation manuelle de l’outil. Vous pourrez aussi choisir si ArcGIS Pro gère automatiquement les sessions de mise à jour des espaces de travail ou si l'utilisateur sélectionne manuellement un espace de travail. Ces paramètres peuvent également être contrôlés par les administrateurs système, vous donnant un contrôle total sur l'environnement de mise à jour de votre organisation. En exécutant des sessions de mise à jour par espace de travail unique et en sélectionnant un espace de travail de Géodatabase d'entreprise non-versionnée, vous pouvez maintenant enregistrer ou ignorer manuellement les mises à jour directement à partir de l'onglet "Mise à jour" du ruban.
Le comportement de la session de mise à jour par espace de travail unique est contrôlé à partir de l'onglet "Projet > Options > Mise à jour".
Lorsque ArcGIS Pro est défini sur "Session de mise à jour d'espace de travail unique", une nouvelle interface utilisateur "Choisir un espace de travail" apparaît.
Organiser et rationaliser les éléments visuels de votre projet avec l'export complet des styles
Vous pouvez dorénavant enregistrer tous les éléments de style d'un projet dans un seul et même fichier de style, en organisant ainsi efficacement les symboles, les couleurs, l'emplacement des étiquettes et les éléments de mise en page utilisés dans les cartes, les scènes, les mises en page, etc. Les fichiers de style permettent de catégoriser et des gérer les éléments graphiques d'un projet pour améliorer la cohérence visuelle de vos différents projets et des cartes, scènes et mises en page associées. Vous créez un style à partir de votre projet et vous pouvez partager le fichier .stylx au sein de votre organisation pour générer plus facilement des produits cartographiques standardisés et cohérents.
Utiliser le nouveau rendu de nuages de points LiDAR par carrés pour plus de performance
Avec la version 3.2, une nouvelle option d'affichage permet désormais d'afficher les nuages de points avec une symbologie par carrés à la place de la symbologie par points (option par défaut).
Possibilité de modifier les jeux de données LiDAR basé sur des fichiers zLAS
Le format zLAS est un format compressé mis au point par Esri, il y a plusieurs années, pour réduire la taille (environ -30%) des fichiers standards LAS. Jusqu'à maintenant, ArcGIS Pro ne pouvait que visualiser et publier les jeux de données Lidar basés sur ce format. Désormais, vous pouvez utiliser le format zLAS pour modifier les classes et les couleurs des points.
Conclusion
Je n'ai évoqué ici que quelques-unes des nouveautés de cette version 3.2 d'ArcGIS Pro. Vous découvrirez la liste complète à partir de cette page de l'aide en ligne (en anglais). En ce qui concerne la disponibilité de la version française, cette dernière est annoncée par Esri pour mi-décembre 2023. J'annoncerai cela dans un court article sur arcOrama.
-
1:00
GeoServer Team: GeoServer 2.24.1 Release
sur Planet OSGeoGeoServer 2.24.1 release is now available with downloads (bin, war, windows), along with docs and extensions.
This is a stable release of GeoServer recommended for production use. GeoServer 2.24.1 is made in conjunction with GeoTools 30.1, and GeoWebCache 1.24.1.
Thanks to Jody Garnett (GeoCat) for making this release.
Release notesImprovement:
- GEOS-11152 Improve handling special characters in the Simple SVG Renderer
- GEOS-11153 Improve handling special characters in the WMS OpenLayers Format
- GEOS-11154 Improve handling special characters in the MapML HTML Page
- GEOS-11155 Add the X-Content-Type-Options header
- GEOS-11173 Default to using [HttpOnly] session cookies
- GEOS-11176 Add validation to file wrapper resource paths
- GEOS-11188 Let DownloadProcess handle download requests whose pixel size is larger than integer limits
- GEOS-11189 Add an option to throw a service exception when nearest match “allowed interval” is exceeded
- GEOS-11193 Add an option to throw an exception when the time nearest match does not fall within search limits
Bug:
- GEOS-11074 GeoFence may not load property file at boot
- GEOS-11166 OGC API Maps HTML representation fail without datetime parameter
- GEOS-11184 ncwms module has a compile dependency on gs-web-core test jar
- GEOS-11190 GeoFence: align log4j2 deps
- GEOS-11196 NPE in VectorDownload if ROI not defined
- GEOS-11200 GetFeatureInfo can fail on rendering transformations that generate a different raster
- GEOS-11203 WMS GetFeatureInfo bad WKT exception for label-geometry
- GEOS-11206 Throw nearest match mismatch exceptions only for WMS
For the complete list see 2.24.1 release notes.
Community Module Updates OAuth2 OpenID-Connect improvementsTwo improvements have been made to the community module for OAuth2 OpenID-Connect authentication:
- GEOS-11209 Open ID Connect Proof Key of Code Exchange (PKCE)
- GEOS-11212 ODIC accessToken verification using only JWKs URI
In addition the module includes an
OIDC_LOGGING
profile and updated documentation covering new settings and troubleshooting guidance.Thanks Jody Garnett for these improvements on behalf of GeoBeyond.
note: Over the course of 2024 the OAuth2 plugins will need to be rewritten for spring-framework 6. Interested parties are encouraged to reach out to geoserver-devel email list; ideally we would like to see this functionality implemented and included as part of GeoServer.
About GeoServer 2.24 SeriesAdditional information on GeoServer 2.24 series:
- GeoServer 2.24 User Manual
- State of GeoServer 2.24 (foss4g-na presentation)
- Control remote HTTP requests sent by GeoTools/GeoServer
- Multiple CRS authority support, planetary CRS
- Extensive GeoServer Printing improvements
- Upgraded security policy
Release notes: ( 2.24.1 | 2.24.0 | 2.24-RC )
GeoServer is an Open Source Geospatial Foundation project supported by a mix of volunteer and service provider activity. We reply on sponsorship to fund activities beyond the reach of individual contributors.
-
10:37
The World's Largest Snow Dome
sur Google Maps ManiaThis morning I discovered MapTheClouds, which features a whole host of impressive interactive map visuals. I'm sure a lot of the maps featured on MapTheClouds are very useful but as ever I'm drawn to the fun, experimental maps, to the maps that apparently serve no other purpose than they were fun to create and are even more fun to play with.Here are a few links to my personal favorites, but check
-
18:47
KAN T&IT Blog: Destacada participación de Julia Martinuzzi y Walter Shilman en el Side Event de UN-GGIM Américas
sur Planet OSGeoEl pasado 20 de octubre, nuestra Directora de Operaciones (COO), Julia Martinuzzi, y nuestro Director de Tecnología (CTO), Walter Shilman, asumieron roles clave durante la Décima Sesión de la Comisión de las Naciones Unidas para América Latina y el Caribe (ECLAC) celebrada en Santiago de Chile. Su destacada participación se centró en la organización y liderazgo del Side Event titulado «Open Source technologies for geospatial information management and their role in the implementation of the IGIF.»
Este evento, coordinado por el capítulo argentino de OSGeo – Geolibres, reunió a destacados expertos de la región para compartir sus conocimientos sobre enfoques sostenibles y accesibles para abordar los desafíos geoespaciales.
La discusión se centró esencialmente en la implementación del Marco Integrado de Información Geoespacial (IGIF), resaltandola importancia de la accesibilidad y sostenibilidad, con un énfasis primordial en la aplicación de tecnologías de código abierto.
Los participantes exploraron temas clave, como la integración de datos estadísticos y geoespaciales, destacando cómo las tecnologías de código abierto fomentan la colaboración y mejoran la toma de decisiones. Además, se examinó el papel esencial de la geoinformación y las tecnologías de código abierto en la gestión de desastres.
El evento concluyó resaltando la necesidad de difundir y promover el uso de tecnologías de código abierto entre los países miembros de UN-GGIM, subrayando su poder en la Gestión de Información Geoespacial. La colaboración e intercambio de conocimientos entre expertos y principiantes fueron identificados como impulsores clave para un uso más efectivo de la información geoespacial en diversas aplicaciones, desde la planificación urbana hasta la gestión de desastres.
En ese momento, Julia Martinuzzi y Walter Shilman lideraron de manera destacada, contribuyendo significativamente al buen desarrollo del evento. Esperamos que esta experiencia positiva siga siendo una fuente de nuevas ideas y trabajo conjunto en el manejo de información geoespacial en América Latina y el Caribe.
Presentación en el Side Event sobre «Open Source technologies for geospatial information management and their role in the implementation of the IGIF,»
Les compartimos la presentación del evento para que todos puedan acceder.
Presentación Side Event: «Open Source technologies for geospatial information management and their role in the implementation of the IGIF»
UN-GGIM-Americas-Side-Event-ENDescarga
-
14:52
Aux îles
sur Les cafés géographiquesAurélia Coulaty, Clément Thoby, Aux îles, Actes Sud, 2023
Le goût du voyage géographique peut être suscité par un guide, un documentaire, un ouvrage spécialisé mais aussi par un « beau livre ». Les amoureux des îles pourront choisir leur destination après avoir lu l’album écrit par Aurélia Coulaty et illustré par Clément Thoby, Aux Îles (1). L’auteure, écrivaine et artiste polyvalente, a approfondi sa passion du voyage et de l’« ailleurs » en consacrant son master de lettres modernes à Nicolas Bouvier (2). Dans Aux Îles, elle entrelace informations géographiques (sur l’environnement particulièrement), récits mythologiques, références littéraires et impressions subjectives.
Ouvrir le livre donne un premier plaisir sensuel : contempler des dessins aux couleurs saturées et aux traits de crayon rapides tout en caressant un papier épais et satiné. Toutes les îles trouvent leur place. De petites îles comme Socotra, au large du Yémen, à la biodiversité exceptionnelle ou Ouessant, vigie sur l’océan Atlantique. De grandes îles comme l’Irlande, façonnée par des vagues successives d’occupants mais qui ne fut pas romanisée. Une île-continent, l’Australie. Les archipels sont aussi nombreux : les Galapagos offrent leurs 200 000 km2 de réserve naturelle maritime alors que les Kerguelen, dans les TAAF (3), abritent la recherche des météorologues, vulcanologues, biologistes…sous la protection de la Marine nationale. Les îles de lacs et de lagunes ne sont pas non plus oubliées (Venise, bien sûr…).
Les îles ne sont pas regroupées selon un critère géographique. La localisation des îles des contes et légendes, telle l’Atlantide, serait hasardeuse. Tout aussi difficiles à situer sur une carte les îles nées de l’imaginaire littéraire de deux Britanniques, Nulle part (Utopia de Thomas More (4) et Le pays du Jamais (Neverland de J. M. Barrie) (5). D’autres îles sont regroupées selon la fonction que les hommes leur attribuèrent, qu’il s’agisse d’abriter des bagnards (Nouvelle-Calédonie, Sakhaline…), de garder de grands prisonniers (Napoléon à Sainte-Hélène…) ou de fournir des repaires aux pirates (Cocos et La Tortue).
Voici donc une occasion de faire un beau tour du monde en 86 pages.
Notes :
(1) Aurélia COULATY, Clément THOBY, Aux Îles, Actes Sud, 2023
(2) Nicolas BOUVIER est un écrivain, voyageur, photographe suisse, considéré comme un maître de la littérature de voyage. Son ouvrage L’Usage du monde (1963) est aujourd’hui une référence reconnue dans le monde universitaire.
(3) TAAF : Terres antarctiques et australes françaises
(4) L’Utopie ou Le Traité de la meilleure forme de gouvernement a été écrit par Thomas More en 1516.
(5) J. M. BARRIE est le créateur du personnage de Peter Pan qui vit dans un lieu imaginaire, Neverland. Le roman, Peter et Wendy, a été publié en 1911.Michèle Vignaux, novembre 2023
-
9:30
Global Sentiment Towards Israel & Palestine
sur Google Maps ManiaThe interactive map Israel-Palestine Media Bias visualizes the results of a sentiment analysis of mostly English language media and social media websites to determine whether they have a predominately Israeli or Palestinian bias.Using the map you can explore the Israel/Palestine sentiment bias expressed by the media in individual countries, on different platforms and by the percentage of a
-
18:52
Place aux femmes
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLorsque les rues, places, jardins ou parcs portent des noms de figures historiques, il s’agit majoritairement de noms d’hommes. À Tours, seuls 4% de ses voies et de ses espaces publics portent des noms de femmes. La ville s’engage et lance une démarche participative, dans le cadre de son plan égalité : « La rue est aussi à nous ». L’objectif est de proposer et de choisir des noms de personnalité féminine. C’est donc au tour des femmes d’êtres mis à l’honneur ! Depuis 2020, 35 d’entre elles s’affichent sur les panneaux de la ville. Une StoryMap a été créée, sous l’impulsion du service SIG de Tours Métropole Val de Loire, pour mettre en valeur l’opération. Elle propose un parcours de la ville par pôle avec une visualisation des sites et une petite biographie de la scientifique, l’écrivaine, l’artiste ou la personnalité politique nommant l’espace public. D’Ada Lovelace, pionnière de l’informatique, à Gerty Archimède, première femme antillaise avocate, en passant par Katia Krafft, volcanologue, la démarche se veut inspirante pour les jeunes générations.
+ d'infos :
tours.fr
-
15:00
OGC Compliance Certification now available for the GeoPose 1.0 Data Exchange Standard
sur Open Geospatial Consortium (OGC)The Open Geospatial Consortium (OGC) is excited to announce that the Executable Test Suite (ETS) for version 1.0 of the OGC GeoPose Data Exchange Standard has been approved by the OGC Membership. Products that implement OGC GeoPose 1.0 and pass the tests in the ETS can now be certified as OGC Compliant.
The OGC Compliance Program offers a certification process that ensures organizations’ solutions are compliant with OGC Standards. It is a universal credential that allows agencies, industry, and academia to better integrate their solutions. OGC Compliance provides confidence that a product will seamlessly integrate with other compliant solutions regardless of the vendor that created them.
Implementers of the GeoPose 1.0 Data Exchange Standard are invited to validate their products using the new test suite in the OGC validator tool. Testing involves submitting an OGC GeoPose 1.0 document produced by the product being assessed. These tests typically take only 5-10 minutes to complete. Once a product has passed the test, the implementer can apply to use the ‘OGC Compliant’ trademark on their product.
OGC GeoPose is a free and open Implementation Standard for exchanging the location and orientation of real or virtual geometric objects (“Poses”) within reference frames anchored to Earth’s surface (“Geo”) or within other astronomical coordinate systems. The Standard specifies a JavaScript Object Notation (JSON) encoding for representing conformant poses.
The GeoPose Standard specifies a number of conformance classes, most being optional. One conformance class is defined for each corresponding set of Structural Data Units (SDUs), where each SDU is linked to the Logical Model as an alias for a class or attribute. The following conformance classes from the OGC GeoPose 1.0 Data Exchange Standard (OGC 21-056r11) are supported by the ETS:
- Basic-YPR (Yaw-Pitch-Roll) SDU JSON
- Basic-Quaternion SDU JSON – Permissive
- Advanced SDU JSON
- Graph SDU JSON
- Chain SDU JSON
- Regular Series SDU JSON
- Stream SDU JSON
Some of the products implementing the GeoPose Standard that have already been certified as OGC Compliant include Away Team Software’s 3D Compass 1, OpenSitePlan’s SolarPose 1.0, and Ethar Inc.’s GeoPose C# Library 1.0. These products apply GeoPose in a wide variety of applications, such as Augmented Reality (AR), mobile Location Based Services (LBS), web APIs, and more. To implement GeoPose in your product, please refer to the OGC GeoPose 1.0 Data Exchange Standard document, freely available from OGC. Additional documentation is also available on the GeoPose website.
More information about the OGC compliance process, and how it can benefit your organization, is available at ogc.org/compliance. Implementers of the OGC GeoPose 1.0 Data Exchange Standard – or other OGC Standards – can validate their products now using the OGC Validator Tool.
The post OGC Compliance Certification now available for the GeoPose 1.0 Data Exchange Standard appeared first on Open Geospatial Consortium.
-
11:25
gvSIG Team: El Proyecto GVSIG, impulsado por la Generalitat Valenciana y la Asociación GVSIG, galardonado como mejor proyecto de software de Europa en los OSOR Awards
sur Planet OSGeoEl Proyecto GVSIG, una iniciativa conjunta de la Generalitat Valenciana y la Asociación GVSIG, ha sido distinguido con el primer premio en los OSOR Awards. Este galardón reconoce los logros excepcionales que ha logrado el proyecto GVSIG a nivel internacional y reflejan el compromiso continuo de la Generalitat Valenciana con la innovación y la colaboración.
Los OSOR Awards han sido organizados por el Observatorio de Software Libre (OSOR) de la Comisión Europea con motivo de su 15 aniversario, y han querido destacar los mejores proyectos impulsados por las administraciones públicas de toda Europa. En este contexto, GVSIG ha destacado entre todas las nominaciones, convirtiéndose en el ganador de los premios, en los que se ha destacado su impacto global y su contribución al desarrollo tecnológico europeo.
Según los organizadores de los premios se recibieron más de cien candidaturas de 23 países. Tras una primera fase, el jurado seleccionó los seis mejores proyectos, donde GVSIG compartía opciones con proyectos de España, Dinamarca, Italia y Francia. Durante el evento organizado en el día de ayer en Bruselas, los seis proyectos tuvieron que defender su candidatura ante el jurado de la Comisión Europea. Finalmente fue anunciado el ganador: el proyecto GVSIG presentado conjuntamente por la Generalitat Valenciana y la Asociación GVSIG.El Proyecto GVSIG es un catálogo de herramientas informáticas para gestión de información geográfica que desde su nacimiento en 2004 ha ido ganado reconocimiento por su versatilidad y utilidad en una variedad de sectores, desde la gestión de recursos naturales hasta la planificación urbana. La Generalitat Valenciana ha desempeñado un papel fundamental tanto en su impulso inicial como en el respaldo continuo al proyecto. La Asociación GVSIG, por su parte, ha desempeñado un papel esencial en la promoción y difusión de esta plataforma a nivel internacional, facilitando la generación y crecimiento de un sector empresarial valenciano especialista en tecnologías de información geográfica. Un ejemplo de colaboración público-privada que ahora obtiene el reconocimiento de Europa.
Este prestigioso galardón no solo reconoce el éxito del Proyecto GVSIG, sino que también destaca el compromiso de la Generalitat Valenciana y la Asociación GVSIG con la promoción de soluciones tecnológicas abiertas y accesibles, fomentando la innovación y la colaboración como motor de desarrollo.
GVSIG da solución a todas las necesidades relacionadas con la geolocalización y la administración del territorio. En la Generalitat Valenciana se multiplican sus usuarios y entre los diversos ejemplos de uso se encuentran desde aplicaciones para ayudar a proteger las praderas fanerógamas, la conocida posidonia, evitando fondear en zonas protegidas a aplicaciones de gestión del registro vitivinícola, pasando por soluciones para fomentar la movilidad sostenible mediante un planificador de rutas más versátil que el propio Google Maps o aplicaciones para analizar los accidentes de tráfico.
Si su uso es transversal en la Generalitat Valenciana, otro tanto ocurre a nivel global. Son innumerables las entidades de todo tipo que utilizan esta tecnología valenciana. En la presentación de los OSOR Awars se citaron varias de ellas. A nivel supranacional entidades como Naciones Unidas la han adoptado como tecnología de referencia en usos tan destacados como facilitar la seguridad de las misiones de los Cascos Azules en sus desplazamientos ante ataques terroristas. A nivel nacional ha sido igualmente adoptada, contando casos tan significativos como el del Gobierno de Uruguay, donde GVSIG es la base tecnológica para todos los proyectos de gestión y difusión de información territorial del país, habiendo servido también para crear un sistema único de direcciones. En Uruguay ha sido tal el nivel de adopción que en la educación secundaria es utilizada para el aprendizaje de las materias relacionadas con la geografía. Su uso a nivel regional y local nos lleva a citar ejemplos como el del Estado de Tocantins en Brasil, donde se ha convertido en la plataforma de gestión geográfica y estadística o el Gobierno de Córdoba en Argentina, donde es utilizada para analizar los datos de criminalidad y seguridad ciudadana. Y donde todavía está más implantada es en las administraciones locales, donde GVSIG está siendo adoptada a gran velocidad por decenas de ayuntamientos de toda España; los últimos han sido los Ayuntamientos de Alicante, Albacete, Cartagena y Talavera de la Reina. Solo en la Comunidad Valenciana el número de ayuntamientos que confían en GVSIG es innumerable: Cullera, Onda, Picassent, L’Eliana, La Pobla de Vallbona, Nàquera, Alzira, Benicarló… e igualmente otras entidades valencianas han adoptado GVSIG como el Consorcio Provincial de Bomberos de Valencia, donde su uso se centra en la gestión de emergencias. Y más allá de la administración pública, cuya relación con el territorio es directa, GVSIG también ha entrado a formar parte de las soluciones informáticas que utilizan empresas que trabajan con información geoposicionada, como es el caso de Repsol que hace un uso extensivo de GVSIG en su división de energías renovables.
El premio otorgado a la Generalitat Valenciana y a la Asociación GVSIG se suma a otros galardones obtenidos anteriormente, de entidades tan diversas como el Diario Expansión o la NASA.
GVSIG es un referente en lo que se ha denominado Infraestructuras de Datos Espaciales, la puesta en marcha de plataformas que permitan a las administraciones públicas compartir su información geográfica mediante estándares.
El impacto del proyecto tiene numerosas derivadas, a nivel académico se imparte formación en GVSIG en universidades de todo el mundo, se publican anualmente cientos de artículos científicos donde se utiliza GVSIG como herramienta de los investigadores, se multiplican las conferencias y eventos donde se presentan todo tipo de proyectos desarrollados con GVSIG.
GVSIG, un proyecto basado en el conocimiento libre, ejemplo de colaboración público-privada que sitúa a Valencia como uno de los indiscutibles polos de referencia en el ámbito de la geomática, la tecnología aplicada a la dimensión geográfica de la información. El premio obtenido ayer es un reconocimiento a todo el camino recorrido.
Recientemente ha sido nominado al Premio Nacional de Ciencias Geográficas, todavía por resolver. Lo que nos han confirmado fuentes de la Asociación gvSIG es que esta candidatura ha recibido más de 150 cartas de apoyo de entidades de todo el mundo, desde el Departamento de Transporte de Washington al Ordnance Survey, la agencia cartográfica del Reino Unido. -
9:24
gvSIG Team: The GVSIG Project, driven by the Generalitat Valenciana and the GVSIG Association, awarded as the best software project in Europe at the OSOR Awards
sur Planet OSGeoThe GVSIG Project, a joint initiative of the Generalitat Valenciana and the GVSIG Association, has been honored with the first prize at the OSOR Awards. This award recognizes the exceptional achievements of the GVSIG project on an international level and reflects the ongoing commitment of the Generalitat Valenciana to innovation and collaboration.
The OSOR Awards were organized by the Observatory of Open Source Software (OSOR) of the European Commission on the occasion of its 15th anniversary, aiming to highlight the best projects driven by public administrations throughout Europe. In this context, GVSIG stood out among all nominations, becoming the winner of the awards, emphasizing its global impact and contribution to European technological development.
According to the award organizers, over a hundred nominations from 23 countries were received. After an initial phase, the jury selected the top six projects, where GVSIG competed alongside projects from Spain, Denmark, Italy, and France. During the event held yesterday in Brussels, the six projects had to defend their candidacy before the European Commission’s jury. Finally, the winner was announced: the GVSIG project jointly presented by the Generalitat Valenciana and the GVSIG Association.
The GVSIG Project is a catalog of computer tools for geographic information management that, since its inception in 2004, has gained recognition for its versatility and usefulness in various sectors, from natural resource management to urban planning. The Generalitat Valenciana has played a fundamental role in both its initial promotion and continuous support for the project. The GVSIG Association, in turn, has played an essential role in promoting and disseminating this platform internationally, facilitating the generation and growth of a Valencian business sector specializing in geographic information technologies. An example of public-private collaboration that now receives recognition from Europe.
This prestigious award not only acknowledges the success of the GVSIG Project but also highlights the commitment of the Generalitat Valenciana and the GVSIG Association to promoting open and accessible technological solutions, fostering innovation and collaboration as drivers of development.
GVSIG addresses all needs related to geolocation and territory management. Its users in the Generalitat Valenciana are multiplying, and among various use cases are applications to help protect seagrass meadows, such as the well-known posidonia, by avoiding anchoring in protected areas, applications for managing the vineyard registry, and solutions to promote sustainable mobility through a route planner more versatile than Google Maps itself, or applications to analyze traffic accidents.
If its use is widespread in the Generalitat Valenciana, the same is true globally. Countless entities of all kinds use this Valencian technology. Several were mentioned in the presentation of the OSOR Awards. At the supranational level, entities like the United Nations have adopted it as a reference technology for prominent uses, such as enhancing the security of Blue Helmets’ missions during their travels in the face of terrorist attacks. Nationally, it has been similarly adopted, with significant cases such as the Government of Uruguay, where GVSIG is the technological basis for all territorial information management and dissemination projects in the country, also serving to create a unique addressing system. In Uruguay, its adoption is so extensive that it is used in secondary education for learning subjects related to geography. Its use at the regional and local levels leads to examples such as the State of Tocantins in Brazil, where it has become the platform for geographic and statistical management, or the Government of Córdoba in Argentina, where it is used to analyze crime and public safety data. It is even more deeply entrenched in local administrations, with GVSIG being rapidly adopted by dozens of municipalities throughout Spain, including the recent additions of the municipalities of Alicante, Albacete, Cartagena, and Talavera de la Reina. In the Valencian Community alone, the number of municipalities trusting GVSIG is countless: Cullera, Onda, Picassent, L’Eliana, La Pobla de Vallbona, Nàquera, Alzira, Benicarló, and many other Valencian entities have also adopted GVSIG, such as the Provincial Fire Consortium of Valencia, where its use focuses on emergency management. Beyond the public administration, whose relationship with the territory is direct, GVSIG has also become part of the computer solutions used by companies working with geopositioned information, such as Repsol, which extensively uses GVSIG in its renewable energy division.
The award granted to the Generalitat Valenciana and the GVSIG Association adds to other accolades previously obtained from diverse entities such as Diario Expansión or NASA.
GVSIG is a reference in what is called Spatial Data Infrastructures, the implementation of platforms that allow public administrations to share their geographic information through standards.
The impact of the project has numerous ramifications; academically, GVSIG training is offered at universities worldwide, hundreds of scientific articles are published annually using GVSIG as a tool by researchers, and conferences and events showcasing various projects developed with GVSIG abound.
GVSIG, a project based on free knowledge, is an example of public-private collaboration that positions Valencia as one of the undisputed reference hubs in the field of geomatics, technology applied to the geographic dimension of information. The award obtained yesterday is recognition for the entire journey taken.
Recently, it has been nominated for the National Geographic Sciences Award, still pending resolution. Sources from the GVSIG Association have confirmed that this candidacy has received more than 150 letters of support from entities worldwide, from the Department of Transportation in Washington to the Ordnance Survey, the cartographic agency of the United Kingdom.
-
8:35
Sensibiliser les jeunes au changement climatique, à la migration et à l'inégalité de genre grâce au serious game CartODD !
sur CartONG (actualités)Notre équipe de jeunes bénévoles et volontaires en service civique a développé le serious game CartODD pour sensibiliser les jeunes aux conséquences du changement climatique et des inégalités de genre au travers des principes de la cartographie participative. Découvrez-en plus sur ce jeu dans ce court article !
-
8:22
America is a Jigsaw
sur Google Maps ManiaIf you want a little Thanksgiving fun today then you should play TripGeo's State Locator game. State Locator is an interactive map of the United States. A map which you have to assemble yourself based on the shapes of the individual states and a few image clues.At the beginning of the game you are presented with a random state. Your job is to place this state onto a blank map of the United
-
20:42
Quelques mots sur le SIR
sur Veille cartographieCet article Quelques mots sur le SIR est apparu en premier sur Veille cartographique 2.0.
Le système d’information routier (SIR) est un SIG dédié au réseau routier. C’est un outil pertinent dans l’usage de traitement des données routières sous différentes formes comme la gestion et la planification des réseaux routiers. Cet outil permet la collecte, le stockage, l’analyse et la diffusion de données sur les infrastructures routières, la circulation, la […]
Cet article Quelques mots sur le SIR est apparu en premier sur Veille cartographique 2.0.
-
15:51
Une nouvelle méthode opérationnelle pour surveiller le dépérissement des chênes en région Centre-Val de Loire
sur Séries temporelles (CESBIO)Les résultats présentés ici sont issus des travaux publiés dans l’article: F. Mouret, D. Morin, H. Martin, M. Planells and C. Vincent-Barbaroux, « Toward an Operational Monitoring of Oak Dieback With Multispectral Satellite Time Series: A Case Study in Centre-Val De Loire Region of France, » in IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, doi: https://doi.org/10.1109/jstars.2023.3332420
Contexte et introductionLe dépérissement forestier se caractérise par une diminution de la vitalité des arbres (déficit foliaire, perte de ramifications et de branches), pouvant aller jusqu’à leur mort. Il est causé par une combinaison de facteurs (sol, climat, ravageur, …) pouvant se succéder et/ou se combiner, provoquant une perte de santé dans des peuplements entiers.
Le changement climatique, un facteur aggravantLe changement climatique a un impact direct sur les forêts. Les principaux facteurs en cause sont l’augmentation des températures et des phénomènes météorologiques extrêmes ainsi qu’une modification des précipitations. Les arbres, plus vulnérables, sont donc plus sensibles aux attaques de ravageurs et aux parasites, eux même favorisés par l’augmentation des températures.
Figure 1: Taux d’arbres morts sur pied par essence (période 2015-2019). Source : IGN ( [https:]] ) Étude de cas : le dépérissement des chênes en Centre-Val de LoireLe chêne sessile et pédonculé, des espèces emblématiques des forêts françaises et particulièrement présentes en région Centre-Val de Loire, sont touchés par une augmentation massive des dépérissements. Cette augmentation fait suite aux sécheresses successives de ces dernières années (en particulier 2018/2019/2020) et devrait continuer dans les décennies à venir. Concernant la vitesse des dépérissements, celui du chêne est un processus lent et diffus contrairement à d’autres espèces (par exemple, les attaques de scolytes sur épicéa), ce qui rend son suivi particulièrement délicat.
Mise en place d’un système de suivi opérationnel basée sur la chaîne de traitement iota2Dans ce contexte, un état des lieux est nécessaire afin d’adapter au mieux les réponses à apporter par la filière forestière. Dans le cadre du projet RECONFORT de l’ARD SYCOMORE, programme de recherche financé par la région Centre-Val de Loire, un système de suivi opérationnel du dépérissement du chêne a donc été mis au point par l’Université d’Orléans et le CESBIO. Ce suivi est réalisé à l’aide d’images satellites Sentinel-2, qui présentent des avantages évident pour ce type d’applications : grande revisite temporelle et résolution spatiale adaptée à des détections fines. La chaîne de traitement se base sur iota2, développée au CESBIO pour la cartographie large échelle à l’aide de séries temporelles d’images satellite. L’utilisation de iota2 permet d’avoir une chaîne de production facilement transférable et/ou utilisable par différents utilisateurs (voir par exemple notre package de production de cartes de dépérissement). Dans le cadre de notre étude, la chaîne iota2 a été adaptée à nos besoins. En particulier, l’étape d’apprentissage du modèle est effectuée en dehors de la chaîne afin de pouvoir utiliser des exemples d’apprentissage provenant de plusieurs années différentes (voir la Section Méthode).
Zone d’étude et données d’apprentissageNotre zone d’étude correspond à la région Centre-Val de Loire et ses environs (voir Figure 2). Les données d’apprentissages sont des placettes (20 arbres) labellisées entre les année 2017 et 2022 à l’aide du protocole DEPERIS, utilisé par le Département de la santé des forêts (DSF) en France. En prenant en compte le taux de mortalité de branches et le manque de ramification, ce protocole associe à un arbre une note allant de A (sain) à F (mort). Une note de D correspond à un arbre dépérissant et traduit une perte de plus de 50% de son houppier. Une placette est considérée dépérissante lorsque plus de 20% des arbres sont dépérissants (c’est la convention adoptée par les forestiers en France). En pratique, nous avons séparé les placettes en 3 catégories en fonction du pourcentage d’arbres dépérissants : saines (moins de 20%), dépérissantes (entre 20 et 50%) et très dépérissantes (+50%). Au total, plus de 2700 placettes de référence ont été utilisées, la moitié ayant été labellisées en 2020 lors d’une enquête nationale menée par le DSF.
Figure 2 : La région d’étude est délimitée par la zone grise. La frontière de la région Centre-Val de Loire et de ses départements est en blanc. Enfin, les points de couleur localisent les données de référence, chaque couleur représentant une année de notation. L’arrière-plan utilise des images S2 sans nuage (Mouret et al., 2023). MéthodeLa chaîne de traitement élaborée pour l’apprentissage d’un modèle de détection du dépérissement sur le chêne est détaillée Figure 3. Une des particularités de notre approche est l’élaboration d’une base d’apprentissage multi-annuel, permettant d’obtenir un modèle de prédiction utilisable sur plusieurs années différentes. Cette approche multi-annuelle est motivée par la volonté de 1) mettre à profit la disponibilité de références terrain acquises sur plusieurs années et 2) continuer les prédictions dans les années à venir sans avoir besoin de recalibrer le modèle appris.
Dans un premier temps, nous avons étudié différents indices spectraux calculés à partir d’images Sentinel-2 afin de repérer ceux qui étaient les mieux adaptés au suivi du dépérissement du chêne. Deux indices différents et complémentaires ont été choisis : un lié au contenu en chlorophylle et l’autre lié au contenu en eau de la végétation analysée. En passant à la production des cartes, nous nous sommes aperçus que les prédictions du modèle appris sur nos données brutes avaient tendance à osciller entre prédictions optimistes (carte avec une majorité de pixels sains) et pessimistes (carte avec plus de pixels dépérissants). Ces oscillations sont causées par des variations phénologiques et un déséquilibre de nos données d’apprentissage: par exemple, les prédictions pour l’année 2020 ayant une grande proportion de données d’apprentissage saines sont plus optimistes que l’année 2021 qui a une proportion de données d’apprentissage dépérissantes plus importante. Pour améliorer la stabilité de notre modèle de prédiction (et ses performances), nous avons augmenté nos données d’apprentissage en utilisant une technique simple et intuitive qui peut se résumer avec les deux règles suivantes : Règle 1: une placette saine l’année Y était très probablement saine les années Y-1 et Y-2, Règle 2 : une placette dépérissante l’année Y va très probablement continuer à dépérir l’année Y+1 et Y+2. En pratique (voir détails dans l’article complet), le modèle de classification utilisé est Random Forest et les données d’entrées sont des séries temporelles sur deux années consécutives des deux indices de végétation issus d’image Sentinel-2 décrit plus haut. Une étape d’équilibrage du jeu d’apprentissage est également effectuée grâce à l’algorithme SMOTE, qui permet de générer des exemples synthétiques dans les classes minoritaires.
Figure 3 : chaîne de traitement proposée (Mouret et al., 2023) RésultatsNos résultats de validation montrent qu’il est possible de détecter avec précision le dépérissement du chêne (overall accuracy = 80 % et balanced accuracy = 79 %). Une validation croisée spatiale a également été effectuée avec un tampon de 10 km pour évaluer les performances du modèle sur des régions qui n’ont jamais été rencontrées pendant l’entraînement (quelque soit les années). Dans ce cas là, une légère diminution des performances a été observée ( ? 5 %). La Figure 4 montre la carte produite pour l’année 2022. Elle met en avant l’hétérogénéité de l’état sanitaire au sein de la région : la Sologne au centre de l’image est par exemple très dépérissante alors que le nord-ouest est peu affecté. N’ayant pas à notre disposition de masque chêne de grande qualité, nous avons décidé d’utiliser le masque feuillus OSO (des études préliminaires nous ont d’ailleurs montré que les cartes produites sont assez pertinentes sur les feuillus en général). En utilisant le masque de chêne « BD forêt V2 (IGN) » , le pourcentage de pixels dépérissants est passé de 15% en 2019 à 25% en 2022 (ces résultats sont à prendre avec précaution et sont probablement pessimistes, puisque le masque est ancien et que nous ne disposons pas d’un masque pour les coupes rases).. Des parcelles homogènes (en rouge) sont visibles et correspondent en général à des coupes. Les Figures 5 et 6 nous permettent d’apprécier plus en détail la finesse spatiale de l’analyse et l’évolution temporelle des dépérissements dans des zones situées dans les forêts domaniales d’Orléans et de Tronçais. En particulier, nous pouvons constater l’évolution parfois très rapide et étendue des dépérissements d’une année à l’autre.
Figure 4 : Cartographie de l’état sanitaire des peuplements feuillus pour l’année 2022. En cyan, orange et en rouge les pixels sains, dépérissants et fortement dépérissants. Le masque de la carte d’occupation du sol OSO 2021 pour les peuplements feuillus a été utilisé.Ces travaux mettent en avant l’intérêt de l’imagerie Sentinel-2 pour le suivi systématique de la santé des forêts. Compte tenu du caractère diffus du phénomène observé, l’utilisation de méthode supervisée (ici Random Forest) s’est avérée nécessaire. Une particularité de notre approche est l’élaboration d’un modèle multi-annuel assez stable pour être utilisé plusieurs années successives. De nombreuses perspectives et pistes d’amélioration sont possibles. En particulier, il serait intéressant d’automatiser l’étape d’augmentation de données afin de remplacer les règles (rigides) appliquées actuellement. Un passage à l’échelle nationale pourrait être envisageable compte tenu de la relative robustesse du modèle pour la prédiction sur plusieurs années et sur des zones en dehors de la région d’apprentissage. Passer à un modèle feuillus et non spécifique au chêne pourrait également permettre de fournir un produit plus généraliste. Enfin, l’ajout d’images Sentinel-1 est une autre piste de recherche intéressante afin d’évaluer si la complémentarité entre les deux satellites est pertinente pour notre cas d’usage.
RemerciementsNous remercions chaleureusement l’équipe iota2 du CESBIO (A. Vincent, H. Touchais, M. Fauvel, J. Inglada, etc.) et le CNES. Nous remercions également les divers participants du projet RECONFORT (liste non exhaustive) : ONF (J. Mollard, A. Jolly, M. Boulogne), CNPF (M. Chartier, J. Rosa), Unisylva (E. Cacot, M. Bastien), DSF (T. Belouard, FX. Saintonge, S. Laubray), INRAe (JB. Féret, S. Perret) et l’EI de Purpan (V. Cheret et JP. Denux). Ce travail a bénéficié d’une aide au titre du programme Ambition Recherche et Développement (ARD) SYCOMORE financé par la région Centre-Val de Loire.
-
15:42
A new operational method for monitoring oak dieback in the Centre-Val de Loire region
sur Séries temporelles (CESBIO)=>The results presented here are based on work published in the journal paper: F. Mouret, D. Morin, H. Martin, M. Planells and C. Vincent-Barbaroux, « Toward an Operational Monitoring of Oak Dieback With Multispectral Satellite Time Series: A Case Study in Centre-Val De Loire Region of France, » in IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, doi: https://doi.org/10.1109/jstars.2023.3332420
IntroductionForest dieback is characterized by a reduction in tree vitality (defoliation, loss of branches and twigs), which may lead to death. It is caused by a combination of factors (soil, climate, pests, etc.) that can occur in sequence and/or in combination, leading to a loss of health in entire stands.
Climate change, an aggravating factorClimate change has a direct impact on forests. The main factors are rising temperatures, extreme weather events and changes in rainfall patterns. Trees become more fragile and therefore more susceptible to pests and parasites, which are themselves favored by rising temperatures.
Sessile and pedunculate oaks, emblematic species of French forests and particularly present in the Centre-Val de Loire region, are affected by a massive increase in dieback. This increase follows the successive droughts of recent years (in particular 2018/2019/2020) and will continue in the coming decades. Unlike dieback in other species (e.g. bark beetle attacks on spruce), oak dieback is a slow and diffuse process that is particularly difficult to monitor.
Implementation of an operational monitoring system based on the iota2 processing chainIn this context, timely mapping of forest health is needed to best tailor the responses of the forest sector. Within the RECONFORT project of ARD SYCOMORE, a research program financed by the Centre-Val de Loire region, an operational monitoring system for oak decline has been developed by the University of Orléans and CESBIO. This monitoring system uses Sentinel-2 satellite imagery, which offers obvious advantages for such an application: high temporal revisit and spatial resolution suitable for precise detection. The processing chain is based on iota2, developed at CESBIO for large-scale mapping with satellite image time series. The use of iota2 means that the production chain is easily transferable and usable by different users (see, for example, our package for the production of dieback maps). In the context of our study, the iota2 chain was adapted to our needs. In particular, the model learning step is performed outside the chain, so that learning examples from several different years can be used (see Methods section).
Study area and reference dataOur study area corresponds to the Centre-Val de Loire region and its surroundings (see Figure 2). The training data are plots (20 trees) labeled between 2017 and 2022 according to the DEPERIS protocol used by the Département de la Santé des Forêts (DSF, Department of Forest Health) in France. Taking into account branch mortality and lack of ramification, this protocol assigns to each tree a grade ranging from A (healthy) to F (dead). A grade of D corresponds to a declining tree with a loss of more than 50% of its crown. A plot is considered to be affected by dieback if more than 20% of the trees are declining (this is the convention used by foresters in France). In practice, we divided the plots into 3 categories according to the percentage of declining trees: healthy (less than 20%), declining (between 20 and 50%) and very declining (+50%). In total, more than 2,700 reference plots were used, half of which were labeled in 2020 during a national survey conducted by the DSF.
Figure 2 : The study region is delimited by the grey area. The boundaries of the Centre-Val de Loire region and its departments are shown in white. Finally, the colored dots locate the reference data, each color representing a year of rating. The background uses cloud-free S2 images (Mouret et al., 2023). MethodThe processing chain developed for oak dieback detection is detailed in Figure 3. A contribution of our approach is the development of a multi-year learning set, which makes it possible to obtain a prediction model that can be used to predict dieback over several years. The main motivations for this multi-year approach were 1) to take advantage of the availability of plot references acquired over several years, and 2) to continue predicting in future years without the need to recalibrate the prediction model.
As a first step, we studied different spectral indices extracted from Sentinel-2 images to identify those most suitable for monitoring oak dieback. Two complementary indices were selected: one related to chlorophyll content and the other to water content of the vegetation. As for the map production, we found that the predictions of the model learned from our raw data tended to oscillate between optimistic predictions (map with a majority of healthy pixels) and pessimistic ones (map with more dieback detected). These oscillations are caused by phenological variations and an imbalance in our training data. For example, predictions for the year 2020, which has a high proportion of healthy training data, are more optimistic than those for the year 2021, which has a higher proportion of declining training data. To improve the stability of our classifier (and its performance), we expanded our training data using a simple and intuitive procedure that can be summarized by the following two rules. Rule 1: a plot that was healthy in year Y was most likely healthy in years Y-1 and Y-2. Rule 2: a plot that was declining in year Y will most likely continue to decline in years Y+1 and Y+2. In practice (see details in the full article), the classification model used is a Random Forest and the input data are time series over two consecutive years of the two vegetation indices derived from the Sentinel-2 image described above. The training set is also balanced using the SMOTE algorithm, which generates synthetic examples in the minority classes.
Figure 3 : proposed processing chain (Mouret et al., 2023) ResultsOur validation results show that it is possible to accurately detect oak dieback (average overall accuracy = 80% and average balanced accuracy = 79%). A spatial cross-validation was also conducted with a buffer of 10km to evaluate the performance of the model on regions that were never encountered during training across all years, resulting in a slight decrease in accuracy ( ? 5%). Figure 4 shows the map produced for the year 2022. It highlights the heterogeneous state of forest health within the region: the Sologne region in the center of the image, for example, is in severe decline, while the northwest is less affected. As we did not have a high quality oak mask, we decided to use the OSO deciduous mask (preliminary studies have shown that the maps produced are quite relevant for deciduous trees in general). Looking at the oak mask « BD forêt V2 (IGN)« , the percentage of pixels in decline has increased from 15% in 2019 to 25% in 2022 (these results should be taken with caution and are probably pessimistic since the mask is old and we do not have a proper mask for clear cuts). Homogeneous plots (in red) are visible and generally correspond to clear-cuts. Figures 5 and 6 allow us to appreciate in more detail the spatial resolution of the analysis and the temporal evolution of the dieback in areas located in the state forests of Orléans and Tronçais. In particular, we can see how quickly and extensively dieback can change from one year to the next.
This work highlights the value of Sentinel-2 imagery for systematic forest health monitoring. Given the diffuse nature of the observed phenomenon, the use of a supervised method (here Random Forest) proved necessary. A particular feature of our approach is the development of a multi-year model that is stable enough to be used for several consecutive years. There are still many opportunities for improvement. In particular, it would be interesting to automate the data expansion stage to replace the (rigid) rules currently used. Mapping at national scale is another perspective, given the relative robustness of the model for prediction over several years and over areas outside the learning region. Switching to a deciduous model, not specific to oak, could also provide a more general production. Finally, the addition of Sentinel-1 imagery could be done to investigate whether the complementarity of the two satellites is relevant to our use case.
AcknowledgementsOur warmest thanks go to the iota2 team at CESBIO (A. Vincent, H. Touchais, M. Fauvel, J. Inglada, etc.) and to CNES. We would also like to thank the various participants in the RECONFORT project (non-exhaustive list): ONF (J. Mollard, A. Jolly, M. Boulogne), CNPF (M. Chartier, J. Rosa), Unisylva (E. Cacot, M. Bastien), DSF (T. Belouard, FX. Saintonge, S. Laubray), INRAe (JB. Féret, S. Perret) and EI de Purpan (V. Cheret and JP. Denux). This work was supported by the Ambition Recherche et Développement (ARD) SYCOMORE program funded by the Centre-Val de Loire region.
-
14:51
Géoromandie 2023 : revivez en vidéo la journée romande de la géoinformation
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa 3e journée de la géo information s’est déroulée le 14 novembre 2023 au SwissTech Convention Center de Lausanne. Organisé par l’ASIT, l’ensemble des cantons romands et la Confédération Suisse, cet événement est consacré aux usages de la géodonnée et des outils de la géomatique et des systèmes d’information géographique (SIG). À chaque édition de Géoromandie apparaissent de nouveaux thèmes de réflexion ou des développements qui émargent et s’imposent comme de futurs standards.
Partenaire presse de l'événement, SIGMAG SIGTV.FR a capté les principales interventions de la journée, notamment les deux sessions consacrées à l'utilisation de l'Intelligence Artificielle et aux jumeaux numériques territoriaux. Chaque intervention est suivie par un temps de questions/réponses qui permet d'apporter des éléments complémentaires. Vous pouvez retrouver sur le site de l'organisateur les différentes présentations. + d'infos :
georomandie.com/
Regardez chaque vidéo en intégralité Plénière d’ouverture
- Vassilis Venizelos, Conseiller d’État du Canton de Vaud
- Camille Gilloots, Chargée de projet au Centre de compétence en durabilité de l'Université de Lausanne
- Stéphane Canalis, Directeur territorial Centre-Est à l'IGN France
Session IA
- Antoine Carreaud, ingénieur topographe, assistant de projet à l’HEIG-VD
- Thiên-Anh Nguyen assistante-doctorante à l’EPFL
- Emmanuel Clivaz (AnalyticBase) et Reto Blumer (Service archéologique cantonal fribourgeois)
Session jumeaux numériques
- Raphaël Bovier, directeur de la diffusion des données swisstopo
- Kilian Morel (HEIG-VD) et Yohann Schatz (HEPIA)
- Léo Ficheux et David Teillet, CSD INGENIEURS
Plénière de conclusion
- Léa Bitard, co-fondatrice de Resilio SA
- Assia Garbinato, Directrice "Digital & Innovation" - Romande Énergie
-
12:54
Aménager le territoire en France : la question du logement (Philippe Mazenc, 14 octobre 2023)
sur Les cafés géographiquesPhilippe Mazenc (cliché de Denis Wolff)
Invité des Cafés géo, Philippe Mazenc a un parcours original. Elève à Sciences-po Bordeaux, il passe le concours des Affaires maritimes et devient administrateur des Affaires maritimes, corps d’officiers de la Marine nationale. Puis il quitte ce corps et part dans la fonction publique civile, d’abord à la direction du Budget, puis au Secrétariat général du ministère de l’Ecologie, puis à la sous-direction de la Législation de l’Habitat, de l’Urbanisme et des Paysages, et fait partie de ceux qui mettent en place la loi ALUR (2014). Il travaille ensuite à la préfecture de l’Ile-de-France puis à celle de Bretagne. Après y avoir passé quelques années, il devient directeur de cabinet adjoint de Christophe Béchu, ministre de la Transition écologique et de la Cohésion des territoires puis, depuis quelques mois, il est directeur général de l’Aménagement, du Logement et de la Nature. Il est donc fort bien placé pour exposer les principaux aspects de la question du logement en France.
1. Situation du logement en France.Le ministère est chapeauté par Christophe Béchu. Autour de lui, il y a plusieurs ministères délégués et secrétariats d’Etat. Naturellement, celui qui concerne en premier lieu Philippe Mazenc est le ministère délégué au Logement, Patrice Vergriete. Il y a aussi la ministre déléguée aux Collectivités territoriales et à la Ruralité (Dominique Faure) qui est sous la double tutelle de Christophe Béchu et Gérald Darmanin, le ministre délégué aux Transports (Clément Beaune) et la secrétaire d’Etat à la Ville (Sabrina Agresti-Roubache). Le premier patron de Philippe Mazenc est Christophe Béchu ; il dépend aussi de Patrice Vergriete, ainsi que de Sarah El Haïry, secrétaire d’Etat à la Biodiversité. Il est également à la disposition de deux autres ministres : Agnès Pannier-Runacher, ministre de la Transition énergétique et Hervé Berville, secrétaire d’Etat à la mer. Cela plante le décor. Philippe Mazenc dépend de sept ministères, sept cabinets, quarante conseillers, pas toujours coordonnés !!!
Quelques chiffres donnent une idée, un ordre de grandeur des problèmes. La politique du logement coûte environ 43 milliards d’euros par an. L’hébergement d’urgence généraliste offre 203 000 places tous les soirs. Il faut compter en plus 100 000 places dans le dispositif général d’asile (DNA) géré par le ministère de l’Intérieur. Tous les soirs en France, il y a donc 300 000 personnes hébergées au titre d’un de ces dispositifs. Il y a enfin le logement social. Mais, malgré les aides publiques sur le logement, les bailleurs sociaux sont des entreprises qui ont besoin de solvabilité. Un choix s’opère à l’entrée dans le logement social (des commissions d’attribution des logements). L’attente moyenne serait de douze ans en Ile-de-France, mais si l’on est fonctionnaire ou que l’on a un CDI, c’est beaucoup moins ; en revanche, si l’on n’a qu’un CDD et/ou que l’on sort d’un hébergement d’urgence…
En 2021, on avait en France un peu plus de 37 millions de logements ordinaires dont 56 % de logements individuels, 82 % de résidences principales (en légère baisse), 10 % de résidences secondaires (en légère hausse), 8 % de logements vacants (soit plus de 3 millions). 1,6 million de personnes logent en logement non ordinaire (logement social, CROUS…). Contrairement aux pays du Nord, la maison individuelle, le fait d’être propriétaire, est un fait marquant en France : 58 % des ménages sont propriétaires de leur résidence principale, 25 % sont locataires dans le parc privé et 18 % locataires dans le parc social (ce qui est relativement important). Il est très difficile de faire des comparaisons internationales sur le logement social car il ne dépend pas toujours de l’Etat et les définitions du logement social varient d’un pays à l’autre.
19 % des ménages déclarent souffrir du froid pendant l’hiver, 10 % sont confrontés au surpeuplement et 9 % ne disposent pas de logement personnel (partage du logement). Les pouvoirs publics ont la volonté de réduire le nombre de personnes à la rue : ainsi, ces dernières années, le nombre de places en hébergement d’urgence dit « généraliste » a sensiblement augmenté (154 000 places en 2019, 203 000 aujourd’hui). Dans ce type d’hébergement, 52 % des personnes sont en situation irrégulière (absence de titre de séjour) ; le plus souvent, elles ne peuvent pas entrer dans le dispositif national d’asile (la plupart des demandes sont rejetées). Ce chiffre est en hausse et va continuer à croître.
Il est souvent argué qu’il faudrait construire 500 000 logements neufs par an, dont 150 000 logements sociaux. En fait, personne n’en sait rien car il est difficile de mesurer le besoin en logements. Cela supposerait des études territorialisées actuellement non réalisées. En 2023, on va péniblement construire 90 000 logements sociaux ; depuis un an et demi, la réduction des constructions est particulièrement forte dans les zones tendues.
Plusieurs programmes aident les particuliers et la collectivité. Les APL (aides personnelles au logement) et les AL (aides au logement) représentent le plus important : 13,3 milliards d’euros avec peu de marges de manœuvre car il s’agit d’une dépense de guichet pour aider les particuliers. Le programme Eau et biodiversité est en nette augmentation : 274,5 millions d’euros cette année et on espère 414 millions d’euros l’an prochain. Pour l’eau, il s’agit surtout des agences de l’eau : l’eau ne vient jamais du robinet (elle vient d’un fleuve, d’une nappe phréatique, de l’eau de surface… Pour Paris, voir ici). Cela représente environ 2,3 milliards d’euros. Il y a aussi le Fonds vert, lancé en 2022, doté de 2 milliards d’euros en 2023 (en 2024 augmentation prévue de 500 millions d’euros qui serviront à la rénovation des écoles) et déconcentré (géré par les préfets), et le programme Urbanisme, territoires et amélioration de l’habitat doté de 800 millions d’euros. Enfin, les bailleurs sociaux sont soumis à une contribution qui alimente le FNAP (Fonds national des aides à la pierre) et qui représente 400 millions d’euros.
Philippe Mazenc présente ensuite quelques documents. Le premier, sur l’exode urbain après le Covid, remet en cause certaines idées reçues (par exemple : beaucoup de Parisiens ont acheté une maison sur le golfe du Morbihan). La migration de Paris vers la province s’est un peu accélérée mais n’est pas considérable, les déménagements se sont surtout faits de grande ville à grande ville et on continue à avoir une extension de la périurbanisation. Le second est le fruit d’un partenariat du ministère avec l’IGN (Institut géographique national) ; il porte notamment sur l’artificialisation des sols
2. La transition écologique.Il convient d’abord de mesurer la hauteur du mur devant nous. Les bâtiments représentent en France environ 17 % des émissions de gaz à effet de serre. Il y a quelques années, dans le cadre de la Stratégie Nationale Bas-Carbone (SNBC), on avait voté un premier budget carbone : entre 2015 et 2018, on devait réduire les émissions. En fait elles ont augmenté de 11 % entre ces deux dates. Le Green Deal (= Pacte vert) a été lancé par la Commission européenne en 2020 ; sa déclinaison en France s’est traduite par est la création du secrétariat général à la Planification Ecologique (SGPE), service du Premier Ministre dirigé par Antoine Pellion ; il a pour but de coordonner les efforts de toutes les administrations de l’Etat, en particulier pour réduire l’émission de gaz à effet de serre. C’est ce secrétariat qui, après une large concertation, fixe des objectifs de réduction. Dans le secteur du bâtiment, l’objectif est de réduire de 61 % les émissions de gaz à effet de serre en 2030, par rapport aux émissions de 2019 (il faut réduire les émissions de ces gaz pas uniquement dans la construction, mais de la conception au recyclage). C’est un chantier énorme, et qui va encore être renforcé, car on sait que des directives européennes vont sortir, notamment sur la performance énergétique des bâtiments. On travaille beaucoup avec la direction des Affaires européennes et internationales (DAEI). Cela dit, il n’est pas certain qu’après les élections européennes de juin 2024, la nouvelle majorité au sein du Parlement européen soit aussi favorable à la transition écologique que la majorité actuelle : les élections européennes auront des conséquences considérables sur notre vie quotidienne en France car on est sur des directives européennes et des financements européens sur la transition écologique.
Voyons maintenant les enjeux. Compte tenu des objectifs de réduction de l’artificialisation des sols (la loi Climat et résilience de 2021 fixe un objectif de zéro artificialisation nette (ZAN) des sols en France à l’horizon 2050) et des projections démographiques, on estime aujourd’hui que 80 % de la ville de 2050 est déjà construite. L’enjeu est donc au moins autant sur la rénovation que sur la construction neuve. Or la rénovation coûte aussi cher (voire plus cher) que la construction et est souvent plus compliquée. L’enjeu est la massification de la rénovation énergétique. Or le secteur du bâtiment non résidentiel est essentiellement composé de toutes petites entreprises qui ne sont pas en mesure d’effectuer une rénovation globale. D’une manière plus générale, changer une chaudière n’est guère compliqué ; faire une rénovation globale d’un logement l’est beaucoup plus.
Les dispositifs d’aide sont nombreux, à commencer par MaPrimeRénov’ qui représente 6 milliards d’euros cette année, 4 milliards en 2024. Les gens se demandent parfois pourquoi l’Etat finance la rénovation des chaudières. Il faut certes favoriser la rénovation globale, mais on ne peut se passer de la simple rénovation. On essaie donc de réduire le reste à charge, notamment pour les personnes modestes. Le but est de réduire nos émissions de gaz à effet de serre. L’éco-PTZ (éco-prêt à taux zéro) est un dispositif pour la rénovation des logements : c’est un crédit d’impôts qui peut couvrir jusqu’à 30 % du coût de la rénovation pour les petites et moyennes entreprises. Par ailleurs, on estime que, pour la rénovation des logements sociaux, il faudrait entre 4 et 9 milliards d’euros par an (si on veut réduire de 60 % les émissions de gaz à effet de serre d’ici 2030). Pour cela, l’Etat apporte 400 millions (c’est certes une somme, mais est-elle à la hauteur de l’enjeu ?). Enfin, on applique la norme RE 2020 (RE = Réglementation environnementale) pour la construction et la rénovation des bâtiments. Elle augmente le coût de construction de 3 à 4 %, et va augmenter avec la mise en œuvre de toutes les mesures pour atteindre 10 % dans quelques années. Cela s’explique par l’usage de meilleurs matériaux, par l’isolation et, de manière générale, par la performance énergétique. Philippe Mazenc est sensible au problème des surcoûts mais rappelle que ceux-ci doivent se mesurer par rapport à la totalité du cycle de vie du bâtiment… ce qui n’est pas le cas aujourd’hui. Et a-t-on vraiment le choix en matière de transition écologique ?
3. Une approche transversale.L’écueil serait d’examiner les enjeux et la politique du logement, d’hébergement et d’aménagement au travers du seul prisme de la transition écologique. La clé est d’avoir cette approche transversale. Le SGPE (secrétariat général à la Planification écologique) a d’ailleurs adopté cette approche transversale. La transition écologique ne doit pas être vécue comme seulement descendante et uniquement axée sur la réduction des gaz à effet de serre. Des réunions vont être organisées sous l’égide des Présidents de conseils régionaux et des préfets de région : ces sortes de COP (comme la COP 21) vont être organisées dans les treize régions métropolitaines d’ici la fin de l’année. Cela paraît ambitieux. L’idée est d’abord de poser un diagnostic puis d’avoir des plans régionaux de planification écologique d’ici à l’été 2024. Les COP vont avoir une approche transversale : cela ne concernera pas que le bâtiment mais aussi les transports, les universités… On devrait aborder des sujets très importants : diminution très forte des constructions, augmentation des taux pour les particuliers, mais aussi pour les constructeurs, et notamment pour les bailleurs sociaux. En effet, le logement social est en partie financé par des prêts bonifiés de la Caisse des dépôts, fonds qui proviennent essentiellement de la collecte du livret A. Or, si les épargnants apprécient l’augmentation du taux d’intérêt de ce livret, celle-ci provoque aussi une augmentation du coût à la construction pour les bailleurs sociaux.
Par ailleurs, il faut s’interroger sur les effets des résidences secondaires et de la location saisonnière, surtout dans les zones très tendues où il y a un vrai problème d’accès à la résidence principale. On est dans la transversalité car cela pose le problème de l’accès au foncier et de l’accès au logement. Des groupes de travail ont été lancés pour lutter contre l’attrition des logements en zone touristique. Il y aura sans doute une proposition de loi d’une députée du Finistère et d’un de l’Eure à ce sujet. C’est un phénomène qu’on a du mal à quantifier. Les logements meublés non professionnels (LMNP) sont imposés à différents taux, mais meilleurs que la location nue. Il faudrait harmoniser les taux d’imposition (mais les parlementaires ont du mal à trouver un point d’accord) : est-il normal qu’on bénéficie d’un abattement fiscal plus important quand on vit en zone touristique qu’au centre de Paris ?). Cela dit, il faut nuancer. Dans le Finistère, la majorité des résidences secondaires sont le fait de mutations ou d’achats infrarégionaux, voire infra-départementaux : plus de 50 % des résidences secondaires appartiennent à des gens qui habitent soit dans le Finistère, soit en Bretagne. Le mantra consistant à dire : ce sont de riches Parisiens qui achètent leurs résidences sur le golfe du Morbihan est faux ! Cela dit, ça ne résout pas le problème…
Philippe Mazenc rappelle qu’il a été recruté au cabinet de Christophe Béchu pour s’occuper de la décentralisation des politiques du logement. Il y a eu une évolution entre 2012 et 2023. En 2012, il y avait à l’Assemblée nationale des députés-maires, présidents des offices publics de l’habitat, donc au fait des problèmes liés à l’habitat. Or, avec la fin du cumul des mandats, les députés ne sont en général plus spécialistes du logement. Et la question du logement est devenue complexe en raison de la réglementation et notamment du grand nombre de lois : code de la construction, code de l’action sociale et des familles, loi de 1989, loi de 1965 sur la copropriété privée… Sans prendre position sur la réforme de la fin de cumul des mandats, Philippe Mazenc estime que n’avoir que peu de spécialistes au Parlement pose problème. Aujourd’hui, on a une réglementation nationale avec un zonage de tout le territoire en A, A bis, B1, B2 ou C : un décret va dire que Plogoff, dans le Finistère, est en zone C, que Rennes est en B1 … Ce zonage détermine l’éventuel encadrement des loyers, les aides et la fiscalité : on a ainsi le droit de faire du Pinel (= dispositif d’investissement locatif : réduction d’impôt sur le prix d’achat d’un logement mis en location) ou du logement locatif intermédiaire en A ou en B1 mais pas en B2 ou en C. Tout cela est décidé depuis Paris… L’idée est de faire sauter ces zonages et de responsabiliser les collectivités en fixant seulement quelques critères objectifs de tension. Les maires sont très mobilisés sur cette question, mais il n’existe pas à ce jour de consensus interministériel.
Par ailleurs, on subit les conséquences de la suppression de la taxe d’habitation. Quel est aujourd’hui l’intérêt pour un maire d’avoir de nouveaux habitants ? Cela induit des coûts : services supplémentaires : crèches, écoles, transports, réseaux d’assainissement… Comment fait-on pour inciter les maires à accueillir de nouveaux habitants ? La fiscalité locale serait à repenser pour inciter les maires à construire de nouveaux logements.
Aujourd’hui, l’Etat intériorise toutes les contraintes sur le logement. Il est souvent très critiqué, mais que peut-il faire ? De plus, un certain nombre de maires ne font pas grand-chose pour construire des logements. D’ailleurs, les collectivités comme les associations d’élus ne demandent pas aujourd’hui de nouvelles mesures de décentralisation… sauf pour récupérer l’argent de MaPrimeRénov’ (4 milliards d’euros) et pour bénéficier des aides à la pierre (800 millions d’euros). Or ce n’est pas de la décentralisation ! Aujourd’hui le préfet dispose d’un contingent-Etat de 25 % des attributions de logements sociaux ; un ménage sur quatre présenté en commission d’affectation de logement chez un bailleur social se voit attribuer un logement par le préfet. Il s’agit de ménages fragiles, par exemple des DALO (= Droit au logement opposable). Si on est reconnu ménage prioritaire au titre du DALO, l’Etat a six mois pour vous proposer un logement ; sinon, on peut faire un recours contre l’Etat qui est alors condamné à payer des astreintes qu’il verse à un fonds appelé AVDL (Accès vers et dans le logement), qui sert à reloger les ménages. L’Etat fait très attention dans les zones tendues, notamment en Ile-de-France. En Bretagne, alors qu’il y a pourtant des enjeux, il a abandonné cette prérogative depuis longtemps aux bailleurs sociaux. Derrière tous ces problèmes, il y a une question de responsabilisation de tous les échelons de collectivités et de l’Etat.
Le débat est très complexe. Aujourd’hui, il y a un enjeu autour de la mixité sociale dans les quartiers. Cela fait partie de réflexions en vue de futures dispositions législatives. Il y a quelques années, un certain nombre de décrets ont été pris contre l’avis du gouvernement notamment sur les résidences à enjeu de mixité sociale, où un bailleur peut s’opposer à l’entrée de telle ou telle famille. Ce sont des sujets hypersensibles. Il y a une proposition de loi déjà citée sur l’attrition des logements en zone touristique, il va y avoir un projet de loi sur les copropriétés dégradées. On ne peut pas dire qu’il y ait un manque de financement de l’Etat dans les quartiers où s’exerce la politique de la ville (cf. chiffres de l’ANRU, Agence nationale pour la rénovation urbaine). Face aux copropriétés dégradées, l’Etat met en place des prêts bancaires à taux zéro mais il est difficile de financer une copropriété dont les ménages sont très peu solvables. Peut-on monter des prêts collectifs ? Peut-on renforcer des dispositions sur les expropriations et les préemptions, notamment dans les parties communes ? Un projet de loi devrait sortir à l’automne. Enfin, Philippe Mazenc espère que le projet de loi sur la décentralisation sortira au premier semestre 2024.
Il y a quand même eu beaucoup de réalisations. L’objectif est de décentraliser et de déconcentrer beaucoup plus. On a mis en place depuis deux ans le fonds vert (2 milliards d’euros jusqu’à cette année et on va passer à 2,5 l’an prochain). En matière de décentralisation et de déconcentration, la clé est l’approche globale. Et il faut surtout être proche du terrain.
4. Questions.Question. On parle de transition énergétique punitive. De quoi s’agit-il ? Il faut faire cette transition énergétique mais on recule souvent la mise en application des mesures prises.
Réponse. Philippe Mazenc acquiesce à ce dernier point. Il ne sait pas ce qu’est la transition écologique punitive. Il était la veille à Lorient, à l’Assemblée générale de l’Association nationale des élus du littoral (ANEL). On y a abordé de nombreux sujets dont un qui va encore mobiliser les réflexions : la gestion du trait de côte (pouvoir étatique). On ne va pas décréter la fin de la montée du niveau de l’eau et de l’érosion ! Et l’Etat ne pourra pas indemniser tous les propriétaires. Par ailleurs, selon le ZAN, voté dans la loi Climat et Résilience de 2021, d’ici à 2031, il faudra consommer deux fois moins d’espaces naturels, agricoles et forestiers par rapport à la période entre 2011 et 2021 (grosso modo, on a consommé 244 000 hectares pendant cette période). Cela dit, face à la fronde des maires, une dernière loi, votée en 2023, prévoit des concessions. Selon Laurent Wauquiez, il s’agit d’écologie punitive ; donc il voudrait retirer « sa » région Auvergne-Rhône-Alpes du ZAN. Mais il ne peut naturellement pas sortir d’une disposition législative.Question. Dans l’habitat collectif privé (les copropriétés), les DPE (diagnostics de performance énergétique) apparaissent comme compliqués et, quand on veut faire des travaux, c’est très long (exemple : sept ou huit ans pour changer le chauffage !) en raison d’une réglementation très rigide. Est-il envisagé de faire quelque chose afin que les travaux puissent être réalisés plus rapidement ?
Réponse. Dans le cas d’un DPE, il faut considérer la nature des murs et pas uniquement le chauffage… Et il y a le problème des règles de majorité en copropriété qui font perdre un temps fou. Au ministère du Logement, on voudrait régler ces problèmes collectifs, notamment en abaissant les seuils de majorité et peut-être en en diminuant le nombre ; mais le ministère de la Justice est extrêmement attentif au droit de propriété ainsi que la section du Conseil d’Etat qui s’occupe de ces questions.Question. Quelle part représente l’habitat collectif privé ?
Réponse. C’est la part la plus importante, surtout en zone urbaine. Il y a un vrai sujet sur les copropriétés, notamment sur la rénovation énergétique. Philippe Mazenc est favorable aux pompes à chaleur (PAC), mais on n’en mettra jamais une à Paris en raison des nuisances sonores ! Dans certaines villes, il y a un réseau de chaleur urbain (RCU, communément appelé chauffage urbain) ; ce serait à développer mais on ne peut pas en mettre partout. Ainsi, à Lamballe où l’une des plus grandes coopératives de Bretagne, la Cooperl, a monté une usine de méthanisation qui alimente le réseau de chauffage urbain de la ville qui se chauffe donc à la fiente de porc. La géothermie a fait beaucoup de progrès mais on ne peut pas en profiter partout ; il y a derrière un problème de gestion d’eau.Question. Y a-t-il une réflexion sur la récupération des eaux de pluie ?
Réponse. Oui, il y a une réflexion mais débouchera-t-elle ? Aujourd’hui, un préfet n’a pas la possibilité règlementaire de s’opposer à un lotissement qui ne serait pas raccordé à un réseau d’eau, car le code de l’urbanisme actuel ne le permet pas . Aujourd’hui, même si on doit étendre un réseau d’eau, ce n’est pas un motif de refus du PLU (Plan local d’urbanisme) ou d’un permis de construire. Par ailleurs, on mesure mal les effets de la récupération de l’eau de pluie sur les nappes phréatiques et le cycle de l’eau, si elle était pratiquée à haute dose. Enfin, il faut aussi considérer la réutilisation des eaux usées. La responsabilité politique est du ressort du ministère de l’Ecologie… sauf que, si le ministère de l’Ecologie est responsable de l’eau sortant des stations d’épuration, il ne l’est pas de la réglementation dans le bâtiment, de la réutilisation dans l’alimentaire… Dès qu’on parle d’agro-alimentaire, cela relève du ministère de l’Agriculture. Le ministère de l’Ecologie a la responsabilité politique autour de cette question de l’eau mais n’a pas le pouvoir règlementaire. Dès qu’on touche au bâtiment, cela relève du ministère de la Santé. Il faudrait pouvoir garantir qu’une eau usée réutilisée ou l’eau de pluie a une qualité absolument identique à une eau « normale », y compris pour un usage non domestique (lavage de surface ou toilettes). Et, sauf à séparer les réseaux d’eau, jamais un bailleur social ne va prendre le risque d’utiliser de l’eau qui ne serait pas complètement conforme, même pour nettoyer les sols ! Si on a une obligation en termes de qualité de l’eau à la sortie, cela signifie qu’on ne réutilisera pas les eaux usées. Il faudrait seulement qu’il y ait une obligation de moyens. Aujourd’hui, on réutilise 1 % de l’eau en France, 7 à 8 % en Espagne et en Italie (réglementation plus souple) et 40 % en Israël.Question sur le mouvement des gilets jaunes.
Réponse. Le mouvement semble autant lié au logement qu’à la mobilité. La poursuite de la périurbanisation est très inquiétante. Elle induit des surcoûts, notamment en matière de transports… Tant que la périurbanisation continuera, on aura ces problèmes de mobilité et de logement. La structuration de la politique urbaine ne produit d’effet qu’à quinze ou vingt ans. Le problème de l’accès au logement pour les jeunes a pris beaucoup d’importance depuis deux ou trois ans. On a eu une conjonction de facteurs qui n’aident pas : augmentation du coût et manque de disponibilité du foncier, augmentation des taux, pouvoir d’achat qui n’a pas suivi l’inflation…Question. Le conseil régional d’Ile-de-France parlait de construire la ville sur la ville, ce qui pose la question de la hauteur des bâtiments. Quelle est la réflexion à ce sujet ?
Réponse. Si on souhaite une non-artificialisation des sols, il faut construire la ville sur la ville. C’est l’objectif, mais il n’est pas entre les mains de l’Etat car ce sont les maires qui délivrent les permis de construire. Or les maires n’ont pas d’incitation financière (ils ne perçoivent plus la taxe d’habitation) et ils ont une opposition sociale à la densification de plus en plus forte. L’Etat ne délivre des permis de construire que dans des cas très rares.Question. Qu’est-il fait pour la revitalisation des centres des villes petites et moyennes et pour freiner l’étalement pavillonnaire ?
Réponse. Pas mal de choses ont été faites, essentiellement pour les petites villes et les moyennes (de moins de 20 000 habitants). Ce sont toujours des opérations mixtes : on subventionne des opérations à la fois pour la revitalisation du commerce et aussi du logement. Il y a aussi des dispositifs fiscaux dans l’ancien : la loi Malraux (pour la réhabilitation) et la loi Denormandie. Il y a aussi des politiques publiques, notamment pour les villes en déprise. Pour les villes un peu plus grandes, tout ne va pas bien : il y a la question des permis de construire délivrés pour des centres commerciaux en périurbain malgré une réglementation qui essayait de les freiner. Aujourd’hui, les centres commerciaux périurbains sont en difficulté et commencent à appeler l’Etat à l’aide ; est-on dans une période de bascule ? Et il y a tout le débat autour de la France moche (cette formulation date de 2010) mais, que faire ?Question. Avec la décentralisation, que peut-on attendre de l’Etat demain ? Quelle sera sa place ?
Réponse. L’Etat, aujourd’hui, porte seul l’ensemble de la contrainte, alors qu’il ne détient pas tous les leviers : il faudrait rapprocher la responsabilité de tous les acteurs. Il faut exclure l’hébergement d’urgence de la décentralisation. A côté, l’Etat a des obligations et des enjeux de solidarité nationale. Ainsi, la loi SRU (Solidarité et renouvellement urbain) oblige les communes à disposer de 20 ou 25 % de logements sociaux (article 55) ; il est hors de question que l’Etat se désengage.Question à propos du rejet du fait régional dans les régions fusionnées.
Réponse. Dans une région non fusionnée comme la Bretagne, avec seulement quatre départements, il y a une cohérence régionale et une cohérence de l’Etat régional. Mais qu’en est-il dans le Grand Est ou en région Nouvelle Aquitaine ? Et, paradoxalement, non seulement la réforme n’a pas renforcé le pouvoir des régions mais elle a au contraire considérablement affaibli le pouvoir régional. Sur une région à quatorze départements, où est la cohérence de l’action de l’Etat ? Or 80 % des politiques non régaliennes de l’Etat se situent à l’échelle régionale. Et, si on n’est pas capable s’assurer la coordination à l’intérieur de régions composées de tant de départements, cela pose un grave problème de cohérence de politique de l’Etat.Compte rendu rédigé par Denis Wolff, novembre 2023.
-
12:12
Le poids (physique) des Mégalopoles
sur Veille cartographieCet article Le poids (physique) des Mégalopoles est apparu en premier sur Veille cartographique 2.0.
Introduction : L’urbanisation rapide dans des régions comme New York et la Baie de San Francisco a conduit à une modification significative du paysage, pas seulement au-dessus, mais aussi en dessous de la surface de la terre. Les structures massives et la concentration des bâtiments dans ces régions urbaines posent des questions quant à leur […]
Cet article Le poids (physique) des Mégalopoles est apparu en premier sur Veille cartographique 2.0.
-
10:18
gvSIG Team: Program of 19th International gvSIG Conference (online) is now available, and registration (free of charge) period is open
sur Planet OSGeoFree registration period for the 19th International gvSIG Conference is now open. The Conference is an online event, and it will be held from November 29th to 30th.
The full program of the Conference is available on the event website, where registration to the different sessions can be done.
The webinar platform allows to connect to the webinars from any operating system, and in case you can’t follow them, you will be able to watch them at the gvSIG Youtube channel later.
In reference to workshops, all the information about cartography and gvSIG version to install will be published at the gvSIG blog before the conference.
Don’t miss it!
-
10:09
gvSIG Team: Programa e inscripciones gratuitas abiertas para las 19as Jornadas Internacionales gvSIG (online)
sur Planet OSGeoYa están abiertas las inscripciones gratuitas para las 19as Jornadas Internacionales gvSIG, que se celebrarán de forma online los días 29 y 30 de noviembre.
El programa completo está disponible en la página web del evento, desde donde se puede realizar la inscripción a cada una de las ponencias.
La plataforma de webinar permite conectarse desde cualquier sistema operativo, y en caso de no poder seguirlos en directo se podrán ver a posteriori, ya que se publicarán en el canal de Youtube del proyecto al igual que en años anteriores.Respecto a los talleres, en el blog de gvSIG informaremos sobre la cartografía a descargar para seguirlos, así como de la versión de gvSIG a instalar.
-
9:32
Where Your Food Comes From
sur Google Maps ManiaWhen you begin to prepare your Thanksgiving dinner you may wonder about where all that food comes from. Well a new interactive map from CU Boulder and The Plotline, can help show you where. The Food Twin shows you where food is grown and consumed in America and how crops travel from producers to consumers.Click on your county on the map and you will see colored dots flowing into your
-
15:52
SIG Libre Uruguay: Las TIG ante los nuevos retos globales en un contexto cambiante. Actas de la XVIII CONFIBSIG 2023. Cáceres, 16-19 de mayo de 2023
sur Planet OSGeoDescarga de la publicación aquí
-
14:57
Alors, plutôt train ou voiture ? Une carte pour vous aider à choisir
sur Veille cartographieCet article Alors, plutôt train ou voiture ? Une carte pour vous aider à choisir est apparu en premier sur Veille cartographique 2.0.
52% des trajets étudiés sont plus rapides à parcourir en train plutôt qu’en voiture. C’est le résultat d’une étude publiée par Les Echos en septembre 2022. La méthodologie En utilisant les données de la SNCF, 25 villes de départ situées hors de l’Ile-de-France ont été étudiées. Elles correspondent aux gares les plus fréquentées et 50 […]
Cet article Alors, plutôt train ou voiture ? Une carte pour vous aider à choisir est apparu en premier sur Veille cartographique 2.0.
-
8:00
Observatoire cartographique des données territoriales de Vallée Sud - Grand Paris
sur Makina CorpusNouveautés 2023 ?Vallée Sud Grand Paris a fait appel à Makina Corpus pour une mise à jour de son observatoire.
-
7:37
America's Changing Plant Hardiness Zones
sur Google Maps ManiaAround half of Americans have been moved into a new plant hardiness zone. If you check out the USDA's new Plant Hardiness Zone Map you have a very good chance of discovering that your home is now in a new hardiness zone.In recent years, like many gardeners, I've discovered that I can successfully sow plants a few weeks before their recommended earliest dates and that I can continue
-
17:20
Développeur-Développeuse Front-end
sur Makina CorpusContrat : CDI
Lieu : Toulouse
-
17:10
L’apport de la télédétection lors des séismes en Turquie
sur Veille cartographieCet article L’apport de la télédétection lors des séismes en Turquie est apparu en premier sur Veille cartographique 2.0.
Dans la nuit du dimanche 5 au lundi 6 février, des secousses de magnitude 7,8 ont été enregistrées à la frontière turco-syrienne. Des ingénieurs du Service régional de traitement d’image et de télédétection (Sertit) à Strasbourg ont cartographié les dégâts causés par le séisme. L’objectif est de doter les autorités, d’outils précis pour prendre des […]
Cet article L’apport de la télédétection lors des séismes en Turquie est apparu en premier sur Veille cartographique 2.0.
-
16:46
Most affected people and areas :
sur Veille cartographieCet article Most affected people and areas : est apparu en premier sur Veille cartographique 2.0.
Les pays du Sud, qui sont généralement des pays en développement, sont particulièrement vulnérables aux impacts du réchauffement climatique. Ces pays ont des économies fragiles et des infrastructures souvent insuffisantes voire inadaptées pour faire face aux événements météorologiques extrêmes qui deviennent de plus en plus fréquents et intenses en raison du changement climatique. Les impacts […]
Cet article Most affected people and areas : est apparu en premier sur Veille cartographique 2.0.
-
16:45
L’adaptation de Paris aux conséquences du dérèglement climatique :
sur Veille cartographieCet article L’adaptation de Paris aux conséquences du dérèglement climatique : est apparu en premier sur Veille cartographique 2.0.
Outre les mesures de végétalisation des espaces publics tel que le projet de végétalisation de la place du Louvre qui induirait la suppression des projets d’installation de restaurant de Luxe, la ville de Paris tente d’apporter des solutions aux conséquences du dérèglement climatique. · Plan Climat de la Ville de Paris (PCVP) : Adopté en […]
Cet article L’adaptation de Paris aux conséquences du dérèglement climatique : est apparu en premier sur Veille cartographique 2.0.
-
14:00
Découvrez Alpes rando, la refonte de la plateforme unifiée de sentiers de randonnées dans les Alpes
sur Makina CorpusUn projet de long court...Les Hautes Alpes, renommées pour leurs paysages grandioses et leurs innombrables possibilités de randonnées, sont depuis longtemps un lieu privilégié pour les amoureux de la nature et les amateurs de plein air.
-
12:13
Surging Sea: la carte interactive pour simuler la montée des eaux
sur Veille cartographieCet article Surging Sea: la carte interactive pour simuler la montée des eaux est apparu en premier sur Veille cartographique 2.0.
La montée des eaux, amplifiée par le changement climatique, représente une menace croissante pour les zones côtières à travers le monde. Afin de sensibiliser le public à ce phénomène, le programme Central Climate a mis à disposition une carte interactive qui permet de simuler la montée des eaux dans différentes régions du monde. C’est un […]
Cet article Surging Sea: la carte interactive pour simuler la montée des eaux est apparu en premier sur Veille cartographique 2.0.
-
10:26
Alternatives to Google Maps Street View
sur Google Maps ManiaPanoramax is an open-source photo-mapping platform that allows users to share and exploit street level photography. It is a free alternative to proprietary services, such as Google Maps Street View, providing a freely available resource for sharing and mapping field photos. The Panoramax platform allows anyone to capture street level photographs and contribute them to the Panoramax database and
-
8:30
CybergeoNetworks 2: una robusta aplicación de aprendizaje para publicaciones científicas
sur CybergeoCon motivo del coloquio desarrollado el 26 de mayo del 2016 para celebrar el 20º aniversario de la revista Cybergeo, cuatro jóvenes investigadores unieron fuerzas para desarrollar una aplicación altamente pionera para el análisis geográfico, estadístico y semántico de datos extraídos del conjunto de datos de Cybergeo (texto completo y metadatos) y además datos en línea asociados a la revista entre 1996 y 2015 (motores de búsqueda, Tweets, citas y publicaciones), naciendo así el sitio CybergeoNetworks. Fieles a nuestra política de publicación a acceso abierto, tal aplicación permite localizar visual y estadísticamente datos referentes a los autores de los artículos de la revista, países estudiados y citados, o incluso quien estudia qué. Compuesto por cuatro módulos interactivos, la información proporcionada por sus análisis es remarcable. Por ejemplo, es posible agrupar países por redes semánticas, visualizar y asociar a estos según la procedencia de los autores (información que Lode...
-
8:30
CybergeoNetworks 2: a deep learning application for scientific publishing
sur CybergeoOn the occasion of the conference held on May 26, 2016 to celebrate the 20th anniversary of Cybergeo magazine, four young researchers joined forces to develop a pioneering application for geographic, statistical and semantic analysis of data extracted from the Cybergeo corpus (full text and metadata), as well as online data associated with the magazine between 1996 and 2015 (search engines, tweets, citations and publications). The CybergeoNetworks website was born. In keeping with our open-access publishing policy, it provides visual and statistical access to data on the location of the authors of the journal's articles, the countries studied and cited, and who is studying whom? Comprising four interactive modules, the information provided by its analyses is impressive. For example, it is possible to group countries by semantic networks, to visualize the states to which authors are affiliated (information that Lodel, OpenEdition's publishing software, does not provide in its current...
-
8:30
CybergeoNetworks 2 : une application d’apprentissage profond au service de la publication scientifique
sur CybergeoA l’occasion du colloque du 26 mai 2016 pour la célébration des 20 ans de la revue Cybergeo, quatre jeunes chercheurs se sont associés pour développer une application tout à fait pionnière d’analyses géographique, statistique et sémantique des données extraites du corpus de Cybergeo (plein texte et métadonnées), mais aussi des données en ligne associées à la revue entre 1996 et 2015 (moteurs de recherche, tweets, citations et publications). Le site CybergeoNetworks, est né. Fidèle à notre politique de publication en accès ouvert, il permet de situer visuellement et statistiquement des données sur la localisation des auteurs des articles de la revue, les pays étudiés et cités, ou encore qui étudie qui ? Composée de quatre modules interactifs, l’information fournie par ses analyses est impressionnante. A titre d’exemple, il est possible de regrouper des pays par réseaux sémantiques, de visualiser les États auxquels sont affiliés les auteurs (une information que Lodel, le logiciel d’éd...
-
8:30
Philipp Ther, 2023, How the West Lost the Peace: The Great Transformation Since the Cold War, Polity, 304 p.
sur CybergeoÀ toutes les époques, il y eut des voix pour espérer faire une seule nation de l'humanité entière, mais à chaque génération le rêve recule un peu plus. La chute du mur de Berlin, en 1989, a soulevé de nouveaux espoirs, qui ont amené Habermas (1994) à préparer comme objectif à long terme "de surmonter progressivement la division et la stratification sociale de la société mondiale, sans porter atteinte aux singularités culturelles". Dans ce contexte idéalisé, développé par les médias occidentaux, la population a subi une surprise brutale lors de l’agression russe en Ukraine en 2022. Finis les rêves, il semblait qu’on avait perdu la paix, comme en d’autres temps on avait perdu la guerre.
Dans la dernière édition de son livre, paru en 2023 chez Polity (How the West Lost the Peace: The Great Transformation Since the Cold War), l’historien Philipp Ther cherche à comprendre comment cette défaite est arrivée. Gagner la paix, comme gagner la guerre, suppose des sacrifices et la prise de risqu...
-
8:30
Is a dense city a healthy city? A preliminary study on the interplay between urban density and air quality in Oran, Algeria
sur CybergeoThe general consensus is that dense cities are more sustainable. However, high urban density or compact urban form may affect the health of city dwellers, more particularly when compactness is not associated with the provision of mass transit systems. This paper analyses the correlation between urban density indicators and air pollution in Oran (Algeria), a city that suffers a lack of public transport. It assesses the density of green space needed to reduce airborne pollutants in cities. The paper also examines the impacts of exposure to air pollution on respiratory mortality using a quantitative health impact assessment methodology. Findings show that population density and building density strongly correlates with air pollution, due to motorized transport and other human activities (e.g. industries, residential heating or lacking green space). Results indicate that for population density greater than 12100 inhabitants/ha with associated values exceeding 100 for building density an...
-
8:30
Contribution of maritime surveillance data to French Maritime Spatial Planning: between technical potential and political constraints
sur CybergeoMaritime Spatial Planning (MSP) is widely recognised around the world as a lever for sustainable development at sea. In practice, it is a new form of negotiation for the use of maritime space and its resources. To support shared decision-making, MSP requires information on the spatiotemporal dynamics of existing maritime activities. In this context, maritime surveillance, operated in real-time by the State (defence, fisheries monitoring) is a strategic source of data (AIS, VMS and radar) and information for planning purposes. While these data are growingly used by the scientific community, their contributions to MSP remains marginal. This article identifies the main reasons for this, drawing on 38 semi-directive interviews with French MSP stakeholders. It highlights two obstacles to the use of data for MSP: a) a limited accessibility of data for many actors, especially public ones and; b) a lack of acceptability on the part of historical users of maritime space when faced with their...
-
8:30
Le péage urbain de Tromsø, l’urbanisme durable à l’épreuve de la périphéricité arctique
sur CybergeoL’article s’intéresse au processus d’instauration du péage urbain de Tromsø, dont l’adoption très tardive (2021) pose question dans un pays qui a fait de l’exemplarité environnementale un levier d’intégration mondiale. L’article propose une lecture géohistorique du processus d’adoption du péage au prisme des relations centre-périphérie, explorant les racines de la rétivité locale aux principes nationaux de l’urbanisme durable et s’attachant à comprendre l’attachement singulier des habitants à l’automobile. À l’heure où ailleurs en Europe, la reconfiguration des relations centre/périphérie marque une autonomisation des villes face à la tutelle étatique, l’établissement du péage urbain de Tromsø se singularise par le maintien d’une forte dualité entre la centralité méridionale et sa périphérie septentrionale. L’instauration du péage signe la fin d’un régime particulier accordé à la municipalité par l’État, et révèle le changement de statut de la ville, passée, malgré elle, de marge se...
-
8:30
Contribution des données de surveillance maritime à la Planification de l’Espace Maritime français : entre potentiels techniques et contraintes politiques
sur CybergeoLa Planification de l’Espace Maritime (PEM), plébiscitée autour du globe comme un levier du développement durable en mer, s’illustre en pratique comme une nouvelle forme de négociation pour l’usage de l’espace maritime et de ses ressources. Pour alimenter et conforter la prise de décisions partagées, la PEM suscite un fort besoin d’information sur les dynamiques spatiotemporelles des activités maritimes existantes. Dans ce contexte, la surveillance maritime opérée en temps réel par l’État (défense, suivi des pêches) s’inscrit comme une source stratégique de données (AIS, VMS et radar) et d’informations au profit de la planification. Si l’exploitation de ces données fait l’objet d’un intérêt croissant de la part de la communauté scientifique, leur contribution effective à la planification en mer demeure marginale. Cet article en identifie les principales raisons à partir d’une enquête par entretiens semi-directifs réalisée auprès de 38 acteurs de la PEM française. Il met en lumière d...
-
8:30
La dialectique entre activités informelles et action de l’État dans la construction territoriale des grands espaces : le cas de l’orpaillage dans l’intérieur de la Guyane française
sur CybergeoLes grands espaces, ou régions faiblement peuplées, se distinguent par une série de caractéristiques spécifiques et notamment par un contrôle incomplet de la part des États. Cela ouvre des brèches pour l’exercice de pratiques qui, si elles sont ou illégales ou à la limite de la légalité, apportent des ressources économiques, des connaissances sur les territoires concernés et participent finalement à la domination, voire à la conquête des zones concernées par les États. Bien qu’invisibles ou réprimées, ces activités informelles influencent donc, directement ou indirectement, la construction officielle, symbolique et matérielle du territoire. Cet article analyse la pratique de l’orpaillage en Guyane selon cette perspective. En analysant le jeu dialectique entre contrôle formel du territoire et exploitation informelle des ressources, il met en relief la contribution des activités informelles à l’exploration, à la formation des frontières et à la gouvernance de l’intérieur de ce territo...
-
8:30
Alexandre Grondeau, Altermétropolisation : une autre vi(ll)e est possible, Aix-en-Provence, La Lune sur le toit, collection Hic et nunc, 2022, 337 p.
sur CybergeoLa photographie en couverture de l’ouvrage illustre ce qu’Alexandre Grondeau identifie comme une "schizophrénie urbaine" : la dissociation extrême entre deux espaces proches, un immeuble d’apparence luxueuse et des habitations faites de briques et de tôles. Cette opposition iconique entre un quartier aisé et une favela de São Paulo a été immortalisée par le photographe brésilien Tuca Vieira en 2007, comme symbole des inégalités extrêmes induites par la métropolisation contemporaine. Se posant comme "clinicien" de ces villes métropolisées, Alexandre Grondeau se propose alors d’en analyser les causes et symptômes, permettant d’envisager des remèdes à sa question centrale : comment faire advenir une autre ville ?
À la croisée entre l’ouvrage de synthèse et l’essai universitaire, ce livre interroge l’avenir des espaces urbains, partant de ce que l’innovation (tant technologique que sociale) fait (et peut faire) aux territoires. Actuellement maître de conférences habilité à diriger des re...
-
8:17
L'urgence climatique en lumière
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiquePlus qu’un état des lieux, l’exposition Urgence climatique visible à la Cité des sciences et de l’industrie veut sensibiliser son public, le guider et le conseiller pour qu’il prenne part à la mutation écologique de nos territoires. Il est encore temps d’agir, à condition que cette mobilisation soit immédiate, collective et pérenne.
« Face au dérèglement climatique qui engendre des conséquences à l’échelle planétaire, nous entrons dans une décennie charnière qui impose une action collective immédiate et concrète, portée par des initiatives citoyennes et de nouvelles façons de concevoir le monde sur le plan des innovations sociales, environnementales et économiques. Après, il sera malheureusement trop tard pour agir », énonce en préambule Adrien Stalter, commissaire chargé de projets muséographiques à Universcience.
Insuffler une dynamique positive et mobilisatrice, c’est justement la vocation première de la nouvelle exposition permanente de la Cité des sciences et de l’industrie, intitulée « Urgence climatique » et ouverte au public depuis le 16 mai.
Retrouvez la suite de cet article dans le magazine SIGMAG N°38
-
8:00
Avec Récolt’Ô permettez à vos administrés d’estimer les économies réalisables grâce à l’eau de pluie !
sur Makina CorpusRécolt’Ô est une application open-source inédite qui calcule le potentiel de récupération d’eau de pluie des toitures.
-
7:30
Vulnérabilités à l’érosion littorale : cartographie de quatre cas antillais et métropolitains
sur MappemondeL’érosion littorale est un phénomène naturel tangible dont la préoccupation croissante, compte tenu du changement climatique, nous a menées à travailler sur la problématique de la cartographie de certaines composantes du risque d’érosion comprenant l’étude de l’aléa et de la vulnérabilité. Les terrains guadeloupéens (Capesterre-Belle-Eau et Deshaies) et métropolitains (Lacanau et Biarritz) ont été choisis, présentant une grande diversité d’enjeux. À partir d’un assortiment de facteurs, puis de variables associées à ces notions, la spatialisation d’indices à partir de données dédiées permettrait d’aider les décideurs locaux dans leurs choix de priorisation des enjeux et de mener une réflexion plus globale sur la gestion des risques.
-
7:30
La construction d’une exception territoriale : L’éducation à la nature par les classes de mer finistériennes
sur MappemondeLes classes de mer, inventées en 1964 dans le Finistère, restent encore aujourd’hui très implantées localement. Dépassant la seule sphère éducative, ce dispositif est soutenu par des acteurs touristiques et politiques qui ont participé à positionner le territoire comme pionnier puis modèle de référence en la matière à l’échelle nationale. Tout en continuant à répondre aux injonctions institutionnelles, poussant à la construction d’un rapport normalisé à la nature (développement durable, éco-citoyenneté), cette territorialisation du dispositif singularise la nature à laquelle les élèves sont éduqués.
-
7:30
L’accessibilité dans les petits espaces insulaires du Sud-Ouest de l’océan Indien
sur MappemondeL’analyse des parentés observées entre les petits espaces insulaires du Sud-Ouest de l’océan Indien nous a conduits à mettre en évidence cinq spécificités de l’accessibilité insulaire. À partir de ces traits fonctionnels, le but poursuivi par cette étude est donc de modéliser l’accessibilité insulaire. Pour ce faire, nous examinons la nodalité et la réticularité des ports et aéroports insulaires régionaux.
-
7:30
La morphologie de la ligne de flux. Une nouvelle variable visuelle issue du système de Cartes figuratives de Minard
sur MappemondeLes travaux de Charles-Joseph Minard (1781–1870) sur la cartographie des flux et des « mouvements de transports » sont historiquement reconnus. Unanimement salués, ils font l’objet de mentions régulières voire d’anthologies, mais qui s’intéressent davantage à l’image qu’à la méthode mise en œuvre. L’examen de la fabrique de son « système de Cartes figuratives » nous conduit à présenter les apports fondamentaux de Minard sur la sémiologie cartographique des flux/mouvements, à révéler l’ancrage théorique, méthodologique et conceptuel de ces cartes. L’analyse de la forme perçue sur la carte du dessin de la ligne de flux nous pousse à introduire une nouvelle variable visuelle : la morphologie.
-
7:30
Atlas des phares du bout du monde, Autrement, 2021
sur Mappemonde« L’Atlas des phares du bout du monde » est l’une des traductions (il y en aurait onze) du Breve Atlas de los Faros del Fin del Mundo paru en 2020 aux éditions Menguantes. L’auteur, graphiste de métier, déclare dans son avant-propos qu’il est « loin d’être un expert en la matière » et que c’est la rencontre fortuite entre son envie de faire un de ces « atlas poétiques (…) capables de vous transporter dans des lieux reculés depuis le confort de votre canapé », ses compétences de graphiste et un travail qu’il a dû faire, au cours duquel il a dessiné des phares qui ont été la source de son inspiration.
L’ouvrage présente 34 phares qui sont, d’abord, tous localisés sur une belle carte du monde, sans limite étatique, réalisée dans des tons bleus et jaunes pâles. Puis, chaque phare est présenté en quatre pages, toujours selon la même structure. D’abord une page de texte accompagnée de quelques informations de localisation et, en vis-à-vis, le dessin, réalisé par l’auteur, du phare dans so...
-
7:30
Atlas des grandes découvertes. De l’Antiquité à nos jours, Autrement, 2021
sur MappemondeVoici un atlas pour lequel Stéphane Dugast, pour l’écriture des textes, Xemartin Laborde, pour les cartes, et Audrey Lagadec, pour les illustrations, ont été associés pour le plus grand plaisir de nos connaissances et de notre imagination. Un atlas est un recueil de cartes, celui-ci, comme l’explique l’introduction, est « une ode à la carte » offrant de célébrer les grandes découvertes qui ont rythmé l’histoire de l’humanité.
L’atlas est découpé en cinq grandes parties organisées de manière chronologique. Chaque page comporte une notice présentant un(e) ou plusieurs explorateurs/exploratrices et, le plus souvent, une carte qui décrit les voyages d’exploration effectués. Les cartes sont, en apparence, très simples avec peu de figurés, mais elles permettent une visualisation claire et précisent des faits d’exploration décrits dans la notice. Certaines pages montrent le monde « connu » à des époques plus anciennes avec des mappemondes comme celle de Ptolémée ou d’Al Idrissi. Le texte es...
-
7:30
Grand Atlas de l’Antiquité romaine, Autrement, 2019
sur MappemondeCet atlas, rédigé par Christophe Badel et Hervé Inglebert avec des cartes de Claire Levasseur, offre un vaste panorama de l’Empire romain : de ses prémices au IIIe siècle av. J.-C. aux conséquences de son effondrement au Ve/VIe siècle.
Cet atlas commence par des cartes anciennes reconstituant la vision des anciens de leur monde. La plus célèbre de ces cartes est celle dite « Table de Peutinger », copie médiévale d’un original du IIe/IVe siècle, qui représente le réseau routier de l’Empire romain. Page 63, l’atlas fait également figurer l’énigmatique carte romaine d’Agrippa. L’hypothèse est qu’il s’agissait d’une carte, située sur le temple du forum d’Auguste, qui aurait été créée pour montrer l’étendue de l’Empire au 1er siècle. Carte ou liste de lieux ou de routes perdue irrémédiablement, mais dont l’existence supposée montre tout l’intérêt des autorités impériales pour leur immense territoire et pour ce moyen très pratique de se l’approprier, tout au moins par le regard, qu’est l’o...
-
7:30
Navigae : un outil polyvalent pour valoriser et visualiser les données géographiques patrimoniales
sur MappemondeNavigae est une plateforme de recherche permettant de consulter des données issues de travaux en géographie et de valoriser la dimension spatiale des données. Elle permet de diffuser et de visualiser des données numériques issues de structures de recherche ou de bibliothèques, selon des modes d’interrogation et de visualisation cartographique. Son objectif est de favoriser l’ouverture des données grâce à de nombreux services d’exposition et de récupération de données, ainsi qu’à travers un travail de curation permettant la conservation, la maintenance et l’enrichissement des données des différents fonds documentaires géographiques présents dans la plateforme.
-
7:30
UD-SV : Plateforme d’exploration de données urbaines à n-dimensions — Espace, Temps, Thématiques
sur MappemondeCet article présente la plateforme UD-SV (Urban Data Services and Visualization) développée au laboratoire LIRIS. UD-SV regroupe un ensemble de composants s’appuyant sur du code ouvert permettant de stocker, de visualiser, d’interagir, de naviguer et d’interroger des modèles de villes 2D et 3D, mais aussi temporels. UD-SV permet d’intégrer des données spatiales, temporelles et sémantiques pour l’analyse urbaine et pour la compréhension de son évolution. Nous décrivons l’architecture, la conception, le développement et nous exemplifions avec quelques processus de calcul de UD-SV.
-
7:30
Geodatadays 2022
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis trois ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartites (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
3:50
Sean Gillies: Bear 100 retro
sur Planet OSGeoAfter the race I needed some time to deal with my disappointment about rolling my ankle and dropping out at mile 61. Then I got busy looking for a new job. Writing up a retrospective that I could use in the future was delayed. Here it is, at last. I hope it's interesting and useful to others. This kind of retrospective is something I've learned to use at work. It's roughly organized around what went well, what could be better, lessons learned, in the areas of preparation and training, planning, and execution.
First of all, the race itself was great! Other runners I know said it was, and they were right. It was very well run. The aid stations were well stocked and operated smoothly. The course was beautiful and well marked. I felt constantly challenged, safe, and encouraged. I won't forget the super runnable single track down into Leatham Hollow, the springy soil made of pine needles, the ferns, and the view of the cliffs on the sunny slope. I lived just a few miles away for 10 years, but I'd never been on that trail before. The shady side of the canyon was super lush and green, almost Pacific Northwestern compared to Colorado's Front Range foothills. My memory of arriving at the Upper Richards Hollow aid station is another favorite. After a tough climb out of a wooded canyon, we were greeted on the flat bench above by an aid station volunteer holding a tray of cool, moist towels! They invited us to freshen up and enjoy a fancy brunch at clothed tables served by volunteers in tuxedo t-shirts. More than one of us expressed the feeling that it was way too early to be having hallucinations.
Much went according to plan, or better. My summer training volume was adequate and I did plenty of hiking and running on similar terrain at a similar, or higher, elevation. 4.5 weeks of fine tuning and tapering suited me well. I started the race feeling fresh. Flying to Salt Lake City and driving to Logan worked well for me. I was able to close my eyes and snooze while others transported me from Fort Collins to SLC. After landing, I had a sentimental and tasty lunch at Red Iguana, one of my favorite restaurants. In Logan, I enjoyed an entire day of hanging out with my aunt and her dog before race day.
My simple race plan was fine. I started out aiming to leave aid stations at the times that previous 36 hour finishers have, and did that. I aimed to slow down less than the typical 36 hour finisher after 40 miles, and achieved that, too. It was a good pacing plan for finishing in less than 36 hours. At each aid station I knew how many 100 calorie portions of food I should be picking up, and how many drink bottles to fill, and this was a fine fueling and hydration plan. I didn't bonk, cramp, or run out of drinks at any point, thanks to the water drop above Temple Fork.
We had exceptionally good weather on race day and night, so flaws in my equipment choices didn't surface like they might have. Tony Grove was, in fact, a good place to have a change of clothes, pants, and a sweater. Temple Fork would have been too early for warm layers. Franklin Basin would have been too late.
My feet suffered less in 60 miles of the Bear than in any of my previous 100K runs. I lubed them well before the start and changed socks at 28 and 50 miles. I had no blisters and no hot spots. I started the race in a pair of newish HOKA Mafate Speed 4 and they were fine. In the weeks before the race I had some persistent soreness on the top of my right foot and was concerned about a stress injury, but this didn't get any worse during the Bear.
I had no crew at the race, but found good company on the trail multiple times. Sometimes with other people making their own first 100 mile attempt. Sometimes with people going for their third or fourth Bear finish. I heard hilarious stories about the extreme hallucinations you can experience after 48 hours without sleep. I met a guy who graduated from Cache Valley's other high school a year after I graduated from Logan High. I ran with a woman who lost her colon to cancer a year ago. I spent four hours on the trail before Tony Grove with a guy from Boulder who runs a molecular biology center at CU. We run many of the same routes in Rocky Mountain National Park.
Now for the things that didn't go as well. Some flaws in my training and overall fitness were exposed by the Bear's long and rough downhills. I should lose at least 10 pounds. 15 might be better. I can feel the extra weight in my knees and the sensation compounded over 20+ hours. Also, I feel like I've lost foot speed and spatial sense over the last year or so. Three years ago my favorite fitness trainer went out of business and exercises like skaters and box jumps fell out of my repertoire. I believe that I can improve my proprioception by bringing these kinds of exercises back. If I can, I should be better able to dodge impacts instead of absorbing them.
My stomach was fine at the Bear, but I struggled with lower intestinal trouble from miles 20-40. I had to make a lot of stops in the trees, used up my supply of toilet paper, and had to resort to various leaves. Burdock is my friend in this situation. It wasn't the end of the world, but was a distraction. I don't know what the cause was. In the interest of keeping things simple, I had decided to go with the race's drinks instead of bringing, and mixing, my own, but I didn't train with them beforehand. Gnarly Fuel2O treated me well enough at Kettle Moraine, so I felt safe at the Bear. I started the race with 3 bottles of GU Roctane because I spaced packing some Tailwind mix for my initial bottles. I've never tried this stuff before. It has more ingredients than Taillwind or VFuel, my staples, including taurine. Maybe that was the culprit? I can only speculate. As I said, this was not a problem that would have prevented me from finishing.
Long descents in the dark made my brain and eyes tired. I was not fully prepared for this. I had a 350 lumen light on my belt and 500 lumens on my head. This was fine for 9 hours at Kettle Moraine in June, but not great for 12 hours at the Bear. I'll bring more light next time. Why spend energy trying to figure out mysteries on the trail that could be solved by better illumination?
Without a crew, my stop at Tony Grove to change clothes and get set for seven more hours of night running was overly long. I wonder if I'd left 20-30 minutes earlier I might have reached Franklin Basin without incident? At the very least, I'd have reached Franklin Basin that much sooner. A crew wouldn't have helped earlier, but would have helped at 50 miles when I was trying to change clothes, stay warm, and get fed simultaneously. It was mentally tiring at a moment where I was already mentally tired.
I've mentioned before that I left Tony Grove alone at 11 pm and had a sprained ankle at 1 pm. I was out there by myself and am not sure what happened. I could have fallen asleep on my feet; this has been known to happen. Having a pacer could have helped get me to Franklin Basin and beyond in good shape. Being able to follow someone with fresh eyes and a fresh mind would have helped with the issues I mentioned two paragraphs above. It's always easier to follow than to break trail. Even without a pacer, if I'd been in a small group I could have done some leading and some following. This would have been good. And I think getting out of Tony Grove earlier would have made it more likely to join such a group.
In hindsight, I should have had some plan for resting or napping. At 20 hours, I was more groggy than I expected, perhaps because I was alone with nothing but my breath, footsteps, and sleepy thoughts. Recently, a friend of mine shared his tactic of laying down on the trail for short naps, to be woken by the next runner 5-10 minutes behind. This issue is very connected to the previous ones. With less exertion, there is less need to nap. Even if I solve other problems, I bet I'll still run into the need to shut my eyes at 3 or 4 am. I'm going to think about this for next year.
Lastly on the could-have-gone-better front, how about my reaction to my ankle injury? My fuzzy recollection is that I came to full consciousness with a painful and unstable ankle in the dark at 1 am, a mile from the Franklin Basin aid station. I was concerned and went gingerly over that mile, and my plan was to try 15-20 minutes of elevation and compression before deciding whether to continue. I wasn't otherwise physically tired, hungry, or thirsty. My ankle became more swollen and painful while I was off my feet, and after 30 minutes I concluded that I could could not continue.
What if I had not stopped and just grabbed some hot food and kept going? The worst case scenario would have been hiking some small way toward the next aid station and having to return to Franklin Basin, with some damage done to my ankle. What if I had been able to hobble 8 miles to the Logan River aid station and continue slowly from there? I've run through mild sprains several times this year, and have endured worse grade 2 sprains than this one, yes, but not this year. Being alone out there make it harder to push on. If I was pacing myself, I may have been able to convince myself to take a shot at continuing. I think dropping out was 99% the right decision overall. My chance of making it another 8 miles to Logan River was maybe 50%, though? It's hard to say.
I learned two lessons. The TSA says no hiking poles allowed in carry on luggage! I had to leave mine behind at DEN and get new poles at the Farmington REI after leaving SLC. I won't make this mistake again.
While I was mentally prepared for the possibility of dropping out of the race, I did not have any plan for getting back to town after I did so! After two hours of sitting by the campfire at Franklin Basin I did finally meet someone who was heading directly back down the canyon to Logan.
As I said earlier, things mostly went my way. Except for some bad luck and a misstep I believe I would have finished. Registration for the 2024 edition of the Bear opens on December 1. I'm going to try again with more or less the same simple plan, stronger ankles, more light, and fewer distractions.
-
1:41
Sean Gillies: Status update
sur Planet OSGeoFinally, I have a professional update. I started work at TileDB on Wednesday. I'll be working from Fort Collins alongside colleagues around the world. I know a slice of TileDB's market, dense multi-dimensional arrays like earth observation data, well, but have a lot to learn about genetic data, embeddings, and storing graphs in adjacency matrices. I expect this to be both challenging and fun. I'll post more about it once I'm settled in.
I'll be resuming work on open source projects, which I've paused while job hunting, soon!
-
1:00
PostGIS Development: PostGIS Patch Releases
sur Planet OSGeoThe PostGIS development team is pleased to provide bug fix and performance enhancements 3.4.1, 3.3.5, 3.2.6, 3.1.10, 3.0.10 for the 3.4, 3.3, 3.2, 3.1, 3.0 stable branches.
-
18:58
Cartographie cérébrale
sur Veille cartographieCet article Cartographie cérébrale est apparu en premier sur Veille cartographique 2.0.
L’innovation scientifique nous fait souvent revoir les définitions des termes dans le langage scientifique. Là où la cartographie se voulait être “Par définition et depuis des siècles, la cartographie est l’art et la science d’élaborer des cartes, c’est-à-dire des représentations de l’espace géographique qui sont communicables.” (Ferland, 2000) cette définition se veut remaniée lorsque les […]
Cet article Cartographie cérébrale est apparu en premier sur Veille cartographique 2.0.
-
11:29
Les Systèmes d’informations géographique: un outil précieux pour les forestiers
sur Veille cartographieCet article Les Systèmes d’informations géographique: un outil précieux pour les forestiers est apparu en premier sur Veille cartographique 2.0.
Suivre l’évolution de la forêt, prévenir les feux, aménager les parcs nationaux, adaptation au changement climatique ou encore préservation de la biodiversité sont autant d’enjeux auxquels sont confrontés les gestionnaires des espaces forestiers en France. L’Office National de la Forêt axe la gestion de ces dernières sur trois grands axes: la production de bois, le […]
Cet article Les Systèmes d’informations géographique: un outil précieux pour les forestiers est apparu en premier sur Veille cartographique 2.0.
-
11:17
Introducing the Sunderland Collection
sur Google Maps ManiaThe Sunderland Collection of antique maps has been digitized in full and can now be explored in detail on the new virtual platform Oculi Mundi (Eyes of the World). The Sunderland Collection was started by Dr Neil Sunderland in the 1990s. The collection now consists of around 130 vintage globes, maps and atlases which date back to as early as the 13th century. The new Oculi Mundi platform takes
-
11:00
Le samedi, c'est Map Story !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierJe suis en ce moment en Nouvelle-Calédonie pour rencontrer les utilisateurs ArcGIS de la région pour échanger sur différents sujets comme l'usage de la 3D, les Jumeaux Numériques, l'Imagerie, l'IA mais aussi et surtout un focus et des ateliers particuliers autour des cas d'usages et des bonnes pratiques des données LiDAR. A travers ces échanges (notamment les excellentes présentations du GISDay), j'ai pu constater à quel point, pour ce territoire plus qu'ailleurs, les enjeux de protection de l'environnement était une préoccupation plus importante encore sur ces territoires comparés à la métropole.
J'ai donc choisi cette semaine, non pas une, mais 3 StoryMaps qui reflètent bien ces enjeux avec la préservation des forêts contre les incendies (voir ici), la sauvegarde de la faune et de la flore marine (voir ici), et enfin le suivi de l'évolution du litoral (érosion, stabilité, accrétion) pour mieux protéger les personnes et les biens des risques liés aux aléas climatiques (voir ici).
Réalisées à l'aide d'ArcGIS StoryMaps, les applications et leurs contenus sont hébergés sur la plateforme SaaS ArcGIS Online.
-
19:36
La zone d’infestation croissante du moustique tigre en France
sur Veille cartographieCet article La zone d’infestation croissante du moustique tigre en France est apparu en premier sur Veille cartographique 2.0.
Cela fait maintenant plusieurs années que l’on entend parler de moustiques tigre, ou encore Aedes albopictus en France. A l’origine, cet insecte vit dans les milieux tropicaux asiatiques et dans les milieux aquatiques ou dans des eaux stagnantes. Il est vecteur de maladies infectieuses émergentes, comme le zika ou la dengue. Le moustique tigre est […]
Cet article La zone d’infestation croissante du moustique tigre en France est apparu en premier sur Veille cartographique 2.0.
-
17:22
Planification urbaine à plusieurs échelles : intégration de Cergy dans le projet du Grand Paris
sur Veille cartographieCet article Planification urbaine à plusieurs échelles : intégration de Cergy dans le projet du Grand Paris est apparu en premier sur Veille cartographique 2.0.
Le Val d’Oise, intégré aux évolutions urbaines de la région Le projet du Grand Paris express continue d’évoluer, avec l’annonce par Valérie Pécresse de la création « à horizon 2040 » d’une ligne de métro intégrant la ville de Cergy au nouveau réseau de transport qui quadrillera la région : la ligne 19.Cette ligne, dont le tracé […]
Cet article Planification urbaine à plusieurs échelles : intégration de Cergy dans le projet du Grand Paris est apparu en premier sur Veille cartographique 2.0.
-
17:22
Le rôle des cartes dans la représentation du pouvoir : le cas de la Russie et de l’Ukraine
sur Veille cartographieCet article Le rôle des cartes dans la représentation du pouvoir : le cas de la Russie et de l’Ukraine est apparu en premier sur Veille cartographique 2.0.
L’invasion de l’Ukraine par la Russie le 20 février 2022 a marqué un tournant dans le conflit opposant les deux pays et qui débuta en 2014, autour du statut de la Crimée. Ce conflit armée de grande ampleur, de plus en plus difficilement justifiable en Russie, remet en cause sont statut de puissance militaire et […]
Cet article Le rôle des cartes dans la représentation du pouvoir : le cas de la Russie et de l’Ukraine est apparu en premier sur Veille cartographique 2.0.
-
17:21
Mise en évidence des liens entre inégalités raciales et géographiques par la cartographie : la contamination de l’eau à Flint.
sur Veille cartographieCet article Mise en évidence des liens entre inégalités raciales et géographiques par la cartographie : la contamination de l’eau à Flint. est apparu en premier sur Veille cartographique 2.0.
La cartographie est un médium souvent valorisé par sa capacité à mettre en exergue les liens entre différents phénomènes du fait de sa dimension visuelle. Cette capacité à rendre plus facilement intelligible les liens entre plusieurs variables est tout particulièrement utile pour prouver l’impact et l’importance d’un phénomène, comme ce fut le cas pour le […]
Cet article Mise en évidence des liens entre inégalités raciales et géographiques par la cartographie : la contamination de l’eau à Flint. est apparu en premier sur Veille cartographique 2.0.
-
17:02
Accès aux données non libres sur la Géoplateforme
sur Toute l’actualité des Geoservices de l'IGNL’accès aux données non libres se fait sur la Géoplateforme via des points d’accès privés soumis à un contrôle des accès
-
13:31
Quand Irma a Frappé : Saint-Martin Face à l’Ouragan Dévastateur
sur Veille cartographieCet article Quand Irma a Frappé : Saint-Martin Face à l’Ouragan Dévastateur est apparu en premier sur Veille cartographique 2.0.
Le 6 septembre 2017, l’île paradisiaque de Saint-Martin a été confrontée à l’ouragan dévastateur Irma. Tempête de catégorie 5, Irma a laissé des séquelles indélébiles à la région des Caraïbes. Les vents dépassant les 295 km/h, les pluies torrentielles et les vagues de tempête ont transformé ce paradis en un paysage de désolation, laissant derrière […]
Cet article Quand Irma a Frappé : Saint-Martin Face à l’Ouragan Dévastateur est apparu en premier sur Veille cartographique 2.0.
-
13:00
Free and Open Source GIS Ramblings: Adding basemaps to PyQGIS maps
sur Planet OSGeoIn the previous post, we investigated how to bring QGIS maps into Jupyter notebooks.
Today, we’ll take the next step and add basemaps to our maps. This is trickier than I would have expected. In particular, I was fighting with “invalid” OSM tile layers until I realized that my QGIS application instance somehow lacked the “WMS” provider.
In addition, getting basemaps to work also means that we have to take care of layer and project CRSes and on-the-fly reprojections. So let’s get to work:
from IPython.display import Image from PyQt5.QtGui import QColor from PyQt5.QtWidgets import QApplication from qgis.core import QgsApplication, QgsVectorLayer, QgsProject, QgsRasterLayer, \ QgsCoordinateReferenceSystem, QgsProviderRegistry, QgsSimpleMarkerSymbolLayerBase from qgis.gui import QgsMapCanvas app = QApplication([]) qgs = QgsApplication([], False) qgs.setPrefixPath(r"C:\temp", True) # setting a prefix path should enable the WMS provider qgs.initQgis() canvas = QgsMapCanvas() project = QgsProject.instance() map_crs = QgsCoordinateReferenceSystem('EPSG:3857') canvas.setDestinationCrs(map_crs) print("providers: ", QgsProviderRegistry.instance().providerList())
To add an OSM basemap, we use the xyz tiles option of the WMS provider:
urlWithParams = 'type=xyz&url=https://tile.openstreetmap.org/{z}/{x}/{y}.png&zmax=19&zmin=0&crs=EPSG3857' rlayer = QgsRasterLayer(urlWithParams, 'OpenStreetMap', 'wms') print(rlayer.crs()) if rlayer.isValid(): project.addMapLayer(rlayer) else: print('invalid layer') print(rlayer.error().summary())
If there are issues with the WMS provider,
rlayer.error().summary()
should point them out.With both the vector layer and the basemap ready, we can finally plot the map:
canvas.setExtent(rlayer.extent()) plot_layers([vlayer,rlayer])
Of course, we can get more creative and style our vector layers:
vlayer.renderer().symbol().setColor(QColor("yellow")) vlayer.renderer().symbol().symbolLayer(0).setShape(QgsSimpleMarkerSymbolLayerBase.Star) vlayer.renderer().symbol().symbolLayer(0).setSize(10) plot_layers([vlayer,rlayer])
And to switch to other basemaps, we just need to update the URL accordingly, for example, to load Carto tiles instead:
urlWithParams = 'type=xyz&url=http://basemaps.cartocdn.com/dark_all/{z}/{x}/{y}.png&zmax=19&zmin=0&crs=EPSG3857' rlayer2 = QgsRasterLayer(urlWithParams, 'Carto', 'wms') print(rlayer2.crs()) if rlayer2.isValid(): project.addMapLayer(rlayer2) else: print('invalid layer') print(rlayer2.error().summary()) plot_layers([vlayer,rlayer2])
You can find the whole notebook at: [https:]]
-
12:20
Mapping Damage in Gaza
sur Google Maps ManiaA researcher at UCL's CASA has released a new interactive mapping tool which can help researchers and news agencies "estimate the number of damaged buildings and the pre-war population in a given area within the Gaza Strip". The Gaza Damage Proxy Map is based on an earlier tool which was developed to estimate damage caused by Russia in Ukraine. The Gaza Damage Proxy Map colors individual
-
10:34
Qaujikairit : Prédire les événements climatiques en Arctique
sur Veille cartographieCet article Qaujikairit : Prédire les événements climatiques en Arctique est apparu en premier sur Veille cartographique 2.0.
Dans le paysage changeant et complexe de la météorologie arctique, une application nommée Qaujikairit est en train de transformer petit à petit la manière dont nous prévoyons et gérons les événements climatiques extrêmes dans cette région de la planète. Conçue pour offrir des prévisions météorologiques précises et avancées, cette application a la capacité de prédire […]
Cet article Qaujikairit : Prédire les événements climatiques en Arctique est apparu en premier sur Veille cartographique 2.0.
-
10:00
DINAMIS : l’imagerie satellite en Open Data
sur Veille cartographieCet article DINAMIS : l’imagerie satellite en Open Data est apparu en premier sur Veille cartographique 2.0.
DINAMIS, acronyme de Dispositif Institutionnel National d’Accès Mutualisé en Imagerie Satellitaire, est une plateforme française qui permet aux utilisateurs institutionnels, français et étrangers, d’accéder à des données satellitaires d’observation de la Terre. Elle a été créée en 2018 dans le cadre d’un partenariat entre le CNES, le CNRS, l’IGN, l’INRAE, l’IRD et CIRAD. DINAMIS a […]
Cet article DINAMIS : l’imagerie satellite en Open Data est apparu en premier sur Veille cartographique 2.0.