Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
2774 éléments (103 non lus) dans 55 canaux
- Décryptagéo, l'information géographique
- Cybergeo (20 non lus)
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (5 non lus)
- Mappemonde (20 non lus)
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN (8 non lus)
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier (1 non lus)
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée (3 non lus)
- Geotribu
- Les cafés géographiques (3 non lus)
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO) (2 non lus)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde (2 non lus)
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (4 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques (14 non lus)
- Veille cartographie
- Makina Corpus (4 non lus)
- Oslandia (7 non lus)
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Éléments récents
-
14:52
Aux îles
sur Les cafés géographiquesAurélia Coulaty, Clément Thoby, Aux îles, Actes Sud, 2023
Le goût du voyage géographique peut être suscité par un guide, un documentaire, un ouvrage spécialisé mais aussi par un « beau livre ». Les amoureux des îles pourront choisir leur destination après avoir lu l’album écrit par Aurélia Coulaty et illustré par Clément Thoby, Aux Îles (1). L’auteure, écrivaine et artiste polyvalente, a approfondi sa passion du voyage et de l’« ailleurs » en consacrant son master de lettres modernes à Nicolas Bouvier (2). Dans Aux Îles, elle entrelace informations géographiques (sur l’environnement particulièrement), récits mythologiques, références littéraires et impressions subjectives.
Ouvrir le livre donne un premier plaisir sensuel : contempler des dessins aux couleurs saturées et aux traits de crayon rapides tout en caressant un papier épais et satiné. Toutes les îles trouvent leur place. De petites îles comme Socotra, au large du Yémen, à la biodiversité exceptionnelle ou Ouessant, vigie sur l’océan Atlantique. De grandes îles comme l’Irlande, façonnée par des vagues successives d’occupants mais qui ne fut pas romanisée. Une île-continent, l’Australie. Les archipels sont aussi nombreux : les Galapagos offrent leurs 200 000 km2 de réserve naturelle maritime alors que les Kerguelen, dans les TAAF (3), abritent la recherche des météorologues, vulcanologues, biologistes…sous la protection de la Marine nationale. Les îles de lacs et de lagunes ne sont pas non plus oubliées (Venise, bien sûr…).
Les îles ne sont pas regroupées selon un critère géographique. La localisation des îles des contes et légendes, telle l’Atlantide, serait hasardeuse. Tout aussi difficiles à situer sur une carte les îles nées de l’imaginaire littéraire de deux Britanniques, Nulle part (Utopia de Thomas More (4) et Le pays du Jamais (Neverland de J. M. Barrie) (5). D’autres îles sont regroupées selon la fonction que les hommes leur attribuèrent, qu’il s’agisse d’abriter des bagnards (Nouvelle-Calédonie, Sakhaline…), de garder de grands prisonniers (Napoléon à Sainte-Hélène…) ou de fournir des repaires aux pirates (Cocos et La Tortue).
Voici donc une occasion de faire un beau tour du monde en 86 pages.
Notes :
(1) Aurélia COULATY, Clément THOBY, Aux Îles, Actes Sud, 2023
(2) Nicolas BOUVIER est un écrivain, voyageur, photographe suisse, considéré comme un maître de la littérature de voyage. Son ouvrage L’Usage du monde (1963) est aujourd’hui une référence reconnue dans le monde universitaire.
(3) TAAF : Terres antarctiques et australes françaises
(4) L’Utopie ou Le Traité de la meilleure forme de gouvernement a été écrit par Thomas More en 1516.
(5) J. M. BARRIE est le créateur du personnage de Peter Pan qui vit dans un lieu imaginaire, Neverland. Le roman, Peter et Wendy, a été publié en 1911.Michèle Vignaux, novembre 2023
-
12:58
CARTOMANIA CONTINENTS : l’atlas insolite de culture générale
sur Décryptagéo, l'information géographiqueConnaissez-vous sur le bout des doigts les inventions créées en Asie ? Les différents instruments de musique d’Amérique du Sud ? Ou les noms des sublimes tissus d’Afrique ? Pouvez-vous placer sur une carte les grands clubs de sport d’Amérique du Nord ? Ou les stations scientifiques en Antarctique ? Et, plus proche de nous, êtes-vous certain d’être imbattable sur l’Europe ?
En 80 cartes ludiques, retenez d’un coup d’œil tout ce qu’il faut savoir sur chaque continent : ressources naturelles, faits historiques, économie, société, art de vivre, patrimoine, records et trésors cachés… Accompagnées de textes explicatifs, de chiffres clés, d’infographies et de nombreuses anecdotes insolites, ces cartes sérieuses, souvent étonnantes ou franchement décalées, vous rendront incollable sur tous les sujets. Avec Cartomania Continents, embarquez pour un incroyable tour du monde des savoirs !
LES AUTEURS
E. Didal est auteur d’atlas, de documents, d’essais et de livres illustrés ayant pour sujet de prédilection la quête de l’identité. Désireux d’embrasser un savoir universel, il est depuis toujours fasciné par l’ambition des encyclopédistes. Il a signé les deux premiers opus de la série : Cartomania. L’Atlas insolite de culture générale (2019) et Cartomania France (2021) aux Éditions de La Martinière.
Grégory Bricout est cartographe, illustrateur et graphiste. Il a été directeur artistique en agences d’architecture, en presse et se consacre désormais à la conception de jouets pour enfants et à l’édition de livres illustrés. Après Napoléon en cartes publié aux Éditions de La Martinière (2021), il a assuré pour cet ouvrage la création des cartes et la conception graphique.
Commander : [https:]
24 X 28,5 CM – 192 PAGES
29 €
ISBN?: 978-2-7324-9039-7
Cet article CARTOMANIA CONTINENTS : l’atlas insolite de culture générale est apparu en premier sur DécryptaGéo, l'information géographique.
-
12:40
Cartes marines : Poésie du littoral français en 130 cartes
sur Décryptagéo, l'information géographiqueCartes marines : Poésie du littoral français en 130 cartes
Avec une préface de Miossec, Dessins de Marine Le Breton, textes sous la direction de Denis RolandLes cartes ne font pas que guider nos trajectoires. Elles ne font pas que nous livrer le monde comme un ensemble de paramètres qui conditionnent le passage d’un point A à un point B. Voilà ce que font immédiatement sentir les 130 cartes dessinées par Marine Le Breton et reproduites dans cet ouvrage.
La dessinatrice y met au jour le rapport poétique et personnel aux territoires qui double la fabrication et la lecture des cartes. « La carte est de la science pétrie d’imaginaire ; la topographie nous rend songeurs, la géologie nous transporte, la bathymétrie nous fait explorateurs », écrit Denis Roland dans sa belle introduction, qui exprime parfaitement le tact des dessins de Marine Le Breton, dans lesquels cohabitent science et imaginaire, l’une au service de l’autre et inversement.En témoignent les textes incarnés qui accompagnent chacune des cartes représentées, écrits par autant de gens aux profils divers qui forment un véritable peuple des usagers et amoureux de la carte : océanographes, navigateurs, marins, libraires romanciers, historiens, naturalistes, journalistes, géologues, maraîchers, paysagistes, etc.
Tous y dévoilent la manière dont les cartes interviennent dans leurs vies, les histoires qu’elles leur racontent et l’avenir qu’elles leur font espérer.Formée à l’école nationale des Beaux-Arts de Lyon puis à l’E.C.V. Paris, sortie diplômée major avec les félicitations du jury en design graphique, Marine Le Breton collaborait depuis 16 ans en tant qu’indépendante dans le domaine du graphisme culturel.
En 2019, priorité est donnée au dessin, entre le cabinet de curiosités, le monde naturaliste et la gravure.
Commander : [https:]]
304 pages – 240 x 300 mm
Parution le 15 novembre 2023
50€Cet article Cartes marines : Poésie du littoral français en 130 cartes est apparu en premier sur DécryptaGéo, l'information géographique.
-
12:34
MAPPEMONDES : Un voyage dans le temps pour raconter le monde contemporain
sur Décryptagéo, l'information géographiqueMAPPEMONDES : Un voyage dans le temps pour raconter le monde contemporain de Xemartin Laborde avec Delphine Papin et Francesca Fattori, en librairie depuis le 2 novembre
Un cartographe fait renaître la mappemonde pour visualiser notre monde actuel
Et si on reprenait le meilleur de la cartographie d’antan pour dessiner notre monde actuel ? C’est le défi qu’a relevé Xemartin Laborde, cartographe au Monde, après s’être interrogé sur les différentes manières de représenter les phénomènes globaux, qu’ils soient naturels ou d’origine humaine.
En 50 cartes réparties en 5 grandes parties, cet atlas offre ainsi un voyage cartographique à l’esthétique soignée qui permet un regard global sur notre monde et nous éclaire sur les enjeux contemporains : l’environnement et notre impact sur la nature (transformation des paysages, démographie, pollution, déforestation…), les inégalités, les guerres et frontières, ou encore les enjeux sociétaux.
Xemartin Laborde est journaliste-cartographe au journal Le Monde. Diplômé de l’Institut français de géopolitique de la Sorbonne et de l’École nationale des sciences géographiques, il est coauteur de nombreux atlas (Atlas des forêts, Atlas des grands explorateurs aux éditions Autrement, L’Atlas des frontières et L’Atlas géopolitique de la Russie aux éditions Les Arènes).
Delphine Papin est responsable du service infographie du journal Le Monde depuis 20I6. Francesca Fattori est journaliste-cartographe au journal Le Monde.
Prix : 35.00 €
Pages : 152
EAN : 9782200637095
Cet article MAPPEMONDES : Un voyage dans le temps pour raconter le monde contemporain est apparu en premier sur DécryptaGéo, l'information géographique.
-
12:07
JOURNEE INTEROPERABILITE ET INNOVATION (J2I) Le FAIR data en appui à la compréhension de la Terre et de son environnement.
sur Décryptagéo, l'information géographiqueLe forum OGC France et la commission nationale de l’information géographique et spatiale de l’AFNOR ont le plaisir de vous annoncer la 9e édition de la Journée Interopérabilité et Innovation (J2I).Elle se tiendra à l’Université Gustave Eiffel à Marne-La-Vallée, le Mardi 23 Janvier 2024, sur le thème : F.A.I.R. (Findable Accessible Interoperable Reusable) et normalisation.
A ce titre, cette édition est organisée conjointement avec l’Infrastructure de Recherche nationale Data Terra et le projet GAIA Data.
Au programme : des présentations, des retours d’expérience, des ateliers sur l’application des standards et bonnes pratiques de l’interopérabilité (OGC, ISO, …) en appui à des données et services F.A.I.R. Avec des exemple pris dans le domaine de la recherche, de l’enseignement, de la normalisation et des applications métiers (climat, biodiversité, océanographie, hydrographie, …)
Les inscriptions seront ouvertes et le programme de la journée diffusé en novembre sur le site de l’événement dont l’adresse vous sera communiquée ultérieurement. En attendant, nous vous invitons à d’ores et déjà noter cette date dans votre agenda et ne pas hésiter à diffuser l’information dans vos réseaux.
Cet article JOURNEE INTEROPERABILITE ET INNOVATION (J2I) Le FAIR data en appui à la compréhension de la Terre et de son environnement. est apparu en premier sur DécryptaGéo, l'information géographique.
-
9:30
Global Sentiment Towards Israel & Palestine
sur Google Maps ManiaThe interactive map Israel-Palestine Media Bias visualizes the results of a sentiment analysis of mostly English language media and social media websites to determine whether they have a predominately Israeli or Palestinian bias.Using the map you can explore the Israel/Palestine sentiment bias expressed by the media in individual countries, on different platforms and by the percentage of a
-
18:52
Place aux femmes
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLorsque les rues, places, jardins ou parcs portent des noms de figures historiques, il s’agit majoritairement de noms d’hommes. À Tours, seuls 4% de ses voies et de ses espaces publics portent des noms de femmes. La ville s’engage et lance une démarche participative, dans le cadre de son plan égalité : « La rue est aussi à nous ». L’objectif est de proposer et de choisir des noms de personnalité féminine. C’est donc au tour des femmes d’êtres mis à l’honneur ! Depuis 2020, 35 d’entre elles s’affichent sur les panneaux de la ville. Une StoryMap a été créée, sous l’impulsion du service SIG de Tours Métropole Val de Loire, pour mettre en valeur l’opération. Elle propose un parcours de la ville par pôle avec une visualisation des sites et une petite biographie de la scientifique, l’écrivaine, l’artiste ou la personnalité politique nommant l’espace public. D’Ada Lovelace, pionnière de l’informatique, à Gerty Archimède, première femme antillaise avocate, en passant par Katia Krafft, volcanologue, la démarche se veut inspirante pour les jeunes générations.
+ d'infos :
tours.fr
-
17:39
Les territoires, coproducteurs du référentiel LiDAR HD France entière
sur Décryptagéo, l'information géographiqueRéaliser la cartographie 3D de la France d’ici 2025 : tel est l’objectif du programme national LiDAR HD coordonné par l’IGN et porté par de nombreux acteurs des territoires. La production de ce référentiel national illustre concrètement la dynamique des géocommuns. Six nouveaux partenariats viennent ainsi d’être actés avec la Région Grand Est, la Région Pays de la Loire, la Collectivité de Corse, le Département de la Charente-Maritime, la Plateforme DATA du département de la Vendée (Géo Vendée) et l’Observatoire de la côte de Nouvelle Aquitaine (BRGM-ONF) pour contribuer à la réalisation de ce programme. Les données 3D acquises grâce au LiDAR ouvrent la voie à de futurs jumeaux numériques permettant de mieux comprendre et piloter un territoire.Lancé en 2021, le programme national LiDAR HD prévoit la mise en place d’une cartographie 3D du territoire d’une précision jamais atteinte à l’échelle de la France. Séquencé sur cinq ans, il vise la mise à disposition de données 3D relatives au sol et au sur-sol (végétation, bâtis, etc.) qui seront homogènes, riches, fiables, ouvertes et accessibles à tous. Piloté par l’IGN, ce programme couvre l’acquisition des données, leur traitement, leur hébergement et leur diffusion mais aussi l’accompagnement des utilisateurs. Il répond à de nombreux besoins de politiques publiques : prévention des risques naturels, connaissance de la ressource forestière, gestion des parcelles agricoles, aménagement du territoire, préservation de la biodiversité, sécurité intérieure, transition énergétique, etc. Les données acquises serviront de socle aux futurs jumeaux numériques, répliques virtuelles et dynamiques qui permettront de nombreuses simulations sur l’ensemble du territoire.
Les travaux ont d’ores et déjà permis l’acquisition de données LiDAR sur près des deux tiers de la métropole (65,8 %) soit 363 750 km2 (voir carte ci dessous). Ces données ont été classées et diffusées en open data pour 262 000 km2, soit 47,8 % de la métropole (voir carte).
Un programme co-produit avec de nombreux partenairesEn tant qu’acteur public de référence pour l’information géographique, l’IGN coordonne la mise en œuvre du programme LiDAR HD pour et avec des commanditaires-financeurs porteurs de besoins. Pour mener à bien ce chantier, il a noué et continue de nouer des partenariats avec les acteurs du territoire, partenariats qui se concrétisent tantôt par un soutien financier, tantôt par la mutualisation avec des projets LiDAR locaux réalisés selon des spécifications compatibles avec le programme national.
Depuis fin septembre, six nouveaux partenaires ont ainsi rejoint le programme. Deux conventions ont été signées avec la Région Grand Est et la Collectivité de Corse pour acter leur soutien financier au programme à l’aide de subventions du Fonds européen de développement régional (FEDER) d’un montant de 1,3 million d’euros pour la première et de 326 000 euros pour la seconde. Dans le cadre d’un partenariat avec l’IGN, la Région Pays de la Loire cofinance la production de données LiDAR sur son territoire. Une autre convention a officialisé la fourniture des données LiDAR brutes locales par le Conseil Départemental de la Charente-Maritime. Par ailleurs, la Plateforme DATA du département de la Vendée (Géo Vendée) et l’Observatoire de la côte de Nouvelle Aquitaine (porté le Service géologique national (BRGM) et l’ONF) se sont également engagés à verser leurs propres données LiDAR au programme national dans une logique de mutualisation de l’action publique.
Plusieurs conventions avaient déjà été signées depuis le lancement du programme pour contribuer à son financement. Dans le cadre du plan France Relance, le ministère de l’agriculture et de la souveraineté alimentaire a mobilisé 22 millions d’euros. Une autre convention de financement a été signée avec le Fonds pour la transformation de l’action publique (FTAP) dans le cadre d’un appel à projets compétitif pour financer les trois premières années du programme à hauteur de 21,55 millions d’euros. La Direction Générale de la Prévention des Risques du ministère de la transition écologique et de la cohésion des territoires soutient également le programme. À l’échelle locale, une convention de financement a été nouée avec la Région Provence-Alpes-Côte d’Azur et une autre avec le conseil départemental des Alpes-Maritimes. Enfin, une convention pour l’intégration de données LiDAR a été conclue avec le Syndicat départemental d’énergies et des déchets de la Haute-Marne (52).
Le LiDAR (LIght Detection And Ranging) est une technique de télémétrie (mesure de distance) qui utilise les propriétés de la lumière. Qu’il soit terrestre ou embarqué dans un avion, le LiDAR repose sur un même procédé d’acquisition : un scanner, dont la position et l’orientation sont mesurées en continu, émet vers un objet ou vers le sol des impulsions laser infrarouges à haute fréquence puis enregistre très précisément le temps écoulé entre l’émission de ces impulsions et leur retour à l’émetteur afin d’en déduire la position des points impactés. À raison de plusieurs centaines de milliers d’impulsions émises par seconde, l’appareil génère rapidement une grande quantité de points géoréférencés. Les données sont ensuite traitées pour élaborer des modèles numériques en 3D : modèles numériques de terrain (description altimétrique du sol), modèle numérique de surface (description altimétrique du sol et du sur-sol), etc.
Pour en savoir plus : consultez le site de l?IGN.
À propos de l’IGNL’Institut national de l’information géographique et forestière (IGN) est un établissement public placé sous la tutelle des ministères chargés de l’écologie et de la forêt. Sa vocation est de produire et diffuser des données (open data) et des représentations (cartes en ligne et papier, géovisualisation) de référence relatives à la connaissance du territoire national et des forêts françaises ainsi que de leur évolution. À travers son école d’ingénieur, ENSG-Géomatique, et à ses équipes de recherche, l’institut cultive un potentiel d’innovation de haut niveau dans de multiples domaines (géodésie, forêt, photogrammétrie, intelligence artificielle, analyse spatiale, visualisation 3D, etc.).
En savoir plus : [https:]
Cet article Les territoires, coproducteurs du référentiel LiDAR HD France entière est apparu en premier sur DécryptaGéo, l'information géographique.
-
15:00
OGC Compliance Certification now available for the GeoPose 1.0 Data Exchange Standard
sur Open Geospatial Consortium (OGC)The Open Geospatial Consortium (OGC) is excited to announce that the Executable Test Suite (ETS) for version 1.0 of the OGC GeoPose Data Exchange Standard has been approved by the OGC Membership. Products that implement OGC GeoPose 1.0 and pass the tests in the ETS can now be certified as OGC Compliant.
The OGC Compliance Program offers a certification process that ensures organizations’ solutions are compliant with OGC Standards. It is a universal credential that allows agencies, industry, and academia to better integrate their solutions. OGC Compliance provides confidence that a product will seamlessly integrate with other compliant solutions regardless of the vendor that created them.
Implementers of the GeoPose 1.0 Data Exchange Standard are invited to validate their products using the new test suite in the OGC validator tool. Testing involves submitting an OGC GeoPose 1.0 document produced by the product being assessed. These tests typically take only 5-10 minutes to complete. Once a product has passed the test, the implementer can apply to use the ‘OGC Compliant’ trademark on their product.
OGC GeoPose is a free and open Implementation Standard for exchanging the location and orientation of real or virtual geometric objects (“Poses”) within reference frames anchored to Earth’s surface (“Geo”) or within other astronomical coordinate systems. The Standard specifies a JavaScript Object Notation (JSON) encoding for representing conformant poses.
The GeoPose Standard specifies a number of conformance classes, most being optional. One conformance class is defined for each corresponding set of Structural Data Units (SDUs), where each SDU is linked to the Logical Model as an alias for a class or attribute. The following conformance classes from the OGC GeoPose 1.0 Data Exchange Standard (OGC 21-056r11) are supported by the ETS:
- Basic-YPR (Yaw-Pitch-Roll) SDU JSON
- Basic-Quaternion SDU JSON – Permissive
- Advanced SDU JSON
- Graph SDU JSON
- Chain SDU JSON
- Regular Series SDU JSON
- Stream SDU JSON
Some of the products implementing the GeoPose Standard that have already been certified as OGC Compliant include Away Team Software’s 3D Compass 1, OpenSitePlan’s SolarPose 1.0, and Ethar Inc.’s GeoPose C# Library 1.0. These products apply GeoPose in a wide variety of applications, such as Augmented Reality (AR), mobile Location Based Services (LBS), web APIs, and more. To implement GeoPose in your product, please refer to the OGC GeoPose 1.0 Data Exchange Standard document, freely available from OGC. Additional documentation is also available on the GeoPose website.
More information about the OGC compliance process, and how it can benefit your organization, is available at ogc.org/compliance. Implementers of the OGC GeoPose 1.0 Data Exchange Standard – or other OGC Standards – can validate their products now using the OGC Validator Tool.
The post OGC Compliance Certification now available for the GeoPose 1.0 Data Exchange Standard appeared first on Open Geospatial Consortium.
-
11:25
gvSIG Team: El Proyecto GVSIG, impulsado por la Generalitat Valenciana y la Asociación GVSIG, galardonado como mejor proyecto de software de Europa en los OSOR Awards
sur Planet OSGeoEl Proyecto GVSIG, una iniciativa conjunta de la Generalitat Valenciana y la Asociación GVSIG, ha sido distinguido con el primer premio en los OSOR Awards. Este galardón reconoce los logros excepcionales que ha logrado el proyecto GVSIG a nivel internacional y reflejan el compromiso continuo de la Generalitat Valenciana con la innovación y la colaboración.
Los OSOR Awards han sido organizados por el Observatorio de Software Libre (OSOR) de la Comisión Europea con motivo de su 15 aniversario, y han querido destacar los mejores proyectos impulsados por las administraciones públicas de toda Europa. En este contexto, GVSIG ha destacado entre todas las nominaciones, convirtiéndose en el ganador de los premios, en los que se ha destacado su impacto global y su contribución al desarrollo tecnológico europeo.
Según los organizadores de los premios se recibieron más de cien candidaturas de 23 países. Tras una primera fase, el jurado seleccionó los seis mejores proyectos, donde GVSIG compartía opciones con proyectos de España, Dinamarca, Italia y Francia. Durante el evento organizado en el día de ayer en Bruselas, los seis proyectos tuvieron que defender su candidatura ante el jurado de la Comisión Europea. Finalmente fue anunciado el ganador: el proyecto GVSIG presentado conjuntamente por la Generalitat Valenciana y la Asociación GVSIG.El Proyecto GVSIG es un catálogo de herramientas informáticas para gestión de información geográfica que desde su nacimiento en 2004 ha ido ganado reconocimiento por su versatilidad y utilidad en una variedad de sectores, desde la gestión de recursos naturales hasta la planificación urbana. La Generalitat Valenciana ha desempeñado un papel fundamental tanto en su impulso inicial como en el respaldo continuo al proyecto. La Asociación GVSIG, por su parte, ha desempeñado un papel esencial en la promoción y difusión de esta plataforma a nivel internacional, facilitando la generación y crecimiento de un sector empresarial valenciano especialista en tecnologías de información geográfica. Un ejemplo de colaboración público-privada que ahora obtiene el reconocimiento de Europa.
Este prestigioso galardón no solo reconoce el éxito del Proyecto GVSIG, sino que también destaca el compromiso de la Generalitat Valenciana y la Asociación GVSIG con la promoción de soluciones tecnológicas abiertas y accesibles, fomentando la innovación y la colaboración como motor de desarrollo.
GVSIG da solución a todas las necesidades relacionadas con la geolocalización y la administración del territorio. En la Generalitat Valenciana se multiplican sus usuarios y entre los diversos ejemplos de uso se encuentran desde aplicaciones para ayudar a proteger las praderas fanerógamas, la conocida posidonia, evitando fondear en zonas protegidas a aplicaciones de gestión del registro vitivinícola, pasando por soluciones para fomentar la movilidad sostenible mediante un planificador de rutas más versátil que el propio Google Maps o aplicaciones para analizar los accidentes de tráfico.
Si su uso es transversal en la Generalitat Valenciana, otro tanto ocurre a nivel global. Son innumerables las entidades de todo tipo que utilizan esta tecnología valenciana. En la presentación de los OSOR Awars se citaron varias de ellas. A nivel supranacional entidades como Naciones Unidas la han adoptado como tecnología de referencia en usos tan destacados como facilitar la seguridad de las misiones de los Cascos Azules en sus desplazamientos ante ataques terroristas. A nivel nacional ha sido igualmente adoptada, contando casos tan significativos como el del Gobierno de Uruguay, donde GVSIG es la base tecnológica para todos los proyectos de gestión y difusión de información territorial del país, habiendo servido también para crear un sistema único de direcciones. En Uruguay ha sido tal el nivel de adopción que en la educación secundaria es utilizada para el aprendizaje de las materias relacionadas con la geografía. Su uso a nivel regional y local nos lleva a citar ejemplos como el del Estado de Tocantins en Brasil, donde se ha convertido en la plataforma de gestión geográfica y estadística o el Gobierno de Córdoba en Argentina, donde es utilizada para analizar los datos de criminalidad y seguridad ciudadana. Y donde todavía está más implantada es en las administraciones locales, donde GVSIG está siendo adoptada a gran velocidad por decenas de ayuntamientos de toda España; los últimos han sido los Ayuntamientos de Alicante, Albacete, Cartagena y Talavera de la Reina. Solo en la Comunidad Valenciana el número de ayuntamientos que confían en GVSIG es innumerable: Cullera, Onda, Picassent, L’Eliana, La Pobla de Vallbona, Nàquera, Alzira, Benicarló… e igualmente otras entidades valencianas han adoptado GVSIG como el Consorcio Provincial de Bomberos de Valencia, donde su uso se centra en la gestión de emergencias. Y más allá de la administración pública, cuya relación con el territorio es directa, GVSIG también ha entrado a formar parte de las soluciones informáticas que utilizan empresas que trabajan con información geoposicionada, como es el caso de Repsol que hace un uso extensivo de GVSIG en su división de energías renovables.
El premio otorgado a la Generalitat Valenciana y a la Asociación GVSIG se suma a otros galardones obtenidos anteriormente, de entidades tan diversas como el Diario Expansión o la NASA.
GVSIG es un referente en lo que se ha denominado Infraestructuras de Datos Espaciales, la puesta en marcha de plataformas que permitan a las administraciones públicas compartir su información geográfica mediante estándares.
El impacto del proyecto tiene numerosas derivadas, a nivel académico se imparte formación en GVSIG en universidades de todo el mundo, se publican anualmente cientos de artículos científicos donde se utiliza GVSIG como herramienta de los investigadores, se multiplican las conferencias y eventos donde se presentan todo tipo de proyectos desarrollados con GVSIG.
GVSIG, un proyecto basado en el conocimiento libre, ejemplo de colaboración público-privada que sitúa a Valencia como uno de los indiscutibles polos de referencia en el ámbito de la geomática, la tecnología aplicada a la dimensión geográfica de la información. El premio obtenido ayer es un reconocimiento a todo el camino recorrido.
Recientemente ha sido nominado al Premio Nacional de Ciencias Geográficas, todavía por resolver. Lo que nos han confirmado fuentes de la Asociación gvSIG es que esta candidatura ha recibido más de 150 cartas de apoyo de entidades de todo el mundo, desde el Departamento de Transporte de Washington al Ordnance Survey, la agencia cartográfica del Reino Unido. -
9:24
gvSIG Team: The GVSIG Project, driven by the Generalitat Valenciana and the GVSIG Association, awarded as the best software project in Europe at the OSOR Awards
sur Planet OSGeoThe GVSIG Project, a joint initiative of the Generalitat Valenciana and the GVSIG Association, has been honored with the first prize at the OSOR Awards. This award recognizes the exceptional achievements of the GVSIG project on an international level and reflects the ongoing commitment of the Generalitat Valenciana to innovation and collaboration.
The OSOR Awards were organized by the Observatory of Open Source Software (OSOR) of the European Commission on the occasion of its 15th anniversary, aiming to highlight the best projects driven by public administrations throughout Europe. In this context, GVSIG stood out among all nominations, becoming the winner of the awards, emphasizing its global impact and contribution to European technological development.
According to the award organizers, over a hundred nominations from 23 countries were received. After an initial phase, the jury selected the top six projects, where GVSIG competed alongside projects from Spain, Denmark, Italy, and France. During the event held yesterday in Brussels, the six projects had to defend their candidacy before the European Commission’s jury. Finally, the winner was announced: the GVSIG project jointly presented by the Generalitat Valenciana and the GVSIG Association.
The GVSIG Project is a catalog of computer tools for geographic information management that, since its inception in 2004, has gained recognition for its versatility and usefulness in various sectors, from natural resource management to urban planning. The Generalitat Valenciana has played a fundamental role in both its initial promotion and continuous support for the project. The GVSIG Association, in turn, has played an essential role in promoting and disseminating this platform internationally, facilitating the generation and growth of a Valencian business sector specializing in geographic information technologies. An example of public-private collaboration that now receives recognition from Europe.
This prestigious award not only acknowledges the success of the GVSIG Project but also highlights the commitment of the Generalitat Valenciana and the GVSIG Association to promoting open and accessible technological solutions, fostering innovation and collaboration as drivers of development.
GVSIG addresses all needs related to geolocation and territory management. Its users in the Generalitat Valenciana are multiplying, and among various use cases are applications to help protect seagrass meadows, such as the well-known posidonia, by avoiding anchoring in protected areas, applications for managing the vineyard registry, and solutions to promote sustainable mobility through a route planner more versatile than Google Maps itself, or applications to analyze traffic accidents.
If its use is widespread in the Generalitat Valenciana, the same is true globally. Countless entities of all kinds use this Valencian technology. Several were mentioned in the presentation of the OSOR Awards. At the supranational level, entities like the United Nations have adopted it as a reference technology for prominent uses, such as enhancing the security of Blue Helmets’ missions during their travels in the face of terrorist attacks. Nationally, it has been similarly adopted, with significant cases such as the Government of Uruguay, where GVSIG is the technological basis for all territorial information management and dissemination projects in the country, also serving to create a unique addressing system. In Uruguay, its adoption is so extensive that it is used in secondary education for learning subjects related to geography. Its use at the regional and local levels leads to examples such as the State of Tocantins in Brazil, where it has become the platform for geographic and statistical management, or the Government of Córdoba in Argentina, where it is used to analyze crime and public safety data. It is even more deeply entrenched in local administrations, with GVSIG being rapidly adopted by dozens of municipalities throughout Spain, including the recent additions of the municipalities of Alicante, Albacete, Cartagena, and Talavera de la Reina. In the Valencian Community alone, the number of municipalities trusting GVSIG is countless: Cullera, Onda, Picassent, L’Eliana, La Pobla de Vallbona, Nàquera, Alzira, Benicarló, and many other Valencian entities have also adopted GVSIG, such as the Provincial Fire Consortium of Valencia, where its use focuses on emergency management. Beyond the public administration, whose relationship with the territory is direct, GVSIG has also become part of the computer solutions used by companies working with geopositioned information, such as Repsol, which extensively uses GVSIG in its renewable energy division.
The award granted to the Generalitat Valenciana and the GVSIG Association adds to other accolades previously obtained from diverse entities such as Diario Expansión or NASA.
GVSIG is a reference in what is called Spatial Data Infrastructures, the implementation of platforms that allow public administrations to share their geographic information through standards.
The impact of the project has numerous ramifications; academically, GVSIG training is offered at universities worldwide, hundreds of scientific articles are published annually using GVSIG as a tool by researchers, and conferences and events showcasing various projects developed with GVSIG abound.
GVSIG, a project based on free knowledge, is an example of public-private collaboration that positions Valencia as one of the undisputed reference hubs in the field of geomatics, technology applied to the geographic dimension of information. The award obtained yesterday is recognition for the entire journey taken.
Recently, it has been nominated for the National Geographic Sciences Award, still pending resolution. Sources from the GVSIG Association have confirmed that this candidacy has received more than 150 letters of support from entities worldwide, from the Department of Transportation in Washington to the Ordnance Survey, the cartographic agency of the United Kingdom.
-
8:35
Sensibiliser les jeunes au changement climatique, à la migration et à l'inégalité de genre grâce au serious game CartODD !
sur CartONG (actualités)Notre équipe de jeunes bénévoles et volontaires en service civique a développé le serious game CartODD pour sensibiliser les jeunes aux conséquences du changement climatique et des inégalités de genre au travers des principes de la cartographie participative. Découvrez-en plus sur ce jeu dans ce court article !
-
8:22
America is a Jigsaw
sur Google Maps ManiaIf you want a little Thanksgiving fun today then you should play TripGeo's State Locator game. State Locator is an interactive map of the United States. A map which you have to assemble yourself based on the shapes of the individual states and a few image clues.At the beginning of the game you are presented with a random state. Your job is to place this state onto a blank map of the United
-
20:42
Quelques mots sur le SIR
sur Veille cartographieCet article Quelques mots sur le SIR est apparu en premier sur Veille cartographique 2.0.
Le système d’information routier (SIR) est un SIG dédié au réseau routier. C’est un outil pertinent dans l’usage de traitement des données routières sous différentes formes comme la gestion et la planification des réseaux routiers. Cet outil permet la collecte, le stockage, l’analyse et la diffusion de données sur les infrastructures routières, la circulation, la […]
Cet article Quelques mots sur le SIR est apparu en premier sur Veille cartographique 2.0.
-
17:41
Articque, spécialiste des solutions géodécisionnelles présente ses logiciels Cartes & Données Online et Articque Platform
sur Décryptagéo, l'information géographiqueLa cartographie statistique sur ordinateur est née de la nécessité d’étudier les données géolocalisées sous une forme graphique.Depuis plus de 30 ans, Articque est à la pointe de cette discipline innovante, avec toujours la même exigence : créer des cartes optimales qui conduisent à questionner les résultats obtenus pour les remettre en cause et avancer plus loin. Les résultats bruts ne suffisent pas : ses solutions font véritablement « parler » les chiffres.
L’organigramme, au cœur de sa gamme Cartes & Données, fournit ainsi une trame facile à suivre dans laquelle l’utilisateur peut modifier à volonté le raisonnement, les données et les cartes pour tester ses hypothèses et visualiser le résultat. Il produit ainsi une cartographie spécifique pour chaque problématique, fruit de son analyse personnelle et de ses simulations.
Plus de 30 ans d’expertise dans la cartographie décisionnelleArticque est une société française basée à Fondettes (près de Tours) et fondée en 1989 par Georges-Antoine Strauch. Elle est spécialisée dans la conception d’outils de cartographie statistique sur ordinateur, et permet à ses clients d’intégrer facilement la dimension géographique dans leurs réflexions menant à une prise de décision stratégique.
Ses deux produits phares, Cartes & Données Online et Articque Platform, sont notamment utilisés dans divers secteurs : banque et finance, cabinet de conseil, santé, automobile, pharmaceutique ou encore commerce et distribution. Ils servent à piloter les activités, améliorer la performance commerciale, optimiser l’implantation d’un réseau de points de vente ou encore produire des portraits de territoires.
Avec les solutions d’Articque, il est possible de réaliser des applications de pilotage et de suivi de plans d’actions, outils indispensables d’aide à la décision.
Dans le cas de la performance commerciale, les outils d’Articque ont plusieurs utilités : ils servent à gérer la force de vente, à améliorer les résultats commerciaux, à optimiser les secteurs commerciaux sous diverses contraintes (nombre maximum de clients ou de prospects, temps de trajet maximum…). Ces outils permettent ainsi de définir des territoires commerciaux équilibrés, de bâtir des objectifs cohérents avec la réalité du terrain et son potentiel.
En matière de géomarketing, les solutions d’Articque aident à étudier le maillage géographique d’un réseau composé de points de vente, d’usines, de fournisseurs, de services après-vente, etc. Elles sont précieuses lorsqu’il faut décider de l’implantation ou de la fermeture d’un point de vente, analyser des zones de chalandise, ou étudier une clientèle cible.
Les solutions d’Articque sont aussi utilisées par des collectivités ou des administrations pour créer des observatoires statistiques territoriaux dans le but de valoriser des données locales ou encore de réaliser des portraits de territoires. On met ainsi en avant des projets locaux dans des domaines spécifiques (habitat, urbanisme, infrastructures…).
Pionnier de la cartographie statistique en France, Articque a su adapter son offre aux évolutions constantes du marché et tenir compte des habitudes des utilisateurs. Originellement disponibles sur Mac, puis PC, ses solutions sont aujourd’hui accessibles en mode SaaS, depuis un navigateur web. Cette évolution illustre la volonté de la société de rendre le géodécisionnel accessible à tous grâce notamment aux tableaux de bord dynamiques aidant à la prise de décision.
Focus sur les produits phares d’ArticqueLa cartographie statistique permet de mettre en lumière des faits impossibles à détecter dans des graphiques ou tableaux. Le pouvoir de synthèse de la carte offre une mine d’informations aux décideurs. Ils y décèlent en un coup d’œil des gisements de productivité et identifient les territoires où agir en priorité. Idéal pour établir des bilans et proposer des plans d’actions efficaces quel que soit le domaine d’analyse : performance des ventes, études d’implantations, rationalisation des coûts, analyses statistiques, environnementales ou sociales.
Cartes & Données OnlineCartes & Données Online est la solution géodécisionnelle en cloud, hébergée en France. Elle concentre toutes les fonctionnalités pour localiser et analyser ses données, réaliser des simulations et diffuser ses cartes. Elle comprend un accompagnement personnalisé avec les experts Articque (entretien de prise en main, support illimité, entretien-conseil avec un cartographe, mises à jour automatiques).
Articque PlatformArticque Platform est la solution privative pour intégrer le géodécisionnel au cœur de toute l’entreprise. Cette plateforme est la solution recommandée pour mener des projets d’études et de pilotage transversaux, et répond aux attentes des organisations qui souhaitent garder la maîtrise de l’installation et de l’administration de leurs solutions.
Articque Platform s’intègre parfaitement au Système d’Information décisionnel (SI) de l’entreprise et se connecte facilement à ses sources de données. Cette solution a été pensée pour les organisations de grande taille avec de fortes contraintes informatiques et de sécurité (banques, assurances, Ministères…).
DataComposer : la nouveauté de 2022DataComposer est une nouvelle brique qui enrichit Cartes & Données Online et Articque Platform.
Jusqu’à présent, les outils de data preparation étaient réservés aux spécialistes ou aux informaticiens. Articque rend cette pratique plus accessible et plus simple aux utilisateurs métier, alors que les données nécessitent de plus en plus d’être travaillées. En effet on dispose de toujours plus de données de sources diverses qu’il faut enrichir, normaliser, corriger…
DataComposer a donc de nombreux avantages :
- Volumétrie.
- Traitements automatisés.
- Rechargement sélectif.
- Connexion multi-sources.
Avec DataComposer, Articque se hisse au niveau des solutions de BI (Business Intelligence) avec un axe de différenciation majeur : la possibilité d’agir directement sur les données, de réaliser des simulations et de tester ses hypothèses en les visualisant directement sur la carte. Les utilisateurs peuvent ainsi choisir la solution optimale en fonction de leur contexte géographique et de leurs contraintes d’entreprise.
Les formations et l’accompagnementLes formations
Articque propose des formations autour de ses solutions, véritables séances de travail sur les besoins métier de ses clients. Ceux-ci travaillent avec leurs données et sortent de la formation avec des cartes et analyses opérationnelles. Chaque année, Articque forme plus de 300 personnes.
L’accompagnement
Articque apporte une attention particulière au suivi de ses clients et à la résolution de leurs problèmes pour établir de vrais partenariats qualitatifs. Chacune de ses solutions s’accompagne d’un abonnement qui inclut les services suivants :
- Support technique et assistance illimitée ;
- Entretien de prise en main ;
- Entretiens trimestriels gratuits ;
- Mises à jour automatiques.
Des solutions tout-en-un. Articque propose des solutions complètes et prêtes à l’emploi. Cartes & Données Online et Articque Platform s’accompagnent ainsi de contours et fonds de cartes France et Monde, d’un géocodeur, de jeux de données entreprises ou socio-démographiques.
Des outils prédictifs. Contrairement aux solutions de Business Intelligence ou de SIG, les outils d’Articque permettent d’agir directement sur les données, de tester ses hypothèses, et d’analyser leurs retombées directement sur la carte pour choisir la meilleure option. Ils permettent ainsi, par exemple, de trouver le meilleur emplacement pour un point de vente, de refaire un découpage commercial ou de mesurer l’impact de la fermeture d’un magasin sur les ventes.
Des logiciels pensés pour les utilisateurs métier. A la différence des outils de BI ou de SIG, les outils d’Articque sont pensés pour des utilisateurs métiers pas forcément habitués à faire des statistiques poussées. De plus, ils sont no-code : pas besoin de coder pour réaliser des analyses ou des cartes interactives. Articque a également développé des « Wizards » qui permettent aux utilisateurs formés de créer des applications sur mesure pour des collaborateurs novices.
Des clients satisfaits et fidèles. Pour mesurer la satisfaction client, Articque utilise le NPS (Net Promoter Score), indicateur utilisé pour connaître la propension de clients prêts à recommander un produit ou service. Le score obtenu permet d’évaluer la satisfaction et la fidélité moyenne d’une clientèle. En 2022, les produits Articque affichent un NPS de 66, supérieur au NPS moyen de 30 observé dans le secteur du SaaS. 97 % des clients d’Articque renouvellent leur abonnement chaque année. Les clients actuels utilisent ses solutions depuis 7 ans en moyenne. Ils sont également très satisfaits des formations, auxquelles ils attribuent une note moyenne de 17,8/20, et apprécient beaucoup l’accompagnement fourni, soulignant la réactivité, la disponibilité, et l’expertise de l’équipe d’Articque.
Des logiciels validés par la communauté scientifique
Articque dispose d’un comité scientifique qui a pour vocation de garantir la qualité irréprochable de ses produits et applications. Ce comité a été sollicité à la création de la première version de Cartes & Données pour accompagner le développement du logiciel et vérifier le bon usage de la sémiologie graphique et des règles scientifiques.
Articque : une entreprise engagéeArticque favorise le bien-être au travail de ses collaborateurs : l’entreprise a mis en place le télétravail dès 1995 ; mesure qui s’est généralisée en 2021 et tous ses employés peuvent choisir d’en profiter de 1 à 4 jours par semaine… Sauf le lundi puisque cette journée est destinée à créer du lien entre les équipes et à les rassembler autour d’un repas convivial, offert par l’entreprise. L’entreprise a également déployé un plan d’intéressement depuis 2005.
De plus, depuis sa création, Articque a mis en place des actions qui s’inscrivent dans la RSE :
- Elle participe à des initiatives sociales, comme la collecte de jouets pour le Secours Populaire et le don de tickets restaurant aux Restos du Cœur, lutte contre les discriminations (égalité homme/femme, parité, recrutements de stagiaires réfugiés de pays défavorisés…) et soutient financièrement plusieurs associations dont la WWF, la Ligue de Protection des Oiseaux, et le Téléthon.
- Elle protège l’environnement en équipant chaque poste de travail d’une poubelle de tri sélectif, en limitant sa consommation de papier et en mettant à la disposition de ses salariés un abri à vélo.
Du côté de sa gamme de produits, Articque propose deux programmes pour démocratiser l’utilisation de la cartographie statistique :
- Son programme GéoCampus est gratuit pour les étudiants et enseignants pendant l’année scolaire. Créé en 2004, il remporte un vif succès puisqu’en 2021, plus de 600 étudiants et professeurs en ont bénéficié. Il s’accompagne de l’offre Tremplin qui permet aux anciens de GéoCampus de s’équiper de Cartes & Données Online à moindre coût, une fois rentrés dans la vie active.
- Son programme GéoNews est gratuit pour les journalistes et blogueurs, qui peuvent s’en servir pour illustrer leurs articles de cartographies thématiques de niveau scientifique.
- Site web : [https:]]
- Cartes & Données Online : [https:]]
- Articque Platform : [https:]]
- Témoignages clients : [https:]]
- Facebook : [https:]]
- LinkedIn : [https:]]
- Twitter : [https:]]
- Youtube : [https:]]
Contact Presse
Georges-Antoine Strauch
Téléphone : 06 10 18 61 29
Email : gas@articque.comCet article Articque, spécialiste des solutions géodécisionnelles présente ses logiciels Cartes & Données Online et Articque Platform est apparu en premier sur DécryptaGéo, l'information géographique.
-
15:51
Une nouvelle méthode opérationnelle pour surveiller le dépérissement des chênes en région Centre-Val de Loire
sur Séries temporelles (CESBIO)Les résultats présentés ici sont issus des travaux publiés dans l’article: F. Mouret, D. Morin, H. Martin, M. Planells and C. Vincent-Barbaroux, « Toward an Operational Monitoring of Oak Dieback With Multispectral Satellite Time Series: A Case Study in Centre-Val De Loire Region of France, » in IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, doi: https://doi.org/10.1109/jstars.2023.3332420
Contexte et introductionLe dépérissement forestier se caractérise par une diminution de la vitalité des arbres (déficit foliaire, perte de ramifications et de branches), pouvant aller jusqu’à leur mort. Il est causé par une combinaison de facteurs (sol, climat, ravageur, …) pouvant se succéder et/ou se combiner, provoquant une perte de santé dans des peuplements entiers.
Le changement climatique, un facteur aggravantLe changement climatique a un impact direct sur les forêts. Les principaux facteurs en cause sont l’augmentation des températures et des phénomènes météorologiques extrêmes ainsi qu’une modification des précipitations. Les arbres, plus vulnérables, sont donc plus sensibles aux attaques de ravageurs et aux parasites, eux même favorisés par l’augmentation des températures.
Figure 1: Taux d’arbres morts sur pied par essence (période 2015-2019). Source : IGN ( [https:]] ) Étude de cas : le dépérissement des chênes en Centre-Val de LoireLe chêne sessile et pédonculé, des espèces emblématiques des forêts françaises et particulièrement présentes en région Centre-Val de Loire, sont touchés par une augmentation massive des dépérissements. Cette augmentation fait suite aux sécheresses successives de ces dernières années (en particulier 2018/2019/2020) et devrait continuer dans les décennies à venir. Concernant la vitesse des dépérissements, celui du chêne est un processus lent et diffus contrairement à d’autres espèces (par exemple, les attaques de scolytes sur épicéa), ce qui rend son suivi particulièrement délicat.
Mise en place d’un système de suivi opérationnel basée sur la chaîne de traitement iota2Dans ce contexte, un état des lieux est nécessaire afin d’adapter au mieux les réponses à apporter par la filière forestière. Dans le cadre du projet RECONFORT de l’ARD SYCOMORE, programme de recherche financé par la région Centre-Val de Loire, un système de suivi opérationnel du dépérissement du chêne a donc été mis au point par l’Université d’Orléans et le CESBIO. Ce suivi est réalisé à l’aide d’images satellites Sentinel-2, qui présentent des avantages évident pour ce type d’applications : grande revisite temporelle et résolution spatiale adaptée à des détections fines. La chaîne de traitement se base sur iota2, développée au CESBIO pour la cartographie large échelle à l’aide de séries temporelles d’images satellite. L’utilisation de iota2 permet d’avoir une chaîne de production facilement transférable et/ou utilisable par différents utilisateurs (voir par exemple notre package de production de cartes de dépérissement). Dans le cadre de notre étude, la chaîne iota2 a été adaptée à nos besoins. En particulier, l’étape d’apprentissage du modèle est effectuée en dehors de la chaîne afin de pouvoir utiliser des exemples d’apprentissage provenant de plusieurs années différentes (voir la Section Méthode).
Zone d’étude et données d’apprentissageNotre zone d’étude correspond à la région Centre-Val de Loire et ses environs (voir Figure 2). Les données d’apprentissages sont des placettes (20 arbres) labellisées entre les année 2017 et 2022 à l’aide du protocole DEPERIS, utilisé par le Département de la santé des forêts (DSF) en France. En prenant en compte le taux de mortalité de branches et le manque de ramification, ce protocole associe à un arbre une note allant de A (sain) à F (mort). Une note de D correspond à un arbre dépérissant et traduit une perte de plus de 50% de son houppier. Une placette est considérée dépérissante lorsque plus de 20% des arbres sont dépérissants (c’est la convention adoptée par les forestiers en France). En pratique, nous avons séparé les placettes en 3 catégories en fonction du pourcentage d’arbres dépérissants : saines (moins de 20%), dépérissantes (entre 20 et 50%) et très dépérissantes (+50%). Au total, plus de 2700 placettes de référence ont été utilisées, la moitié ayant été labellisées en 2020 lors d’une enquête nationale menée par le DSF.
Figure 2 : La région d’étude est délimitée par la zone grise. La frontière de la région Centre-Val de Loire et de ses départements est en blanc. Enfin, les points de couleur localisent les données de référence, chaque couleur représentant une année de notation. L’arrière-plan utilise des images S2 sans nuage (Mouret et al., 2023). MéthodeLa chaîne de traitement élaborée pour l’apprentissage d’un modèle de détection du dépérissement sur le chêne est détaillée Figure 3. Une des particularités de notre approche est l’élaboration d’une base d’apprentissage multi-annuel, permettant d’obtenir un modèle de prédiction utilisable sur plusieurs années différentes. Cette approche multi-annuelle est motivée par la volonté de 1) mettre à profit la disponibilité de références terrain acquises sur plusieurs années et 2) continuer les prédictions dans les années à venir sans avoir besoin de recalibrer le modèle appris.
Dans un premier temps, nous avons étudié différents indices spectraux calculés à partir d’images Sentinel-2 afin de repérer ceux qui étaient les mieux adaptés au suivi du dépérissement du chêne. Deux indices différents et complémentaires ont été choisis : un lié au contenu en chlorophylle et l’autre lié au contenu en eau de la végétation analysée. En passant à la production des cartes, nous nous sommes aperçus que les prédictions du modèle appris sur nos données brutes avaient tendance à osciller entre prédictions optimistes (carte avec une majorité de pixels sains) et pessimistes (carte avec plus de pixels dépérissants). Ces oscillations sont causées par des variations phénologiques et un déséquilibre de nos données d’apprentissage: par exemple, les prédictions pour l’année 2020 ayant une grande proportion de données d’apprentissage saines sont plus optimistes que l’année 2021 qui a une proportion de données d’apprentissage dépérissantes plus importante. Pour améliorer la stabilité de notre modèle de prédiction (et ses performances), nous avons augmenté nos données d’apprentissage en utilisant une technique simple et intuitive qui peut se résumer avec les deux règles suivantes : Règle 1: une placette saine l’année Y était très probablement saine les années Y-1 et Y-2, Règle 2 : une placette dépérissante l’année Y va très probablement continuer à dépérir l’année Y+1 et Y+2. En pratique (voir détails dans l’article complet), le modèle de classification utilisé est Random Forest et les données d’entrées sont des séries temporelles sur deux années consécutives des deux indices de végétation issus d’image Sentinel-2 décrit plus haut. Une étape d’équilibrage du jeu d’apprentissage est également effectuée grâce à l’algorithme SMOTE, qui permet de générer des exemples synthétiques dans les classes minoritaires.
Figure 3 : chaîne de traitement proposée (Mouret et al., 2023) RésultatsNos résultats de validation montrent qu’il est possible de détecter avec précision le dépérissement du chêne (overall accuracy = 80 % et balanced accuracy = 79 %). Une validation croisée spatiale a également été effectuée avec un tampon de 10 km pour évaluer les performances du modèle sur des régions qui n’ont jamais été rencontrées pendant l’entraînement (quelque soit les années). Dans ce cas là, une légère diminution des performances a été observée ( ? 5 %). La Figure 4 montre la carte produite pour l’année 2022. Elle met en avant l’hétérogénéité de l’état sanitaire au sein de la région : la Sologne au centre de l’image est par exemple très dépérissante alors que le nord-ouest est peu affecté. N’ayant pas à notre disposition de masque chêne de grande qualité, nous avons décidé d’utiliser le masque feuillus OSO (des études préliminaires nous ont d’ailleurs montré que les cartes produites sont assez pertinentes sur les feuillus en général). En utilisant le masque de chêne « BD forêt V2 (IGN) » , le pourcentage de pixels dépérissants est passé de 15% en 2019 à 25% en 2022 (ces résultats sont à prendre avec précaution et sont probablement pessimistes, puisque le masque est ancien et que nous ne disposons pas d’un masque pour les coupes rases).. Des parcelles homogènes (en rouge) sont visibles et correspondent en général à des coupes. Les Figures 5 et 6 nous permettent d’apprécier plus en détail la finesse spatiale de l’analyse et l’évolution temporelle des dépérissements dans des zones situées dans les forêts domaniales d’Orléans et de Tronçais. En particulier, nous pouvons constater l’évolution parfois très rapide et étendue des dépérissements d’une année à l’autre.
Figure 4 : Cartographie de l’état sanitaire des peuplements feuillus pour l’année 2022. En cyan, orange et en rouge les pixels sains, dépérissants et fortement dépérissants. Le masque de la carte d’occupation du sol OSO 2021 pour les peuplements feuillus a été utilisé.Ces travaux mettent en avant l’intérêt de l’imagerie Sentinel-2 pour le suivi systématique de la santé des forêts. Compte tenu du caractère diffus du phénomène observé, l’utilisation de méthode supervisée (ici Random Forest) s’est avérée nécessaire. Une particularité de notre approche est l’élaboration d’un modèle multi-annuel assez stable pour être utilisé plusieurs années successives. De nombreuses perspectives et pistes d’amélioration sont possibles. En particulier, il serait intéressant d’automatiser l’étape d’augmentation de données afin de remplacer les règles (rigides) appliquées actuellement. Un passage à l’échelle nationale pourrait être envisageable compte tenu de la relative robustesse du modèle pour la prédiction sur plusieurs années et sur des zones en dehors de la région d’apprentissage. Passer à un modèle feuillus et non spécifique au chêne pourrait également permettre de fournir un produit plus généraliste. Enfin, l’ajout d’images Sentinel-1 est une autre piste de recherche intéressante afin d’évaluer si la complémentarité entre les deux satellites est pertinente pour notre cas d’usage.
RemerciementsNous remercions chaleureusement l’équipe iota2 du CESBIO (A. Vincent, H. Touchais, M. Fauvel, J. Inglada, etc.) et le CNES. Nous remercions également les divers participants du projet RECONFORT (liste non exhaustive) : ONF (J. Mollard, A. Jolly, M. Boulogne), CNPF (M. Chartier, J. Rosa), Unisylva (E. Cacot, M. Bastien), DSF (T. Belouard, FX. Saintonge, S. Laubray), INRAe (JB. Féret, S. Perret) et l’EI de Purpan (V. Cheret et JP. Denux). Ce travail a bénéficié d’une aide au titre du programme Ambition Recherche et Développement (ARD) SYCOMORE financé par la région Centre-Val de Loire.
-
15:42
A new operational method for monitoring oak dieback in the Centre-Val de Loire region
sur Séries temporelles (CESBIO)=>The results presented here are based on work published in the journal paper: F. Mouret, D. Morin, H. Martin, M. Planells and C. Vincent-Barbaroux, « Toward an Operational Monitoring of Oak Dieback With Multispectral Satellite Time Series: A Case Study in Centre-Val De Loire Region of France, » in IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, doi: https://doi.org/10.1109/jstars.2023.3332420
IntroductionForest dieback is characterized by a reduction in tree vitality (defoliation, loss of branches and twigs), which may lead to death. It is caused by a combination of factors (soil, climate, pests, etc.) that can occur in sequence and/or in combination, leading to a loss of health in entire stands.
Climate change, an aggravating factorClimate change has a direct impact on forests. The main factors are rising temperatures, extreme weather events and changes in rainfall patterns. Trees become more fragile and therefore more susceptible to pests and parasites, which are themselves favored by rising temperatures.
Sessile and pedunculate oaks, emblematic species of French forests and particularly present in the Centre-Val de Loire region, are affected by a massive increase in dieback. This increase follows the successive droughts of recent years (in particular 2018/2019/2020) and will continue in the coming decades. Unlike dieback in other species (e.g. bark beetle attacks on spruce), oak dieback is a slow and diffuse process that is particularly difficult to monitor.
Implementation of an operational monitoring system based on the iota2 processing chainIn this context, timely mapping of forest health is needed to best tailor the responses of the forest sector. Within the RECONFORT project of ARD SYCOMORE, a research program financed by the Centre-Val de Loire region, an operational monitoring system for oak decline has been developed by the University of Orléans and CESBIO. This monitoring system uses Sentinel-2 satellite imagery, which offers obvious advantages for such an application: high temporal revisit and spatial resolution suitable for precise detection. The processing chain is based on iota2, developed at CESBIO for large-scale mapping with satellite image time series. The use of iota2 means that the production chain is easily transferable and usable by different users (see, for example, our package for the production of dieback maps). In the context of our study, the iota2 chain was adapted to our needs. In particular, the model learning step is performed outside the chain, so that learning examples from several different years can be used (see Methods section).
Study area and reference dataOur study area corresponds to the Centre-Val de Loire region and its surroundings (see Figure 2). The training data are plots (20 trees) labeled between 2017 and 2022 according to the DEPERIS protocol used by the Département de la Santé des Forêts (DSF, Department of Forest Health) in France. Taking into account branch mortality and lack of ramification, this protocol assigns to each tree a grade ranging from A (healthy) to F (dead). A grade of D corresponds to a declining tree with a loss of more than 50% of its crown. A plot is considered to be affected by dieback if more than 20% of the trees are declining (this is the convention used by foresters in France). In practice, we divided the plots into 3 categories according to the percentage of declining trees: healthy (less than 20%), declining (between 20 and 50%) and very declining (+50%). In total, more than 2,700 reference plots were used, half of which were labeled in 2020 during a national survey conducted by the DSF.
Figure 2 : The study region is delimited by the grey area. The boundaries of the Centre-Val de Loire region and its departments are shown in white. Finally, the colored dots locate the reference data, each color representing a year of rating. The background uses cloud-free S2 images (Mouret et al., 2023). MethodThe processing chain developed for oak dieback detection is detailed in Figure 3. A contribution of our approach is the development of a multi-year learning set, which makes it possible to obtain a prediction model that can be used to predict dieback over several years. The main motivations for this multi-year approach were 1) to take advantage of the availability of plot references acquired over several years, and 2) to continue predicting in future years without the need to recalibrate the prediction model.
As a first step, we studied different spectral indices extracted from Sentinel-2 images to identify those most suitable for monitoring oak dieback. Two complementary indices were selected: one related to chlorophyll content and the other to water content of the vegetation. As for the map production, we found that the predictions of the model learned from our raw data tended to oscillate between optimistic predictions (map with a majority of healthy pixels) and pessimistic ones (map with more dieback detected). These oscillations are caused by phenological variations and an imbalance in our training data. For example, predictions for the year 2020, which has a high proportion of healthy training data, are more optimistic than those for the year 2021, which has a higher proportion of declining training data. To improve the stability of our classifier (and its performance), we expanded our training data using a simple and intuitive procedure that can be summarized by the following two rules. Rule 1: a plot that was healthy in year Y was most likely healthy in years Y-1 and Y-2. Rule 2: a plot that was declining in year Y will most likely continue to decline in years Y+1 and Y+2. In practice (see details in the full article), the classification model used is a Random Forest and the input data are time series over two consecutive years of the two vegetation indices derived from the Sentinel-2 image described above. The training set is also balanced using the SMOTE algorithm, which generates synthetic examples in the minority classes.
Figure 3 : proposed processing chain (Mouret et al., 2023) ResultsOur validation results show that it is possible to accurately detect oak dieback (average overall accuracy = 80% and average balanced accuracy = 79%). A spatial cross-validation was also conducted with a buffer of 10km to evaluate the performance of the model on regions that were never encountered during training across all years, resulting in a slight decrease in accuracy ( ? 5%). Figure 4 shows the map produced for the year 2022. It highlights the heterogeneous state of forest health within the region: the Sologne region in the center of the image, for example, is in severe decline, while the northwest is less affected. As we did not have a high quality oak mask, we decided to use the OSO deciduous mask (preliminary studies have shown that the maps produced are quite relevant for deciduous trees in general). Looking at the oak mask « BD forêt V2 (IGN)« , the percentage of pixels in decline has increased from 15% in 2019 to 25% in 2022 (these results should be taken with caution and are probably pessimistic since the mask is old and we do not have a proper mask for clear cuts). Homogeneous plots (in red) are visible and generally correspond to clear-cuts. Figures 5 and 6 allow us to appreciate in more detail the spatial resolution of the analysis and the temporal evolution of the dieback in areas located in the state forests of Orléans and Tronçais. In particular, we can see how quickly and extensively dieback can change from one year to the next.
This work highlights the value of Sentinel-2 imagery for systematic forest health monitoring. Given the diffuse nature of the observed phenomenon, the use of a supervised method (here Random Forest) proved necessary. A particular feature of our approach is the development of a multi-year model that is stable enough to be used for several consecutive years. There are still many opportunities for improvement. In particular, it would be interesting to automate the data expansion stage to replace the (rigid) rules currently used. Mapping at national scale is another perspective, given the relative robustness of the model for prediction over several years and over areas outside the learning region. Switching to a deciduous model, not specific to oak, could also provide a more general production. Finally, the addition of Sentinel-1 imagery could be done to investigate whether the complementarity of the two satellites is relevant to our use case.
AcknowledgementsOur warmest thanks go to the iota2 team at CESBIO (A. Vincent, H. Touchais, M. Fauvel, J. Inglada, etc.) and to CNES. We would also like to thank the various participants in the RECONFORT project (non-exhaustive list): ONF (J. Mollard, A. Jolly, M. Boulogne), CNPF (M. Chartier, J. Rosa), Unisylva (E. Cacot, M. Bastien), DSF (T. Belouard, FX. Saintonge, S. Laubray), INRAe (JB. Féret, S. Perret) and EI de Purpan (V. Cheret and JP. Denux). This work was supported by the Ambition Recherche et Développement (ARD) SYCOMORE program funded by the Centre-Val de Loire region.
-
14:51
Géoromandie 2023 : revivez en vidéo la journée romande de la géoinformation
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa 3e journée de la géo information s’est déroulée le 14 novembre 2023 au SwissTech Convention Center de Lausanne. Organisé par l’ASIT, l’ensemble des cantons romands et la Confédération Suisse, cet événement est consacré aux usages de la géodonnée et des outils de la géomatique et des systèmes d’information géographique (SIG). À chaque édition de Géoromandie apparaissent de nouveaux thèmes de réflexion ou des développements qui émargent et s’imposent comme de futurs standards.
Partenaire presse de l'événement, SIGMAG SIGTV.FR a capté les principales interventions de la journée, notamment les deux sessions consacrées à l'utilisation de l'Intelligence Artificielle et aux jumeaux numériques territoriaux. Chaque intervention est suivie par un temps de questions/réponses qui permet d'apporter des éléments complémentaires. Vous pouvez retrouver sur le site de l'organisateur les différentes présentations. + d'infos :
georomandie.com/
Regardez chaque vidéo en intégralité Plénière d’ouverture
- Vassilis Venizelos, Conseiller d’État du Canton de Vaud
- Camille Gilloots, Chargée de projet au Centre de compétence en durabilité de l'Université de Lausanne
- Stéphane Canalis, Directeur territorial Centre-Est à l'IGN France
Session IA
- Antoine Carreaud, ingénieur topographe, assistant de projet à l’HEIG-VD
- Thiên-Anh Nguyen assistante-doctorante à l’EPFL
- Emmanuel Clivaz (AnalyticBase) et Reto Blumer (Service archéologique cantonal fribourgeois)
Session jumeaux numériques
- Raphaël Bovier, directeur de la diffusion des données swisstopo
- Kilian Morel (HEIG-VD) et Yohann Schatz (HEPIA)
- Léo Ficheux et David Teillet, CSD INGENIEURS
Plénière de conclusion
- Léa Bitard, co-fondatrice de Resilio SA
- Assia Garbinato, Directrice "Digital & Innovation" - Romande Énergie
-
12:54
Aménager le territoire en France : la question du logement (Philippe Mazenc, 14 octobre 2023)
sur Les cafés géographiquesPhilippe Mazenc (cliché de Denis Wolff)
Invité des Cafés géo, Philippe Mazenc a un parcours original. Elève à Sciences-po Bordeaux, il passe le concours des Affaires maritimes et devient administrateur des Affaires maritimes, corps d’officiers de la Marine nationale. Puis il quitte ce corps et part dans la fonction publique civile, d’abord à la direction du Budget, puis au Secrétariat général du ministère de l’Ecologie, puis à la sous-direction de la Législation de l’Habitat, de l’Urbanisme et des Paysages, et fait partie de ceux qui mettent en place la loi ALUR (2014). Il travaille ensuite à la préfecture de l’Ile-de-France puis à celle de Bretagne. Après y avoir passé quelques années, il devient directeur de cabinet adjoint de Christophe Béchu, ministre de la Transition écologique et de la Cohésion des territoires puis, depuis quelques mois, il est directeur général de l’Aménagement, du Logement et de la Nature. Il est donc fort bien placé pour exposer les principaux aspects de la question du logement en France.
1. Situation du logement en France.Le ministère est chapeauté par Christophe Béchu. Autour de lui, il y a plusieurs ministères délégués et secrétariats d’Etat. Naturellement, celui qui concerne en premier lieu Philippe Mazenc est le ministère délégué au Logement, Patrice Vergriete. Il y a aussi la ministre déléguée aux Collectivités territoriales et à la Ruralité (Dominique Faure) qui est sous la double tutelle de Christophe Béchu et Gérald Darmanin, le ministre délégué aux Transports (Clément Beaune) et la secrétaire d’Etat à la Ville (Sabrina Agresti-Roubache). Le premier patron de Philippe Mazenc est Christophe Béchu ; il dépend aussi de Patrice Vergriete, ainsi que de Sarah El Haïry, secrétaire d’Etat à la Biodiversité. Il est également à la disposition de deux autres ministres : Agnès Pannier-Runacher, ministre de la Transition énergétique et Hervé Berville, secrétaire d’Etat à la mer. Cela plante le décor. Philippe Mazenc dépend de sept ministères, sept cabinets, quarante conseillers, pas toujours coordonnés !!!
Quelques chiffres donnent une idée, un ordre de grandeur des problèmes. La politique du logement coûte environ 43 milliards d’euros par an. L’hébergement d’urgence généraliste offre 203 000 places tous les soirs. Il faut compter en plus 100 000 places dans le dispositif général d’asile (DNA) géré par le ministère de l’Intérieur. Tous les soirs en France, il y a donc 300 000 personnes hébergées au titre d’un de ces dispositifs. Il y a enfin le logement social. Mais, malgré les aides publiques sur le logement, les bailleurs sociaux sont des entreprises qui ont besoin de solvabilité. Un choix s’opère à l’entrée dans le logement social (des commissions d’attribution des logements). L’attente moyenne serait de douze ans en Ile-de-France, mais si l’on est fonctionnaire ou que l’on a un CDI, c’est beaucoup moins ; en revanche, si l’on n’a qu’un CDD et/ou que l’on sort d’un hébergement d’urgence…
En 2021, on avait en France un peu plus de 37 millions de logements ordinaires dont 56 % de logements individuels, 82 % de résidences principales (en légère baisse), 10 % de résidences secondaires (en légère hausse), 8 % de logements vacants (soit plus de 3 millions). 1,6 million de personnes logent en logement non ordinaire (logement social, CROUS…). Contrairement aux pays du Nord, la maison individuelle, le fait d’être propriétaire, est un fait marquant en France : 58 % des ménages sont propriétaires de leur résidence principale, 25 % sont locataires dans le parc privé et 18 % locataires dans le parc social (ce qui est relativement important). Il est très difficile de faire des comparaisons internationales sur le logement social car il ne dépend pas toujours de l’Etat et les définitions du logement social varient d’un pays à l’autre.
19 % des ménages déclarent souffrir du froid pendant l’hiver, 10 % sont confrontés au surpeuplement et 9 % ne disposent pas de logement personnel (partage du logement). Les pouvoirs publics ont la volonté de réduire le nombre de personnes à la rue : ainsi, ces dernières années, le nombre de places en hébergement d’urgence dit « généraliste » a sensiblement augmenté (154 000 places en 2019, 203 000 aujourd’hui). Dans ce type d’hébergement, 52 % des personnes sont en situation irrégulière (absence de titre de séjour) ; le plus souvent, elles ne peuvent pas entrer dans le dispositif national d’asile (la plupart des demandes sont rejetées). Ce chiffre est en hausse et va continuer à croître.
Il est souvent argué qu’il faudrait construire 500 000 logements neufs par an, dont 150 000 logements sociaux. En fait, personne n’en sait rien car il est difficile de mesurer le besoin en logements. Cela supposerait des études territorialisées actuellement non réalisées. En 2023, on va péniblement construire 90 000 logements sociaux ; depuis un an et demi, la réduction des constructions est particulièrement forte dans les zones tendues.
Plusieurs programmes aident les particuliers et la collectivité. Les APL (aides personnelles au logement) et les AL (aides au logement) représentent le plus important : 13,3 milliards d’euros avec peu de marges de manœuvre car il s’agit d’une dépense de guichet pour aider les particuliers. Le programme Eau et biodiversité est en nette augmentation : 274,5 millions d’euros cette année et on espère 414 millions d’euros l’an prochain. Pour l’eau, il s’agit surtout des agences de l’eau : l’eau ne vient jamais du robinet (elle vient d’un fleuve, d’une nappe phréatique, de l’eau de surface… Pour Paris, voir ici). Cela représente environ 2,3 milliards d’euros. Il y a aussi le Fonds vert, lancé en 2022, doté de 2 milliards d’euros en 2023 (en 2024 augmentation prévue de 500 millions d’euros qui serviront à la rénovation des écoles) et déconcentré (géré par les préfets), et le programme Urbanisme, territoires et amélioration de l’habitat doté de 800 millions d’euros. Enfin, les bailleurs sociaux sont soumis à une contribution qui alimente le FNAP (Fonds national des aides à la pierre) et qui représente 400 millions d’euros.
Philippe Mazenc présente ensuite quelques documents. Le premier, sur l’exode urbain après le Covid, remet en cause certaines idées reçues (par exemple : beaucoup de Parisiens ont acheté une maison sur le golfe du Morbihan). La migration de Paris vers la province s’est un peu accélérée mais n’est pas considérable, les déménagements se sont surtout faits de grande ville à grande ville et on continue à avoir une extension de la périurbanisation. Le second est le fruit d’un partenariat du ministère avec l’IGN (Institut géographique national) ; il porte notamment sur l’artificialisation des sols
2. La transition écologique.Il convient d’abord de mesurer la hauteur du mur devant nous. Les bâtiments représentent en France environ 17 % des émissions de gaz à effet de serre. Il y a quelques années, dans le cadre de la Stratégie Nationale Bas-Carbone (SNBC), on avait voté un premier budget carbone : entre 2015 et 2018, on devait réduire les émissions. En fait elles ont augmenté de 11 % entre ces deux dates. Le Green Deal (= Pacte vert) a été lancé par la Commission européenne en 2020 ; sa déclinaison en France s’est traduite par est la création du secrétariat général à la Planification Ecologique (SGPE), service du Premier Ministre dirigé par Antoine Pellion ; il a pour but de coordonner les efforts de toutes les administrations de l’Etat, en particulier pour réduire l’émission de gaz à effet de serre. C’est ce secrétariat qui, après une large concertation, fixe des objectifs de réduction. Dans le secteur du bâtiment, l’objectif est de réduire de 61 % les émissions de gaz à effet de serre en 2030, par rapport aux émissions de 2019 (il faut réduire les émissions de ces gaz pas uniquement dans la construction, mais de la conception au recyclage). C’est un chantier énorme, et qui va encore être renforcé, car on sait que des directives européennes vont sortir, notamment sur la performance énergétique des bâtiments. On travaille beaucoup avec la direction des Affaires européennes et internationales (DAEI). Cela dit, il n’est pas certain qu’après les élections européennes de juin 2024, la nouvelle majorité au sein du Parlement européen soit aussi favorable à la transition écologique que la majorité actuelle : les élections européennes auront des conséquences considérables sur notre vie quotidienne en France car on est sur des directives européennes et des financements européens sur la transition écologique.
Voyons maintenant les enjeux. Compte tenu des objectifs de réduction de l’artificialisation des sols (la loi Climat et résilience de 2021 fixe un objectif de zéro artificialisation nette (ZAN) des sols en France à l’horizon 2050) et des projections démographiques, on estime aujourd’hui que 80 % de la ville de 2050 est déjà construite. L’enjeu est donc au moins autant sur la rénovation que sur la construction neuve. Or la rénovation coûte aussi cher (voire plus cher) que la construction et est souvent plus compliquée. L’enjeu est la massification de la rénovation énergétique. Or le secteur du bâtiment non résidentiel est essentiellement composé de toutes petites entreprises qui ne sont pas en mesure d’effectuer une rénovation globale. D’une manière plus générale, changer une chaudière n’est guère compliqué ; faire une rénovation globale d’un logement l’est beaucoup plus.
Les dispositifs d’aide sont nombreux, à commencer par MaPrimeRénov’ qui représente 6 milliards d’euros cette année, 4 milliards en 2024. Les gens se demandent parfois pourquoi l’Etat finance la rénovation des chaudières. Il faut certes favoriser la rénovation globale, mais on ne peut se passer de la simple rénovation. On essaie donc de réduire le reste à charge, notamment pour les personnes modestes. Le but est de réduire nos émissions de gaz à effet de serre. L’éco-PTZ (éco-prêt à taux zéro) est un dispositif pour la rénovation des logements : c’est un crédit d’impôts qui peut couvrir jusqu’à 30 % du coût de la rénovation pour les petites et moyennes entreprises. Par ailleurs, on estime que, pour la rénovation des logements sociaux, il faudrait entre 4 et 9 milliards d’euros par an (si on veut réduire de 60 % les émissions de gaz à effet de serre d’ici 2030). Pour cela, l’Etat apporte 400 millions (c’est certes une somme, mais est-elle à la hauteur de l’enjeu ?). Enfin, on applique la norme RE 2020 (RE = Réglementation environnementale) pour la construction et la rénovation des bâtiments. Elle augmente le coût de construction de 3 à 4 %, et va augmenter avec la mise en œuvre de toutes les mesures pour atteindre 10 % dans quelques années. Cela s’explique par l’usage de meilleurs matériaux, par l’isolation et, de manière générale, par la performance énergétique. Philippe Mazenc est sensible au problème des surcoûts mais rappelle que ceux-ci doivent se mesurer par rapport à la totalité du cycle de vie du bâtiment… ce qui n’est pas le cas aujourd’hui. Et a-t-on vraiment le choix en matière de transition écologique ?
3. Une approche transversale.L’écueil serait d’examiner les enjeux et la politique du logement, d’hébergement et d’aménagement au travers du seul prisme de la transition écologique. La clé est d’avoir cette approche transversale. Le SGPE (secrétariat général à la Planification écologique) a d’ailleurs adopté cette approche transversale. La transition écologique ne doit pas être vécue comme seulement descendante et uniquement axée sur la réduction des gaz à effet de serre. Des réunions vont être organisées sous l’égide des Présidents de conseils régionaux et des préfets de région : ces sortes de COP (comme la COP 21) vont être organisées dans les treize régions métropolitaines d’ici la fin de l’année. Cela paraît ambitieux. L’idée est d’abord de poser un diagnostic puis d’avoir des plans régionaux de planification écologique d’ici à l’été 2024. Les COP vont avoir une approche transversale : cela ne concernera pas que le bâtiment mais aussi les transports, les universités… On devrait aborder des sujets très importants : diminution très forte des constructions, augmentation des taux pour les particuliers, mais aussi pour les constructeurs, et notamment pour les bailleurs sociaux. En effet, le logement social est en partie financé par des prêts bonifiés de la Caisse des dépôts, fonds qui proviennent essentiellement de la collecte du livret A. Or, si les épargnants apprécient l’augmentation du taux d’intérêt de ce livret, celle-ci provoque aussi une augmentation du coût à la construction pour les bailleurs sociaux.
Par ailleurs, il faut s’interroger sur les effets des résidences secondaires et de la location saisonnière, surtout dans les zones très tendues où il y a un vrai problème d’accès à la résidence principale. On est dans la transversalité car cela pose le problème de l’accès au foncier et de l’accès au logement. Des groupes de travail ont été lancés pour lutter contre l’attrition des logements en zone touristique. Il y aura sans doute une proposition de loi d’une députée du Finistère et d’un de l’Eure à ce sujet. C’est un phénomène qu’on a du mal à quantifier. Les logements meublés non professionnels (LMNP) sont imposés à différents taux, mais meilleurs que la location nue. Il faudrait harmoniser les taux d’imposition (mais les parlementaires ont du mal à trouver un point d’accord) : est-il normal qu’on bénéficie d’un abattement fiscal plus important quand on vit en zone touristique qu’au centre de Paris ?). Cela dit, il faut nuancer. Dans le Finistère, la majorité des résidences secondaires sont le fait de mutations ou d’achats infrarégionaux, voire infra-départementaux : plus de 50 % des résidences secondaires appartiennent à des gens qui habitent soit dans le Finistère, soit en Bretagne. Le mantra consistant à dire : ce sont de riches Parisiens qui achètent leurs résidences sur le golfe du Morbihan est faux ! Cela dit, ça ne résout pas le problème…
Philippe Mazenc rappelle qu’il a été recruté au cabinet de Christophe Béchu pour s’occuper de la décentralisation des politiques du logement. Il y a eu une évolution entre 2012 et 2023. En 2012, il y avait à l’Assemblée nationale des députés-maires, présidents des offices publics de l’habitat, donc au fait des problèmes liés à l’habitat. Or, avec la fin du cumul des mandats, les députés ne sont en général plus spécialistes du logement. Et la question du logement est devenue complexe en raison de la réglementation et notamment du grand nombre de lois : code de la construction, code de l’action sociale et des familles, loi de 1989, loi de 1965 sur la copropriété privée… Sans prendre position sur la réforme de la fin de cumul des mandats, Philippe Mazenc estime que n’avoir que peu de spécialistes au Parlement pose problème. Aujourd’hui, on a une réglementation nationale avec un zonage de tout le territoire en A, A bis, B1, B2 ou C : un décret va dire que Plogoff, dans le Finistère, est en zone C, que Rennes est en B1 … Ce zonage détermine l’éventuel encadrement des loyers, les aides et la fiscalité : on a ainsi le droit de faire du Pinel (= dispositif d’investissement locatif : réduction d’impôt sur le prix d’achat d’un logement mis en location) ou du logement locatif intermédiaire en A ou en B1 mais pas en B2 ou en C. Tout cela est décidé depuis Paris… L’idée est de faire sauter ces zonages et de responsabiliser les collectivités en fixant seulement quelques critères objectifs de tension. Les maires sont très mobilisés sur cette question, mais il n’existe pas à ce jour de consensus interministériel.
Par ailleurs, on subit les conséquences de la suppression de la taxe d’habitation. Quel est aujourd’hui l’intérêt pour un maire d’avoir de nouveaux habitants ? Cela induit des coûts : services supplémentaires : crèches, écoles, transports, réseaux d’assainissement… Comment fait-on pour inciter les maires à accueillir de nouveaux habitants ? La fiscalité locale serait à repenser pour inciter les maires à construire de nouveaux logements.
Aujourd’hui, l’Etat intériorise toutes les contraintes sur le logement. Il est souvent très critiqué, mais que peut-il faire ? De plus, un certain nombre de maires ne font pas grand-chose pour construire des logements. D’ailleurs, les collectivités comme les associations d’élus ne demandent pas aujourd’hui de nouvelles mesures de décentralisation… sauf pour récupérer l’argent de MaPrimeRénov’ (4 milliards d’euros) et pour bénéficier des aides à la pierre (800 millions d’euros). Or ce n’est pas de la décentralisation ! Aujourd’hui le préfet dispose d’un contingent-Etat de 25 % des attributions de logements sociaux ; un ménage sur quatre présenté en commission d’affectation de logement chez un bailleur social se voit attribuer un logement par le préfet. Il s’agit de ménages fragiles, par exemple des DALO (= Droit au logement opposable). Si on est reconnu ménage prioritaire au titre du DALO, l’Etat a six mois pour vous proposer un logement ; sinon, on peut faire un recours contre l’Etat qui est alors condamné à payer des astreintes qu’il verse à un fonds appelé AVDL (Accès vers et dans le logement), qui sert à reloger les ménages. L’Etat fait très attention dans les zones tendues, notamment en Ile-de-France. En Bretagne, alors qu’il y a pourtant des enjeux, il a abandonné cette prérogative depuis longtemps aux bailleurs sociaux. Derrière tous ces problèmes, il y a une question de responsabilisation de tous les échelons de collectivités et de l’Etat.
Le débat est très complexe. Aujourd’hui, il y a un enjeu autour de la mixité sociale dans les quartiers. Cela fait partie de réflexions en vue de futures dispositions législatives. Il y a quelques années, un certain nombre de décrets ont été pris contre l’avis du gouvernement notamment sur les résidences à enjeu de mixité sociale, où un bailleur peut s’opposer à l’entrée de telle ou telle famille. Ce sont des sujets hypersensibles. Il y a une proposition de loi déjà citée sur l’attrition des logements en zone touristique, il va y avoir un projet de loi sur les copropriétés dégradées. On ne peut pas dire qu’il y ait un manque de financement de l’Etat dans les quartiers où s’exerce la politique de la ville (cf. chiffres de l’ANRU, Agence nationale pour la rénovation urbaine). Face aux copropriétés dégradées, l’Etat met en place des prêts bancaires à taux zéro mais il est difficile de financer une copropriété dont les ménages sont très peu solvables. Peut-on monter des prêts collectifs ? Peut-on renforcer des dispositions sur les expropriations et les préemptions, notamment dans les parties communes ? Un projet de loi devrait sortir à l’automne. Enfin, Philippe Mazenc espère que le projet de loi sur la décentralisation sortira au premier semestre 2024.
Il y a quand même eu beaucoup de réalisations. L’objectif est de décentraliser et de déconcentrer beaucoup plus. On a mis en place depuis deux ans le fonds vert (2 milliards d’euros jusqu’à cette année et on va passer à 2,5 l’an prochain). En matière de décentralisation et de déconcentration, la clé est l’approche globale. Et il faut surtout être proche du terrain.
4. Questions.Question. On parle de transition énergétique punitive. De quoi s’agit-il ? Il faut faire cette transition énergétique mais on recule souvent la mise en application des mesures prises.
Réponse. Philippe Mazenc acquiesce à ce dernier point. Il ne sait pas ce qu’est la transition écologique punitive. Il était la veille à Lorient, à l’Assemblée générale de l’Association nationale des élus du littoral (ANEL). On y a abordé de nombreux sujets dont un qui va encore mobiliser les réflexions : la gestion du trait de côte (pouvoir étatique). On ne va pas décréter la fin de la montée du niveau de l’eau et de l’érosion ! Et l’Etat ne pourra pas indemniser tous les propriétaires. Par ailleurs, selon le ZAN, voté dans la loi Climat et Résilience de 2021, d’ici à 2031, il faudra consommer deux fois moins d’espaces naturels, agricoles et forestiers par rapport à la période entre 2011 et 2021 (grosso modo, on a consommé 244 000 hectares pendant cette période). Cela dit, face à la fronde des maires, une dernière loi, votée en 2023, prévoit des concessions. Selon Laurent Wauquiez, il s’agit d’écologie punitive ; donc il voudrait retirer « sa » région Auvergne-Rhône-Alpes du ZAN. Mais il ne peut naturellement pas sortir d’une disposition législative.Question. Dans l’habitat collectif privé (les copropriétés), les DPE (diagnostics de performance énergétique) apparaissent comme compliqués et, quand on veut faire des travaux, c’est très long (exemple : sept ou huit ans pour changer le chauffage !) en raison d’une réglementation très rigide. Est-il envisagé de faire quelque chose afin que les travaux puissent être réalisés plus rapidement ?
Réponse. Dans le cas d’un DPE, il faut considérer la nature des murs et pas uniquement le chauffage… Et il y a le problème des règles de majorité en copropriété qui font perdre un temps fou. Au ministère du Logement, on voudrait régler ces problèmes collectifs, notamment en abaissant les seuils de majorité et peut-être en en diminuant le nombre ; mais le ministère de la Justice est extrêmement attentif au droit de propriété ainsi que la section du Conseil d’Etat qui s’occupe de ces questions.Question. Quelle part représente l’habitat collectif privé ?
Réponse. C’est la part la plus importante, surtout en zone urbaine. Il y a un vrai sujet sur les copropriétés, notamment sur la rénovation énergétique. Philippe Mazenc est favorable aux pompes à chaleur (PAC), mais on n’en mettra jamais une à Paris en raison des nuisances sonores ! Dans certaines villes, il y a un réseau de chaleur urbain (RCU, communément appelé chauffage urbain) ; ce serait à développer mais on ne peut pas en mettre partout. Ainsi, à Lamballe où l’une des plus grandes coopératives de Bretagne, la Cooperl, a monté une usine de méthanisation qui alimente le réseau de chauffage urbain de la ville qui se chauffe donc à la fiente de porc. La géothermie a fait beaucoup de progrès mais on ne peut pas en profiter partout ; il y a derrière un problème de gestion d’eau.Question. Y a-t-il une réflexion sur la récupération des eaux de pluie ?
Réponse. Oui, il y a une réflexion mais débouchera-t-elle ? Aujourd’hui, un préfet n’a pas la possibilité règlementaire de s’opposer à un lotissement qui ne serait pas raccordé à un réseau d’eau, car le code de l’urbanisme actuel ne le permet pas . Aujourd’hui, même si on doit étendre un réseau d’eau, ce n’est pas un motif de refus du PLU (Plan local d’urbanisme) ou d’un permis de construire. Par ailleurs, on mesure mal les effets de la récupération de l’eau de pluie sur les nappes phréatiques et le cycle de l’eau, si elle était pratiquée à haute dose. Enfin, il faut aussi considérer la réutilisation des eaux usées. La responsabilité politique est du ressort du ministère de l’Ecologie… sauf que, si le ministère de l’Ecologie est responsable de l’eau sortant des stations d’épuration, il ne l’est pas de la réglementation dans le bâtiment, de la réutilisation dans l’alimentaire… Dès qu’on parle d’agro-alimentaire, cela relève du ministère de l’Agriculture. Le ministère de l’Ecologie a la responsabilité politique autour de cette question de l’eau mais n’a pas le pouvoir règlementaire. Dès qu’on touche au bâtiment, cela relève du ministère de la Santé. Il faudrait pouvoir garantir qu’une eau usée réutilisée ou l’eau de pluie a une qualité absolument identique à une eau « normale », y compris pour un usage non domestique (lavage de surface ou toilettes). Et, sauf à séparer les réseaux d’eau, jamais un bailleur social ne va prendre le risque d’utiliser de l’eau qui ne serait pas complètement conforme, même pour nettoyer les sols ! Si on a une obligation en termes de qualité de l’eau à la sortie, cela signifie qu’on ne réutilisera pas les eaux usées. Il faudrait seulement qu’il y ait une obligation de moyens. Aujourd’hui, on réutilise 1 % de l’eau en France, 7 à 8 % en Espagne et en Italie (réglementation plus souple) et 40 % en Israël.Question sur le mouvement des gilets jaunes.
Réponse. Le mouvement semble autant lié au logement qu’à la mobilité. La poursuite de la périurbanisation est très inquiétante. Elle induit des surcoûts, notamment en matière de transports… Tant que la périurbanisation continuera, on aura ces problèmes de mobilité et de logement. La structuration de la politique urbaine ne produit d’effet qu’à quinze ou vingt ans. Le problème de l’accès au logement pour les jeunes a pris beaucoup d’importance depuis deux ou trois ans. On a eu une conjonction de facteurs qui n’aident pas : augmentation du coût et manque de disponibilité du foncier, augmentation des taux, pouvoir d’achat qui n’a pas suivi l’inflation…Question. Le conseil régional d’Ile-de-France parlait de construire la ville sur la ville, ce qui pose la question de la hauteur des bâtiments. Quelle est la réflexion à ce sujet ?
Réponse. Si on souhaite une non-artificialisation des sols, il faut construire la ville sur la ville. C’est l’objectif, mais il n’est pas entre les mains de l’Etat car ce sont les maires qui délivrent les permis de construire. Or les maires n’ont pas d’incitation financière (ils ne perçoivent plus la taxe d’habitation) et ils ont une opposition sociale à la densification de plus en plus forte. L’Etat ne délivre des permis de construire que dans des cas très rares.Question. Qu’est-il fait pour la revitalisation des centres des villes petites et moyennes et pour freiner l’étalement pavillonnaire ?
Réponse. Pas mal de choses ont été faites, essentiellement pour les petites villes et les moyennes (de moins de 20 000 habitants). Ce sont toujours des opérations mixtes : on subventionne des opérations à la fois pour la revitalisation du commerce et aussi du logement. Il y a aussi des dispositifs fiscaux dans l’ancien : la loi Malraux (pour la réhabilitation) et la loi Denormandie. Il y a aussi des politiques publiques, notamment pour les villes en déprise. Pour les villes un peu plus grandes, tout ne va pas bien : il y a la question des permis de construire délivrés pour des centres commerciaux en périurbain malgré une réglementation qui essayait de les freiner. Aujourd’hui, les centres commerciaux périurbains sont en difficulté et commencent à appeler l’Etat à l’aide ; est-on dans une période de bascule ? Et il y a tout le débat autour de la France moche (cette formulation date de 2010) mais, que faire ?Question. Avec la décentralisation, que peut-on attendre de l’Etat demain ? Quelle sera sa place ?
Réponse. L’Etat, aujourd’hui, porte seul l’ensemble de la contrainte, alors qu’il ne détient pas tous les leviers : il faudrait rapprocher la responsabilité de tous les acteurs. Il faut exclure l’hébergement d’urgence de la décentralisation. A côté, l’Etat a des obligations et des enjeux de solidarité nationale. Ainsi, la loi SRU (Solidarité et renouvellement urbain) oblige les communes à disposer de 20 ou 25 % de logements sociaux (article 55) ; il est hors de question que l’Etat se désengage.Question à propos du rejet du fait régional dans les régions fusionnées.
Réponse. Dans une région non fusionnée comme la Bretagne, avec seulement quatre départements, il y a une cohérence régionale et une cohérence de l’Etat régional. Mais qu’en est-il dans le Grand Est ou en région Nouvelle Aquitaine ? Et, paradoxalement, non seulement la réforme n’a pas renforcé le pouvoir des régions mais elle a au contraire considérablement affaibli le pouvoir régional. Sur une région à quatorze départements, où est la cohérence de l’action de l’Etat ? Or 80 % des politiques non régaliennes de l’Etat se situent à l’échelle régionale. Et, si on n’est pas capable s’assurer la coordination à l’intérieur de régions composées de tant de départements, cela pose un grave problème de cohérence de politique de l’Etat.Compte rendu rédigé par Denis Wolff, novembre 2023.
-
12:12
Le poids (physique) des Mégalopoles
sur Veille cartographieCet article Le poids (physique) des Mégalopoles est apparu en premier sur Veille cartographique 2.0.
Introduction : L’urbanisation rapide dans des régions comme New York et la Baie de San Francisco a conduit à une modification significative du paysage, pas seulement au-dessus, mais aussi en dessous de la surface de la terre. Les structures massives et la concentration des bâtiments dans ces régions urbaines posent des questions quant à leur […]
Cet article Le poids (physique) des Mégalopoles est apparu en premier sur Veille cartographique 2.0.
-
10:18
gvSIG Team: Program of 19th International gvSIG Conference (online) is now available, and registration (free of charge) period is open
sur Planet OSGeoFree registration period for the 19th International gvSIG Conference is now open. The Conference is an online event, and it will be held from November 29th to 30th.
The full program of the Conference is available on the event website, where registration to the different sessions can be done.
The webinar platform allows to connect to the webinars from any operating system, and in case you can’t follow them, you will be able to watch them at the gvSIG Youtube channel later.
In reference to workshops, all the information about cartography and gvSIG version to install will be published at the gvSIG blog before the conference.
Don’t miss it!
-
10:09
gvSIG Team: Programa e inscripciones gratuitas abiertas para las 19as Jornadas Internacionales gvSIG (online)
sur Planet OSGeoYa están abiertas las inscripciones gratuitas para las 19as Jornadas Internacionales gvSIG, que se celebrarán de forma online los días 29 y 30 de noviembre.
El programa completo está disponible en la página web del evento, desde donde se puede realizar la inscripción a cada una de las ponencias.
La plataforma de webinar permite conectarse desde cualquier sistema operativo, y en caso de no poder seguirlos en directo se podrán ver a posteriori, ya que se publicarán en el canal de Youtube del proyecto al igual que en años anteriores.Respecto a los talleres, en el blog de gvSIG informaremos sobre la cartografía a descargar para seguirlos, así como de la versión de gvSIG a instalar.
-
9:32
Where Your Food Comes From
sur Google Maps ManiaWhen you begin to prepare your Thanksgiving dinner you may wonder about where all that food comes from. Well a new interactive map from CU Boulder and The Plotline, can help show you where. The Food Twin shows you where food is grown and consumed in America and how crops travel from producers to consumers.Click on your county on the map and you will see colored dots flowing into your
-
15:52
SIG Libre Uruguay: Las TIG ante los nuevos retos globales en un contexto cambiante. Actas de la XVIII CONFIBSIG 2023. Cáceres, 16-19 de mayo de 2023
sur Planet OSGeoDescarga de la publicación aquí
-
14:57
Alors, plutôt train ou voiture ? Une carte pour vous aider à choisir
sur Veille cartographieCet article Alors, plutôt train ou voiture ? Une carte pour vous aider à choisir est apparu en premier sur Veille cartographique 2.0.
52% des trajets étudiés sont plus rapides à parcourir en train plutôt qu’en voiture. C’est le résultat d’une étude publiée par Les Echos en septembre 2022. La méthodologie En utilisant les données de la SNCF, 25 villes de départ situées hors de l’Ile-de-France ont été étudiées. Elles correspondent aux gares les plus fréquentées et 50 […]
Cet article Alors, plutôt train ou voiture ? Une carte pour vous aider à choisir est apparu en premier sur Veille cartographique 2.0.
-
8:00
Observatoire cartographique des données territoriales de Vallée Sud - Grand Paris
sur Makina CorpusNouveautés 2023 ?Vallée Sud Grand Paris a fait appel à Makina Corpus pour une mise à jour de son observatoire.
-
7:37
America's Changing Plant Hardiness Zones
sur Google Maps ManiaAround half of Americans have been moved into a new plant hardiness zone. If you check out the USDA's new Plant Hardiness Zone Map you have a very good chance of discovering that your home is now in a new hardiness zone.In recent years, like many gardeners, I've discovered that I can successfully sow plants a few weeks before their recommended earliest dates and that I can continue
-
17:20
Développeur-Développeuse Front-end
sur Makina CorpusContrat : CDI
Lieu : Toulouse
-
17:10
L’apport de la télédétection lors des séismes en Turquie
sur Veille cartographieCet article L’apport de la télédétection lors des séismes en Turquie est apparu en premier sur Veille cartographique 2.0.
Dans la nuit du dimanche 5 au lundi 6 février, des secousses de magnitude 7,8 ont été enregistrées à la frontière turco-syrienne. Des ingénieurs du Service régional de traitement d’image et de télédétection (Sertit) à Strasbourg ont cartographié les dégâts causés par le séisme. L’objectif est de doter les autorités, d’outils précis pour prendre des […]
Cet article L’apport de la télédétection lors des séismes en Turquie est apparu en premier sur Veille cartographique 2.0.
-
16:46
Most affected people and areas :
sur Veille cartographieCet article Most affected people and areas : est apparu en premier sur Veille cartographique 2.0.
Les pays du Sud, qui sont généralement des pays en développement, sont particulièrement vulnérables aux impacts du réchauffement climatique. Ces pays ont des économies fragiles et des infrastructures souvent insuffisantes voire inadaptées pour faire face aux événements météorologiques extrêmes qui deviennent de plus en plus fréquents et intenses en raison du changement climatique. Les impacts […]
Cet article Most affected people and areas : est apparu en premier sur Veille cartographique 2.0.
-
16:45
L’adaptation de Paris aux conséquences du dérèglement climatique :
sur Veille cartographieCet article L’adaptation de Paris aux conséquences du dérèglement climatique : est apparu en premier sur Veille cartographique 2.0.
Outre les mesures de végétalisation des espaces publics tel que le projet de végétalisation de la place du Louvre qui induirait la suppression des projets d’installation de restaurant de Luxe, la ville de Paris tente d’apporter des solutions aux conséquences du dérèglement climatique. · Plan Climat de la Ville de Paris (PCVP) : Adopté en […]
Cet article L’adaptation de Paris aux conséquences du dérèglement climatique : est apparu en premier sur Veille cartographique 2.0.
-
14:00
Découvrez Alpes rando, la refonte de la plateforme unifiée de sentiers de randonnées dans les Alpes
sur Makina CorpusUn projet de long court...Les Hautes Alpes, renommées pour leurs paysages grandioses et leurs innombrables possibilités de randonnées, sont depuis longtemps un lieu privilégié pour les amoureux de la nature et les amateurs de plein air.
-
12:13
Surging Sea: la carte interactive pour simuler la montée des eaux
sur Veille cartographieCet article Surging Sea: la carte interactive pour simuler la montée des eaux est apparu en premier sur Veille cartographique 2.0.
La montée des eaux, amplifiée par le changement climatique, représente une menace croissante pour les zones côtières à travers le monde. Afin de sensibiliser le public à ce phénomène, le programme Central Climate a mis à disposition une carte interactive qui permet de simuler la montée des eaux dans différentes régions du monde. C’est un […]
Cet article Surging Sea: la carte interactive pour simuler la montée des eaux est apparu en premier sur Veille cartographique 2.0.
-
10:26
Alternatives to Google Maps Street View
sur Google Maps ManiaPanoramax is an open-source photo-mapping platform that allows users to share and exploit street level photography. It is a free alternative to proprietary services, such as Google Maps Street View, providing a freely available resource for sharing and mapping field photos. The Panoramax platform allows anyone to capture street level photographs and contribute them to the Panoramax database and
-
8:30
CybergeoNetworks 2: una robusta aplicación de aprendizaje para publicaciones científicas
sur CybergeoCon motivo del coloquio desarrollado el 26 de mayo del 2016 para celebrar el 20º aniversario de la revista Cybergeo, cuatro jóvenes investigadores unieron fuerzas para desarrollar una aplicación altamente pionera para el análisis geográfico, estadístico y semántico de datos extraídos del conjunto de datos de Cybergeo (texto completo y metadatos) y además datos en línea asociados a la revista entre 1996 y 2015 (motores de búsqueda, Tweets, citas y publicaciones), naciendo así el sitio CybergeoNetworks. Fieles a nuestra política de publicación a acceso abierto, tal aplicación permite localizar visual y estadísticamente datos referentes a los autores de los artículos de la revista, países estudiados y citados, o incluso quien estudia qué. Compuesto por cuatro módulos interactivos, la información proporcionada por sus análisis es remarcable. Por ejemplo, es posible agrupar países por redes semánticas, visualizar y asociar a estos según la procedencia de los autores (información que Lode...
-
8:30
CybergeoNetworks 2: a deep learning application for scientific publishing
sur CybergeoOn the occasion of the conference held on May 26, 2016 to celebrate the 20th anniversary of Cybergeo magazine, four young researchers joined forces to develop a pioneering application for geographic, statistical and semantic analysis of data extracted from the Cybergeo corpus (full text and metadata), as well as online data associated with the magazine between 1996 and 2015 (search engines, tweets, citations and publications). The CybergeoNetworks website was born. In keeping with our open-access publishing policy, it provides visual and statistical access to data on the location of the authors of the journal's articles, the countries studied and cited, and who is studying whom? Comprising four interactive modules, the information provided by its analyses is impressive. For example, it is possible to group countries by semantic networks, to visualize the states to which authors are affiliated (information that Lodel, OpenEdition's publishing software, does not provide in its current...
-
8:30
CybergeoNetworks 2 : une application d’apprentissage profond au service de la publication scientifique
sur CybergeoA l’occasion du colloque du 26 mai 2016 pour la célébration des 20 ans de la revue Cybergeo, quatre jeunes chercheurs se sont associés pour développer une application tout à fait pionnière d’analyses géographique, statistique et sémantique des données extraites du corpus de Cybergeo (plein texte et métadonnées), mais aussi des données en ligne associées à la revue entre 1996 et 2015 (moteurs de recherche, tweets, citations et publications). Le site CybergeoNetworks, est né. Fidèle à notre politique de publication en accès ouvert, il permet de situer visuellement et statistiquement des données sur la localisation des auteurs des articles de la revue, les pays étudiés et cités, ou encore qui étudie qui ? Composée de quatre modules interactifs, l’information fournie par ses analyses est impressionnante. A titre d’exemple, il est possible de regrouper des pays par réseaux sémantiques, de visualiser les États auxquels sont affiliés les auteurs (une information que Lodel, le logiciel d’éd...
-
8:30
Philipp Ther, 2023, How the West Lost the Peace: The Great Transformation Since the Cold War, Polity, 304 p.
sur CybergeoÀ toutes les époques, il y eut des voix pour espérer faire une seule nation de l'humanité entière, mais à chaque génération le rêve recule un peu plus. La chute du mur de Berlin, en 1989, a soulevé de nouveaux espoirs, qui ont amené Habermas (1994) à préparer comme objectif à long terme "de surmonter progressivement la division et la stratification sociale de la société mondiale, sans porter atteinte aux singularités culturelles". Dans ce contexte idéalisé, développé par les médias occidentaux, la population a subi une surprise brutale lors de l’agression russe en Ukraine en 2022. Finis les rêves, il semblait qu’on avait perdu la paix, comme en d’autres temps on avait perdu la guerre.
Dans la dernière édition de son livre, paru en 2023 chez Polity (How the West Lost the Peace: The Great Transformation Since the Cold War), l’historien Philipp Ther cherche à comprendre comment cette défaite est arrivée. Gagner la paix, comme gagner la guerre, suppose des sacrifices et la prise de risqu...
-
8:30
Is a dense city a healthy city? A preliminary study on the interplay between urban density and air quality in Oran, Algeria
sur CybergeoThe general consensus is that dense cities are more sustainable. However, high urban density or compact urban form may affect the health of city dwellers, more particularly when compactness is not associated with the provision of mass transit systems. This paper analyses the correlation between urban density indicators and air pollution in Oran (Algeria), a city that suffers a lack of public transport. It assesses the density of green space needed to reduce airborne pollutants in cities. The paper also examines the impacts of exposure to air pollution on respiratory mortality using a quantitative health impact assessment methodology. Findings show that population density and building density strongly correlates with air pollution, due to motorized transport and other human activities (e.g. industries, residential heating or lacking green space). Results indicate that for population density greater than 12100 inhabitants/ha with associated values exceeding 100 for building density an...
-
8:30
Contribution of maritime surveillance data to French Maritime Spatial Planning: between technical potential and political constraints
sur CybergeoMaritime Spatial Planning (MSP) is widely recognised around the world as a lever for sustainable development at sea. In practice, it is a new form of negotiation for the use of maritime space and its resources. To support shared decision-making, MSP requires information on the spatiotemporal dynamics of existing maritime activities. In this context, maritime surveillance, operated in real-time by the State (defence, fisheries monitoring) is a strategic source of data (AIS, VMS and radar) and information for planning purposes. While these data are growingly used by the scientific community, their contributions to MSP remains marginal. This article identifies the main reasons for this, drawing on 38 semi-directive interviews with French MSP stakeholders. It highlights two obstacles to the use of data for MSP: a) a limited accessibility of data for many actors, especially public ones and; b) a lack of acceptability on the part of historical users of maritime space when faced with their...
-
8:30
Le péage urbain de Tromsø, l’urbanisme durable à l’épreuve de la périphéricité arctique
sur CybergeoL’article s’intéresse au processus d’instauration du péage urbain de Tromsø, dont l’adoption très tardive (2021) pose question dans un pays qui a fait de l’exemplarité environnementale un levier d’intégration mondiale. L’article propose une lecture géohistorique du processus d’adoption du péage au prisme des relations centre-périphérie, explorant les racines de la rétivité locale aux principes nationaux de l’urbanisme durable et s’attachant à comprendre l’attachement singulier des habitants à l’automobile. À l’heure où ailleurs en Europe, la reconfiguration des relations centre/périphérie marque une autonomisation des villes face à la tutelle étatique, l’établissement du péage urbain de Tromsø se singularise par le maintien d’une forte dualité entre la centralité méridionale et sa périphérie septentrionale. L’instauration du péage signe la fin d’un régime particulier accordé à la municipalité par l’État, et révèle le changement de statut de la ville, passée, malgré elle, de marge se...
-
8:30
Contribution des données de surveillance maritime à la Planification de l’Espace Maritime français : entre potentiels techniques et contraintes politiques
sur CybergeoLa Planification de l’Espace Maritime (PEM), plébiscitée autour du globe comme un levier du développement durable en mer, s’illustre en pratique comme une nouvelle forme de négociation pour l’usage de l’espace maritime et de ses ressources. Pour alimenter et conforter la prise de décisions partagées, la PEM suscite un fort besoin d’information sur les dynamiques spatiotemporelles des activités maritimes existantes. Dans ce contexte, la surveillance maritime opérée en temps réel par l’État (défense, suivi des pêches) s’inscrit comme une source stratégique de données (AIS, VMS et radar) et d’informations au profit de la planification. Si l’exploitation de ces données fait l’objet d’un intérêt croissant de la part de la communauté scientifique, leur contribution effective à la planification en mer demeure marginale. Cet article en identifie les principales raisons à partir d’une enquête par entretiens semi-directifs réalisée auprès de 38 acteurs de la PEM française. Il met en lumière d...
-
8:30
La dialectique entre activités informelles et action de l’État dans la construction territoriale des grands espaces : le cas de l’orpaillage dans l’intérieur de la Guyane française
sur CybergeoLes grands espaces, ou régions faiblement peuplées, se distinguent par une série de caractéristiques spécifiques et notamment par un contrôle incomplet de la part des États. Cela ouvre des brèches pour l’exercice de pratiques qui, si elles sont ou illégales ou à la limite de la légalité, apportent des ressources économiques, des connaissances sur les territoires concernés et participent finalement à la domination, voire à la conquête des zones concernées par les États. Bien qu’invisibles ou réprimées, ces activités informelles influencent donc, directement ou indirectement, la construction officielle, symbolique et matérielle du territoire. Cet article analyse la pratique de l’orpaillage en Guyane selon cette perspective. En analysant le jeu dialectique entre contrôle formel du territoire et exploitation informelle des ressources, il met en relief la contribution des activités informelles à l’exploration, à la formation des frontières et à la gouvernance de l’intérieur de ce territo...
-
8:30
Alexandre Grondeau, Altermétropolisation : une autre vi(ll)e est possible, Aix-en-Provence, La Lune sur le toit, collection Hic et nunc, 2022, 337 p.
sur CybergeoLa photographie en couverture de l’ouvrage illustre ce qu’Alexandre Grondeau identifie comme une "schizophrénie urbaine" : la dissociation extrême entre deux espaces proches, un immeuble d’apparence luxueuse et des habitations faites de briques et de tôles. Cette opposition iconique entre un quartier aisé et une favela de São Paulo a été immortalisée par le photographe brésilien Tuca Vieira en 2007, comme symbole des inégalités extrêmes induites par la métropolisation contemporaine. Se posant comme "clinicien" de ces villes métropolisées, Alexandre Grondeau se propose alors d’en analyser les causes et symptômes, permettant d’envisager des remèdes à sa question centrale : comment faire advenir une autre ville ?
À la croisée entre l’ouvrage de synthèse et l’essai universitaire, ce livre interroge l’avenir des espaces urbains, partant de ce que l’innovation (tant technologique que sociale) fait (et peut faire) aux territoires. Actuellement maître de conférences habilité à diriger des re...
-
8:17
L'urgence climatique en lumière
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiquePlus qu’un état des lieux, l’exposition Urgence climatique visible à la Cité des sciences et de l’industrie veut sensibiliser son public, le guider et le conseiller pour qu’il prenne part à la mutation écologique de nos territoires. Il est encore temps d’agir, à condition que cette mobilisation soit immédiate, collective et pérenne.
« Face au dérèglement climatique qui engendre des conséquences à l’échelle planétaire, nous entrons dans une décennie charnière qui impose une action collective immédiate et concrète, portée par des initiatives citoyennes et de nouvelles façons de concevoir le monde sur le plan des innovations sociales, environnementales et économiques. Après, il sera malheureusement trop tard pour agir », énonce en préambule Adrien Stalter, commissaire chargé de projets muséographiques à Universcience.
Insuffler une dynamique positive et mobilisatrice, c’est justement la vocation première de la nouvelle exposition permanente de la Cité des sciences et de l’industrie, intitulée « Urgence climatique » et ouverte au public depuis le 16 mai.
Retrouvez la suite de cet article dans le magazine SIGMAG N°38
-
8:00
Avec Récolt’Ô permettez à vos administrés d’estimer les économies réalisables grâce à l’eau de pluie !
sur Makina CorpusRécolt’Ô est une application open-source inédite qui calcule le potentiel de récupération d’eau de pluie des toitures.
-
7:30
Vulnérabilités à l’érosion littorale : cartographie de quatre cas antillais et métropolitains
sur MappemondeL’érosion littorale est un phénomène naturel tangible dont la préoccupation croissante, compte tenu du changement climatique, nous a menées à travailler sur la problématique de la cartographie de certaines composantes du risque d’érosion comprenant l’étude de l’aléa et de la vulnérabilité. Les terrains guadeloupéens (Capesterre-Belle-Eau et Deshaies) et métropolitains (Lacanau et Biarritz) ont été choisis, présentant une grande diversité d’enjeux. À partir d’un assortiment de facteurs, puis de variables associées à ces notions, la spatialisation d’indices à partir de données dédiées permettrait d’aider les décideurs locaux dans leurs choix de priorisation des enjeux et de mener une réflexion plus globale sur la gestion des risques.
-
7:30
La construction d’une exception territoriale : L’éducation à la nature par les classes de mer finistériennes
sur MappemondeLes classes de mer, inventées en 1964 dans le Finistère, restent encore aujourd’hui très implantées localement. Dépassant la seule sphère éducative, ce dispositif est soutenu par des acteurs touristiques et politiques qui ont participé à positionner le territoire comme pionnier puis modèle de référence en la matière à l’échelle nationale. Tout en continuant à répondre aux injonctions institutionnelles, poussant à la construction d’un rapport normalisé à la nature (développement durable, éco-citoyenneté), cette territorialisation du dispositif singularise la nature à laquelle les élèves sont éduqués.
-
7:30
L’accessibilité dans les petits espaces insulaires du Sud-Ouest de l’océan Indien
sur MappemondeL’analyse des parentés observées entre les petits espaces insulaires du Sud-Ouest de l’océan Indien nous a conduits à mettre en évidence cinq spécificités de l’accessibilité insulaire. À partir de ces traits fonctionnels, le but poursuivi par cette étude est donc de modéliser l’accessibilité insulaire. Pour ce faire, nous examinons la nodalité et la réticularité des ports et aéroports insulaires régionaux.
-
7:30
La morphologie de la ligne de flux. Une nouvelle variable visuelle issue du système de Cartes figuratives de Minard
sur MappemondeLes travaux de Charles-Joseph Minard (1781–1870) sur la cartographie des flux et des « mouvements de transports » sont historiquement reconnus. Unanimement salués, ils font l’objet de mentions régulières voire d’anthologies, mais qui s’intéressent davantage à l’image qu’à la méthode mise en œuvre. L’examen de la fabrique de son « système de Cartes figuratives » nous conduit à présenter les apports fondamentaux de Minard sur la sémiologie cartographique des flux/mouvements, à révéler l’ancrage théorique, méthodologique et conceptuel de ces cartes. L’analyse de la forme perçue sur la carte du dessin de la ligne de flux nous pousse à introduire une nouvelle variable visuelle : la morphologie.
-
7:30
Atlas des phares du bout du monde, Autrement, 2021
sur Mappemonde« L’Atlas des phares du bout du monde » est l’une des traductions (il y en aurait onze) du Breve Atlas de los Faros del Fin del Mundo paru en 2020 aux éditions Menguantes. L’auteur, graphiste de métier, déclare dans son avant-propos qu’il est « loin d’être un expert en la matière » et que c’est la rencontre fortuite entre son envie de faire un de ces « atlas poétiques (…) capables de vous transporter dans des lieux reculés depuis le confort de votre canapé », ses compétences de graphiste et un travail qu’il a dû faire, au cours duquel il a dessiné des phares qui ont été la source de son inspiration.
L’ouvrage présente 34 phares qui sont, d’abord, tous localisés sur une belle carte du monde, sans limite étatique, réalisée dans des tons bleus et jaunes pâles. Puis, chaque phare est présenté en quatre pages, toujours selon la même structure. D’abord une page de texte accompagnée de quelques informations de localisation et, en vis-à-vis, le dessin, réalisé par l’auteur, du phare dans so...
-
7:30
Atlas des grandes découvertes. De l’Antiquité à nos jours, Autrement, 2021
sur MappemondeVoici un atlas pour lequel Stéphane Dugast, pour l’écriture des textes, Xemartin Laborde, pour les cartes, et Audrey Lagadec, pour les illustrations, ont été associés pour le plus grand plaisir de nos connaissances et de notre imagination. Un atlas est un recueil de cartes, celui-ci, comme l’explique l’introduction, est « une ode à la carte » offrant de célébrer les grandes découvertes qui ont rythmé l’histoire de l’humanité.
L’atlas est découpé en cinq grandes parties organisées de manière chronologique. Chaque page comporte une notice présentant un(e) ou plusieurs explorateurs/exploratrices et, le plus souvent, une carte qui décrit les voyages d’exploration effectués. Les cartes sont, en apparence, très simples avec peu de figurés, mais elles permettent une visualisation claire et précisent des faits d’exploration décrits dans la notice. Certaines pages montrent le monde « connu » à des époques plus anciennes avec des mappemondes comme celle de Ptolémée ou d’Al Idrissi. Le texte es...
-
7:30
Grand Atlas de l’Antiquité romaine, Autrement, 2019
sur MappemondeCet atlas, rédigé par Christophe Badel et Hervé Inglebert avec des cartes de Claire Levasseur, offre un vaste panorama de l’Empire romain : de ses prémices au IIIe siècle av. J.-C. aux conséquences de son effondrement au Ve/VIe siècle.
Cet atlas commence par des cartes anciennes reconstituant la vision des anciens de leur monde. La plus célèbre de ces cartes est celle dite « Table de Peutinger », copie médiévale d’un original du IIe/IVe siècle, qui représente le réseau routier de l’Empire romain. Page 63, l’atlas fait également figurer l’énigmatique carte romaine d’Agrippa. L’hypothèse est qu’il s’agissait d’une carte, située sur le temple du forum d’Auguste, qui aurait été créée pour montrer l’étendue de l’Empire au 1er siècle. Carte ou liste de lieux ou de routes perdue irrémédiablement, mais dont l’existence supposée montre tout l’intérêt des autorités impériales pour leur immense territoire et pour ce moyen très pratique de se l’approprier, tout au moins par le regard, qu’est l’o...
-
7:30
Navigae : un outil polyvalent pour valoriser et visualiser les données géographiques patrimoniales
sur MappemondeNavigae est une plateforme de recherche permettant de consulter des données issues de travaux en géographie et de valoriser la dimension spatiale des données. Elle permet de diffuser et de visualiser des données numériques issues de structures de recherche ou de bibliothèques, selon des modes d’interrogation et de visualisation cartographique. Son objectif est de favoriser l’ouverture des données grâce à de nombreux services d’exposition et de récupération de données, ainsi qu’à travers un travail de curation permettant la conservation, la maintenance et l’enrichissement des données des différents fonds documentaires géographiques présents dans la plateforme.
-
7:30
UD-SV : Plateforme d’exploration de données urbaines à n-dimensions — Espace, Temps, Thématiques
sur MappemondeCet article présente la plateforme UD-SV (Urban Data Services and Visualization) développée au laboratoire LIRIS. UD-SV regroupe un ensemble de composants s’appuyant sur du code ouvert permettant de stocker, de visualiser, d’interagir, de naviguer et d’interroger des modèles de villes 2D et 3D, mais aussi temporels. UD-SV permet d’intégrer des données spatiales, temporelles et sémantiques pour l’analyse urbaine et pour la compréhension de son évolution. Nous décrivons l’architecture, la conception, le développement et nous exemplifions avec quelques processus de calcul de UD-SV.
-
7:30
Geodatadays 2022
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis trois ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartites (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
3:50
Sean Gillies: Bear 100 retro
sur Planet OSGeoAfter the race I needed some time to deal with my disappointment about rolling my ankle and dropping out at mile 61. Then I got busy looking for a new job. Writing up a retrospective that I could use in the future was delayed. Here it is, at last. I hope it's interesting and useful to others. This kind of retrospective is something I've learned to use at work. It's roughly organized around what went well, what could be better, lessons learned, in the areas of preparation and training, planning, and execution.
First of all, the race itself was great! Other runners I know said it was, and they were right. It was very well run. The aid stations were well stocked and operated smoothly. The course was beautiful and well marked. I felt constantly challenged, safe, and encouraged. I won't forget the super runnable single track down into Leatham Hollow, the springy soil made of pine needles, the ferns, and the view of the cliffs on the sunny slope. I lived just a few miles away for 10 years, but I'd never been on that trail before. The shady side of the canyon was super lush and green, almost Pacific Northwestern compared to Colorado's Front Range foothills. My memory of arriving at the Upper Richards Hollow aid station is another favorite. After a tough climb out of a wooded canyon, we were greeted on the flat bench above by an aid station volunteer holding a tray of cool, moist towels! They invited us to freshen up and enjoy a fancy brunch at clothed tables served by volunteers in tuxedo t-shirts. More than one of us expressed the feeling that it was way too early to be having hallucinations.
Much went according to plan, or better. My summer training volume was adequate and I did plenty of hiking and running on similar terrain at a similar, or higher, elevation. 4.5 weeks of fine tuning and tapering suited me well. I started the race feeling fresh. Flying to Salt Lake City and driving to Logan worked well for me. I was able to close my eyes and snooze while others transported me from Fort Collins to SLC. After landing, I had a sentimental and tasty lunch at Red Iguana, one of my favorite restaurants. In Logan, I enjoyed an entire day of hanging out with my aunt and her dog before race day.
My simple race plan was fine. I started out aiming to leave aid stations at the times that previous 36 hour finishers have, and did that. I aimed to slow down less than the typical 36 hour finisher after 40 miles, and achieved that, too. It was a good pacing plan for finishing in less than 36 hours. At each aid station I knew how many 100 calorie portions of food I should be picking up, and how many drink bottles to fill, and this was a fine fueling and hydration plan. I didn't bonk, cramp, or run out of drinks at any point, thanks to the water drop above Temple Fork.
We had exceptionally good weather on race day and night, so flaws in my equipment choices didn't surface like they might have. Tony Grove was, in fact, a good place to have a change of clothes, pants, and a sweater. Temple Fork would have been too early for warm layers. Franklin Basin would have been too late.
My feet suffered less in 60 miles of the Bear than in any of my previous 100K runs. I lubed them well before the start and changed socks at 28 and 50 miles. I had no blisters and no hot spots. I started the race in a pair of newish HOKA Mafate Speed 4 and they were fine. In the weeks before the race I had some persistent soreness on the top of my right foot and was concerned about a stress injury, but this didn't get any worse during the Bear.
I had no crew at the race, but found good company on the trail multiple times. Sometimes with other people making their own first 100 mile attempt. Sometimes with people going for their third or fourth Bear finish. I heard hilarious stories about the extreme hallucinations you can experience after 48 hours without sleep. I met a guy who graduated from Cache Valley's other high school a year after I graduated from Logan High. I ran with a woman who lost her colon to cancer a year ago. I spent four hours on the trail before Tony Grove with a guy from Boulder who runs a molecular biology center at CU. We run many of the same routes in Rocky Mountain National Park.
Now for the things that didn't go as well. Some flaws in my training and overall fitness were exposed by the Bear's long and rough downhills. I should lose at least 10 pounds. 15 might be better. I can feel the extra weight in my knees and the sensation compounded over 20+ hours. Also, I feel like I've lost foot speed and spatial sense over the last year or so. Three years ago my favorite fitness trainer went out of business and exercises like skaters and box jumps fell out of my repertoire. I believe that I can improve my proprioception by bringing these kinds of exercises back. If I can, I should be better able to dodge impacts instead of absorbing them.
My stomach was fine at the Bear, but I struggled with lower intestinal trouble from miles 20-40. I had to make a lot of stops in the trees, used up my supply of toilet paper, and had to resort to various leaves. Burdock is my friend in this situation. It wasn't the end of the world, but was a distraction. I don't know what the cause was. In the interest of keeping things simple, I had decided to go with the race's drinks instead of bringing, and mixing, my own, but I didn't train with them beforehand. Gnarly Fuel2O treated me well enough at Kettle Moraine, so I felt safe at the Bear. I started the race with 3 bottles of GU Roctane because I spaced packing some Tailwind mix for my initial bottles. I've never tried this stuff before. It has more ingredients than Taillwind or VFuel, my staples, including taurine. Maybe that was the culprit? I can only speculate. As I said, this was not a problem that would have prevented me from finishing.
Long descents in the dark made my brain and eyes tired. I was not fully prepared for this. I had a 350 lumen light on my belt and 500 lumens on my head. This was fine for 9 hours at Kettle Moraine in June, but not great for 12 hours at the Bear. I'll bring more light next time. Why spend energy trying to figure out mysteries on the trail that could be solved by better illumination?
Without a crew, my stop at Tony Grove to change clothes and get set for seven more hours of night running was overly long. I wonder if I'd left 20-30 minutes earlier I might have reached Franklin Basin without incident? At the very least, I'd have reached Franklin Basin that much sooner. A crew wouldn't have helped earlier, but would have helped at 50 miles when I was trying to change clothes, stay warm, and get fed simultaneously. It was mentally tiring at a moment where I was already mentally tired.
I've mentioned before that I left Tony Grove alone at 11 pm and had a sprained ankle at 1 pm. I was out there by myself and am not sure what happened. I could have fallen asleep on my feet; this has been known to happen. Having a pacer could have helped get me to Franklin Basin and beyond in good shape. Being able to follow someone with fresh eyes and a fresh mind would have helped with the issues I mentioned two paragraphs above. It's always easier to follow than to break trail. Even without a pacer, if I'd been in a small group I could have done some leading and some following. This would have been good. And I think getting out of Tony Grove earlier would have made it more likely to join such a group.
In hindsight, I should have had some plan for resting or napping. At 20 hours, I was more groggy than I expected, perhaps because I was alone with nothing but my breath, footsteps, and sleepy thoughts. Recently, a friend of mine shared his tactic of laying down on the trail for short naps, to be woken by the next runner 5-10 minutes behind. This issue is very connected to the previous ones. With less exertion, there is less need to nap. Even if I solve other problems, I bet I'll still run into the need to shut my eyes at 3 or 4 am. I'm going to think about this for next year.
Lastly on the could-have-gone-better front, how about my reaction to my ankle injury? My fuzzy recollection is that I came to full consciousness with a painful and unstable ankle in the dark at 1 am, a mile from the Franklin Basin aid station. I was concerned and went gingerly over that mile, and my plan was to try 15-20 minutes of elevation and compression before deciding whether to continue. I wasn't otherwise physically tired, hungry, or thirsty. My ankle became more swollen and painful while I was off my feet, and after 30 minutes I concluded that I could could not continue.
What if I had not stopped and just grabbed some hot food and kept going? The worst case scenario would have been hiking some small way toward the next aid station and having to return to Franklin Basin, with some damage done to my ankle. What if I had been able to hobble 8 miles to the Logan River aid station and continue slowly from there? I've run through mild sprains several times this year, and have endured worse grade 2 sprains than this one, yes, but not this year. Being alone out there make it harder to push on. If I was pacing myself, I may have been able to convince myself to take a shot at continuing. I think dropping out was 99% the right decision overall. My chance of making it another 8 miles to Logan River was maybe 50%, though? It's hard to say.
I learned two lessons. The TSA says no hiking poles allowed in carry on luggage! I had to leave mine behind at DEN and get new poles at the Farmington REI after leaving SLC. I won't make this mistake again.
While I was mentally prepared for the possibility of dropping out of the race, I did not have any plan for getting back to town after I did so! After two hours of sitting by the campfire at Franklin Basin I did finally meet someone who was heading directly back down the canyon to Logan.
As I said earlier, things mostly went my way. Except for some bad luck and a misstep I believe I would have finished. Registration for the 2024 edition of the Bear opens on December 1. I'm going to try again with more or less the same simple plan, stronger ankles, more light, and fewer distractions.
-
1:41
Sean Gillies: Status update
sur Planet OSGeoFinally, I have a professional update. I started work at TileDB on Wednesday. I'll be working from Fort Collins alongside colleagues around the world. I know a slice of TileDB's market, dense multi-dimensional arrays like earth observation data, well, but have a lot to learn about genetic data, embeddings, and storing graphs in adjacency matrices. I expect this to be both challenging and fun. I'll post more about it once I'm settled in.
I'll be resuming work on open source projects, which I've paused while job hunting, soon!
-
1:00
PostGIS Development: PostGIS Patch Releases
sur Planet OSGeoThe PostGIS development team is pleased to provide bug fix and performance enhancements 3.4.1, 3.3.5, 3.2.6, 3.1.10, 3.0.10 for the 3.4, 3.3, 3.2, 3.1, 3.0 stable branches.
-
18:58
Cartographie cérébrale
sur Veille cartographieCet article Cartographie cérébrale est apparu en premier sur Veille cartographique 2.0.
L’innovation scientifique nous fait souvent revoir les définitions des termes dans le langage scientifique. Là où la cartographie se voulait être “Par définition et depuis des siècles, la cartographie est l’art et la science d’élaborer des cartes, c’est-à-dire des représentations de l’espace géographique qui sont communicables.” (Ferland, 2000) cette définition se veut remaniée lorsque les […]
Cet article Cartographie cérébrale est apparu en premier sur Veille cartographique 2.0.
-
11:29
Les Systèmes d’informations géographique: un outil précieux pour les forestiers
sur Veille cartographieCet article Les Systèmes d’informations géographique: un outil précieux pour les forestiers est apparu en premier sur Veille cartographique 2.0.
Suivre l’évolution de la forêt, prévenir les feux, aménager les parcs nationaux, adaptation au changement climatique ou encore préservation de la biodiversité sont autant d’enjeux auxquels sont confrontés les gestionnaires des espaces forestiers en France. L’Office National de la Forêt axe la gestion de ces dernières sur trois grands axes: la production de bois, le […]
Cet article Les Systèmes d’informations géographique: un outil précieux pour les forestiers est apparu en premier sur Veille cartographique 2.0.
-
11:17
Introducing the Sunderland Collection
sur Google Maps ManiaThe Sunderland Collection of antique maps has been digitized in full and can now be explored in detail on the new virtual platform Oculi Mundi (Eyes of the World). The Sunderland Collection was started by Dr Neil Sunderland in the 1990s. The collection now consists of around 130 vintage globes, maps and atlases which date back to as early as the 13th century. The new Oculi Mundi platform takes
-
11:00
Le samedi, c'est Map Story !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierJe suis en ce moment en Nouvelle-Calédonie pour rencontrer les utilisateurs ArcGIS de la région pour échanger sur différents sujets comme l'usage de la 3D, les Jumeaux Numériques, l'Imagerie, l'IA mais aussi et surtout un focus et des ateliers particuliers autour des cas d'usages et des bonnes pratiques des données LiDAR. A travers ces échanges (notamment les excellentes présentations du GISDay), j'ai pu constater à quel point, pour ce territoire plus qu'ailleurs, les enjeux de protection de l'environnement était une préoccupation plus importante encore sur ces territoires comparés à la métropole.
J'ai donc choisi cette semaine, non pas une, mais 3 StoryMaps qui reflètent bien ces enjeux avec la préservation des forêts contre les incendies (voir ici), la sauvegarde de la faune et de la flore marine (voir ici), et enfin le suivi de l'évolution du litoral (érosion, stabilité, accrétion) pour mieux protéger les personnes et les biens des risques liés aux aléas climatiques (voir ici).
Réalisées à l'aide d'ArcGIS StoryMaps, les applications et leurs contenus sont hébergés sur la plateforme SaaS ArcGIS Online.
-
19:36
La zone d’infestation croissante du moustique tigre en France
sur Veille cartographieCet article La zone d’infestation croissante du moustique tigre en France est apparu en premier sur Veille cartographique 2.0.
Cela fait maintenant plusieurs années que l’on entend parler de moustiques tigre, ou encore Aedes albopictus en France. A l’origine, cet insecte vit dans les milieux tropicaux asiatiques et dans les milieux aquatiques ou dans des eaux stagnantes. Il est vecteur de maladies infectieuses émergentes, comme le zika ou la dengue. Le moustique tigre est […]
Cet article La zone d’infestation croissante du moustique tigre en France est apparu en premier sur Veille cartographique 2.0.
-
17:22
Planification urbaine à plusieurs échelles : intégration de Cergy dans le projet du Grand Paris
sur Veille cartographieCet article Planification urbaine à plusieurs échelles : intégration de Cergy dans le projet du Grand Paris est apparu en premier sur Veille cartographique 2.0.
Le Val d’Oise, intégré aux évolutions urbaines de la région Le projet du Grand Paris express continue d’évoluer, avec l’annonce par Valérie Pécresse de la création « à horizon 2040 » d’une ligne de métro intégrant la ville de Cergy au nouveau réseau de transport qui quadrillera la région : la ligne 19.Cette ligne, dont le tracé […]
Cet article Planification urbaine à plusieurs échelles : intégration de Cergy dans le projet du Grand Paris est apparu en premier sur Veille cartographique 2.0.
-
17:22
Le rôle des cartes dans la représentation du pouvoir : le cas de la Russie et de l’Ukraine
sur Veille cartographieCet article Le rôle des cartes dans la représentation du pouvoir : le cas de la Russie et de l’Ukraine est apparu en premier sur Veille cartographique 2.0.
L’invasion de l’Ukraine par la Russie le 20 février 2022 a marqué un tournant dans le conflit opposant les deux pays et qui débuta en 2014, autour du statut de la Crimée. Ce conflit armée de grande ampleur, de plus en plus difficilement justifiable en Russie, remet en cause sont statut de puissance militaire et […]
Cet article Le rôle des cartes dans la représentation du pouvoir : le cas de la Russie et de l’Ukraine est apparu en premier sur Veille cartographique 2.0.
-
17:21
Mise en évidence des liens entre inégalités raciales et géographiques par la cartographie : la contamination de l’eau à Flint.
sur Veille cartographieCet article Mise en évidence des liens entre inégalités raciales et géographiques par la cartographie : la contamination de l’eau à Flint. est apparu en premier sur Veille cartographique 2.0.
La cartographie est un médium souvent valorisé par sa capacité à mettre en exergue les liens entre différents phénomènes du fait de sa dimension visuelle. Cette capacité à rendre plus facilement intelligible les liens entre plusieurs variables est tout particulièrement utile pour prouver l’impact et l’importance d’un phénomène, comme ce fut le cas pour le […]
Cet article Mise en évidence des liens entre inégalités raciales et géographiques par la cartographie : la contamination de l’eau à Flint. est apparu en premier sur Veille cartographique 2.0.
-
17:02
Accès aux données non libres sur la Géoplateforme
sur Toute l’actualité des Geoservices de l'IGNL’accès aux données non libres se fait sur la Géoplateforme via des points d’accès privés soumis à un contrôle des accès
-
13:31
Quand Irma a Frappé : Saint-Martin Face à l’Ouragan Dévastateur
sur Veille cartographieCet article Quand Irma a Frappé : Saint-Martin Face à l’Ouragan Dévastateur est apparu en premier sur Veille cartographique 2.0.
Le 6 septembre 2017, l’île paradisiaque de Saint-Martin a été confrontée à l’ouragan dévastateur Irma. Tempête de catégorie 5, Irma a laissé des séquelles indélébiles à la région des Caraïbes. Les vents dépassant les 295 km/h, les pluies torrentielles et les vagues de tempête ont transformé ce paradis en un paysage de désolation, laissant derrière […]
Cet article Quand Irma a Frappé : Saint-Martin Face à l’Ouragan Dévastateur est apparu en premier sur Veille cartographique 2.0.
-
13:00
Free and Open Source GIS Ramblings: Adding basemaps to PyQGIS maps
sur Planet OSGeoIn the previous post, we investigated how to bring QGIS maps into Jupyter notebooks.
Today, we’ll take the next step and add basemaps to our maps. This is trickier than I would have expected. In particular, I was fighting with “invalid” OSM tile layers until I realized that my QGIS application instance somehow lacked the “WMS” provider.
In addition, getting basemaps to work also means that we have to take care of layer and project CRSes and on-the-fly reprojections. So let’s get to work:
from IPython.display import Image from PyQt5.QtGui import QColor from PyQt5.QtWidgets import QApplication from qgis.core import QgsApplication, QgsVectorLayer, QgsProject, QgsRasterLayer, \ QgsCoordinateReferenceSystem, QgsProviderRegistry, QgsSimpleMarkerSymbolLayerBase from qgis.gui import QgsMapCanvas app = QApplication([]) qgs = QgsApplication([], False) qgs.setPrefixPath(r"C:\temp", True) # setting a prefix path should enable the WMS provider qgs.initQgis() canvas = QgsMapCanvas() project = QgsProject.instance() map_crs = QgsCoordinateReferenceSystem('EPSG:3857') canvas.setDestinationCrs(map_crs) print("providers: ", QgsProviderRegistry.instance().providerList())
To add an OSM basemap, we use the xyz tiles option of the WMS provider:
urlWithParams = 'type=xyz&url=https://tile.openstreetmap.org/{z}/{x}/{y}.png&zmax=19&zmin=0&crs=EPSG3857' rlayer = QgsRasterLayer(urlWithParams, 'OpenStreetMap', 'wms') print(rlayer.crs()) if rlayer.isValid(): project.addMapLayer(rlayer) else: print('invalid layer') print(rlayer.error().summary())
If there are issues with the WMS provider,
rlayer.error().summary()
should point them out.With both the vector layer and the basemap ready, we can finally plot the map:
canvas.setExtent(rlayer.extent()) plot_layers([vlayer,rlayer])
Of course, we can get more creative and style our vector layers:
vlayer.renderer().symbol().setColor(QColor("yellow")) vlayer.renderer().symbol().symbolLayer(0).setShape(QgsSimpleMarkerSymbolLayerBase.Star) vlayer.renderer().symbol().symbolLayer(0).setSize(10) plot_layers([vlayer,rlayer])
And to switch to other basemaps, we just need to update the URL accordingly, for example, to load Carto tiles instead:
urlWithParams = 'type=xyz&url=http://basemaps.cartocdn.com/dark_all/{z}/{x}/{y}.png&zmax=19&zmin=0&crs=EPSG3857' rlayer2 = QgsRasterLayer(urlWithParams, 'Carto', 'wms') print(rlayer2.crs()) if rlayer2.isValid(): project.addMapLayer(rlayer2) else: print('invalid layer') print(rlayer2.error().summary()) plot_layers([vlayer,rlayer2])
You can find the whole notebook at: [https:]]
-
12:20
Mapping Damage in Gaza
sur Google Maps ManiaA researcher at UCL's CASA has released a new interactive mapping tool which can help researchers and news agencies "estimate the number of damaged buildings and the pre-war population in a given area within the Gaza Strip". The Gaza Damage Proxy Map is based on an earlier tool which was developed to estimate damage caused by Russia in Ukraine. The Gaza Damage Proxy Map colors individual
-
10:34
Qaujikairit : Prédire les événements climatiques en Arctique
sur Veille cartographieCet article Qaujikairit : Prédire les événements climatiques en Arctique est apparu en premier sur Veille cartographique 2.0.
Dans le paysage changeant et complexe de la météorologie arctique, une application nommée Qaujikairit est en train de transformer petit à petit la manière dont nous prévoyons et gérons les événements climatiques extrêmes dans cette région de la planète. Conçue pour offrir des prévisions météorologiques précises et avancées, cette application a la capacité de prédire […]
Cet article Qaujikairit : Prédire les événements climatiques en Arctique est apparu en premier sur Veille cartographique 2.0.
-
10:00
DINAMIS : l’imagerie satellite en Open Data
sur Veille cartographieCet article DINAMIS : l’imagerie satellite en Open Data est apparu en premier sur Veille cartographique 2.0.
DINAMIS, acronyme de Dispositif Institutionnel National d’Accès Mutualisé en Imagerie Satellitaire, est une plateforme française qui permet aux utilisateurs institutionnels, français et étrangers, d’accéder à des données satellitaires d’observation de la Terre. Elle a été créée en 2018 dans le cadre d’un partenariat entre le CNES, le CNRS, l’IGN, l’INRAE, l’IRD et CIRAD. DINAMIS a […]
Cet article DINAMIS : l’imagerie satellite en Open Data est apparu en premier sur Veille cartographique 2.0.
-
9:00
TerraObs, l'Observatoire de l'immobilier commercial de Lunéville
sur Makina CorpusTerraObs est l'outil de visualisation cartographique, en temps réel, de l'état d’occupation des locaux commerciaux en centre-ville de la ville de Lunéville.
-
15:46
3 explorations bluffantes avec DuckDB – Interroger des fichiers distants (1/3)
sur Icem7DuckDB révolutionne notre approche des données. En dépit de sa console austère, fleurant bon l’antique terminal, ce petit programme de moins de 20 Mo butine allègrement les bases les plus retorses, les plus lourdes ; qu’elles se présentent en CSV, (Geo)JSON, parquet ou en SGBD classique.
Vous êtes nombreux déjà à avoir entendu parler de cet ovni, à savoir que DuckDB est véloce, qu’il repose sur ce bon vieux langage SQL. Je veux vous présenter dans cette série de trois articles des possibilités que vous n’imaginez même pas. J’ai dû moi-même, parfois, me secouer la tête et retester soigneusement pour vérifier que je ne me trompais pas.
Commençons dans ce premier article par le travail direct avec des bases de données distantes, compressées, en open data sur Internet. Je prendrai deux exemples.
A - La base Insee du recensement de la population 2020Premier exemple, l’Insee, l’institut statistique français, vient de mettre en ligne la base détaillée du recensement, niveau individus et logements, au format parquet. Dans ce format parquet, chaque fichier pèse tout de même 500 Mo. Mais vous n’avez pas besoin de les télécharger pour travailler avec.
Je me pose la question suivante : à Paris, quels sont les arrondissements où la part des ménages ayant plus de 2 voitures est la plus forte ? Inversement on pourra s’intéresser aux arrondissements qui privilégient le ‘sans voiture’.
Je vous livre sans ménagement la requête SQL, le graphique exposant le résultat, et juste après, je vous explique. Pour le moment, retenez que vous pouvez exécuter cette requête vous-même, avec DuckDB, qu’elle consomme 12 Mo de bande passante, et prend en gros 2 secondes pour s’exécuter.
WITH tb1 AS ( SELECT ARM, VOIT, sum(IPONDI/NPERR::int) AS eft, sum(eft) OVER (PARTITION BY ARM) AS tot, round(1000 * eft / tot)/10 AS pct FROM 'https://static.data.gouv.fr/resources/recensement-de-la-population-fichiers-detail-individus-localises-au-canton-ou-ville-2020-1/20231023-122841/fd-indcvi-2020.parquet' WHERE dept = '75' AND NPERR 'Z' GROUP BY GROUPING SETS((ARM, VOIT),(VOIT)) ), tb2 AS ( PIVOT_WIDER (SELECT arm, voit, pct FROM tb1) ON VOIT USING first(pct) ) SELECT CASE WHEN ARM = '75001' THEN '1er' WHEN ARM IS NULL THEN 'Paris' ELSE CONCAT(RIGHT(ARM,2)::int, 'e') END AS 'Arrondt', "0" AS 'pas de voiture', "1" AS '1 voiture', "2" AS '2 voitures', "2" + "3" AS '2 voitures ou +', "3" AS '3 voitures ou +' FROM tb2 ORDER BY (Arrondt = 'Paris')::int, "2 voitures ou +" DESC ;
À l’opposé, les 2e et 3e arrondissements sont ceux où la part de ménages sans voiture est la plus élevée (huit ménages sur dix).
DécortiquonsComme l’URL de la base est longue, pour simplifier mon exposé, je crée d’abord une vue SQL, qui n’est qu’un alias vers ce fichier distant :
CREATE OR REPLACE VIEW fd_indcvi_2020 AS FROM 'https://static.data.gouv.fr/resources/recensement-de-la-population-fichiers-detail-individus-localises-au-canton-ou-ville-2020-1/20231023-122841/fd-indcvi-2020.parquet';
Ne vous étonnez pas de l’absence d’un SELECT * avant le FROM, DuckDB permet de s’en passer – et c’est bien pratique – si l’on veut lire toutes les colonnes de la table.
J’utilise DuckDB soit en lançant le petit exécutable DuckDB.exe, soit à l’intérieur de DBeaver, un environnement gratuit de connexion à de multiples sources de données. DBeaver me permet de gérer de vrais scripts, de les documenter pour les retrouver plus tard. L’affichage et l’export des résultats (en CSV par exemple, ou vers le presse-papier) sont aussi plus sympas.
Une première commande simple nous donne une info minimale, la liste des colonnes et leur type :
DESCRIBE FROM fd_indcvi_2020 ;
Elle est quasi instantanée (200 ms), et j’ai mis du temps à comprendre ce qui se passait. J’analyse tout de même la structure d’un fichier de 500 Mo, sur data.gouv.fr , et je ne l’ai pas téléchargé. Comment diantre est-il possible d’avoir une info de structure aussi vite ?
Cela tient à deux facteurs :
- Le format parquet stocke dans son en-tête des métadonnées, par exemple la liste des colonnes et leur type ;
- DuckDB envoie un requête HTTP particulière, de type « range-request », qui demande à data.gouv.fr de ne lui servir qu’une petite plage de bytes, une mini-tranche du fichier parquet. Seuls 700 bytes ont transité par le réseau pour nous livrer la structure de ce fichier parquet.
Je repère les variables dont j’aurai besoin : DEPT pour retenir Paris, ARM pour les n° d’arrondissements, VOIT pour caractériser les personnes selon le nombre de voitures du ménage, IPONDI pour calculer un effectif, NPPER pour prendre en compte le nombre de personnes dans le ménage. La documentation du fichier m’offre toute la compréhension nécessaire.
Voici un comptage de ménages, selon leur nombre de voitures, par arrondissement parisien :
SELECT ARM, VOIT, round(sum(IPONDI/NPERR::int)) AS eft FROM fd_indcvi_2020 WHERE dept = '75' AND NPERR 'Z' GROUP BY ALL ;
Pour calculer un nombre de ménages, je divise la population par le nombre de personnes dans le ménage. NPPER (tout comme VOIT) n’est pas exactement numérique : 6 veut dire 6 personnes ou plus (3 veut dire 3 voitures ou +) : on s’en accommodera. La modalité Z correspond à des logements « non ordinaires », qu’on laisse ici de côté.
Je produis ensuite un tableau croisé, avec PIVOT_WIDER (qu’on peut aussi écrire, plus simplement, PIVOT) :
WITH tb1 AS ( SELECT ARM, VOIT, round(sum(IPONDI/NPERR::int)) AS eft FROM fd_indcvi_2020 WHERE dept = '75' AND NPERR 'Z' GROUP BY ARM, VOIT ) PIVOT_WIDER (FROM tb1) ON VOIT USING first(eft) ORDER BY ARM ;
Notez la nouvelle syntaxe que j’utilise pour enchainer deux opérations dans la même requête. Elle est élégante et m’évite de créer une table physique intermédiaire. Ce qui figure dans le WITH () est comme une table temporaire, disponible le temps de la requête.
J’aimerais maintenant calculer le total pour Paris. Je n’ai pour cela qu’à aménager la clause GROUP BY. Le complément GROUPING SETS permet de spécifier ensemble différents niveaux d’agrégation.
WITH tb1 AS ( SELECT ARM, VOIT, round(sum(IPONDI/NPERR::int)) AS eft FROM fd_indcvi_2020 WHERE dept = '75' AND NPERR 'Z' GROUP BY GROUPING SETS ((ARM, VOIT), (VOIT)) ) PIVOT_WIDER (FROM tb1) ON VOIT USING first(eft) ORDER BY ARM ;
On découvre en bas de tableau la nouvelle ligne ajoutée. On pourra plus tard remplacer ce disgracieux NULL par la mention ‘Paris’.
Maintenant, ce que je voudrais pour répondre à ma question initiale, c’est calculer des pourcentages, pour chaque arrondissement : % de ménages du 12e qui ont 0 voiture, plus de 2 voitures, etc. Pour cela, il me faut le total des ménages pour chaque arrondissement. Il y a plusieurs façons de le faire, plus ou moins manuelles. La plus élégante consiste à utiliser les mots clés OVER et PARTITION.
Revenons à notre premier calcul, avant le PIVOT. Je lui rajoute une ligne, après la première :
SELECT ARM, VOIT, sum(IPONDI) AS eft, sum(eft) OVER (PARTITION BY ARM) AS tot, FROM fd_indcvi_2020 WHERE dept = '75' AND NPERR 'Z' GROUP BY GROUPING SETS((ARM, VOIT),(VOIT)) ;
Cette instruction a bien pour effet de calculer un total par arrondissement. PARTITION fonctionne comme un nouveau GROUP BY, mais qui ne change pas le nombre de lignes, il ajoute simplement une colonne calculée. Cette nouvelle instruction relève de la catégorie des « WINDOW functions », très puissantes, dont je ne vais pas décrire toutes les finesses ici.
Une autre des charmantes spécificités du SQL dans DuckDB, c’est que les colonnes calculées sont immédiatement utilisables pour le calcul d’autres nouvelles colonnes.
Ainsi, je peux produire le pourcentage dans le même mouvement :
SELECT ARM, VOIT, sum(IPONDI/NPERR::int) AS eft, sum(eft) OVER (PARTITION BY ARM) AS tot, round(1000 * eft / tot) / 10 AS pct FROM fd_indcvi_2020 WHERE dept = '75' AND NPERR 'Z' GROUP BY GROUPING SETS((ARM, VOIT),(VOIT)) ;
Il ne me reste plus qu’à pivoter et arranger la présentation du résultat final :
WITH tb1 AS ( SELECT ARM, VOIT, sum(IPONDI/NPERR::int) AS eft, sum(eft) OVER (PARTITION BY ARM) AS tot, round(1000 * eft / tot)/10 AS pct FROM fd_indcvi_2020 WHERE dept = '75' AND NPERR 'Z' GROUP BY GROUPING SETS((ARM, VOIT),(VOIT)) ), tb2 AS ( PIVOT_WIDER (SELECT arm, voit, pct FROM tb1) ON VOIT USING first(pct) ) SELECT CASE WHEN ARM = '75001' THEN '1er' WHEN ARM IS NULL THEN 'Paris' ELSE CONCAT(RIGHT(ARM,2)::int, 'e') END AS 'Arrondt', "0" AS 'pas de voiture', "1" AS '1 voiture', "2" AS '2 voitures', "2" + "3" AS '2 voitures ou +', "3" AS '3 voitures ou +' FROM tb2 ORDER BY (Arrondt = 'Paris')::int, "2 voitures ou +" DESC ;
Cette dernière écriture prend 2 secondes et consomme seulement 12 Mo de bande passante. Rappelons-le, elle attaque directement le fichier parquet de 500 Mo en ligne, que je n’ai pas téléchargé au préalable.
Parquet organise l’information par groupe de lignes et par colonne, je n’ai lu via des range-requests que les colonnes dont j’avais besoin pour le calcul, et uniquement pour les lignes correspondant à Paris.
B - Les faits de délinquance du ministère de l’IntérieurIntéressons-nous maintenant à la base statistique communale de la délinquance enregistrée par la police et la gendarmerie nationales.
Il ne s’agit pas – encore – de fichiers parquet, mais de CSV compressés (csv.gz). Pas de problème, DuckDB peut les lire directement. En revanche, les range-requests ne sont pas aussi puissantes qu’avec Parquet : il faudra lire tout le fichier (39 Mo) avant de pouvoir en tirer parti.
Je crée comme tout à l’heure une vue pour simplifier les écritures. En réalité, cette vue analyse déjà tout le fichier pour deviner la structure les colonnes (j’ai mesuré 1 seconde d’attente).
CREATE OR REPLACE VIEW faits_delinq AS FROM 'https://static.data.gouv.fr/resources/bases-statistiques-communale-et-departementale-de-la-delinquance-enregistree-par-la-police-et-la-gendarmerie-nationales/20230719-080535/donnee-data.gouv-2022-geographie2023-produit-le2023-07-17.csv.gz';
Ce qui fait qu’un DESCRIBE devient instantané :
DESCRIBE FROM faits_delinq ;
CODGEO_2023 est certainement le code commune, je me fabrique un aperçu de la table pour ma ville, Toulouse :
FROM faits_delinq WHERE CODGEO_2023 = '31555' LIMIT 10 ;
Les informations utiles sont : l’année (qu’il faudra arranger), la classe et le nombre de faits. On peut noter que l’unité des faits dépend de la classe d’infraction : victimes ou voitures par exemple.
Avec un PIVOT, la présentation devient plus claire, et distingue en colonnes une quinzaine de classes de faits de délinquance.
WITH faits_tls AS ( SELECT concat('20', annee) AS an, classe, faits, FROM faits_delinq WHERE CODGEO_2023 = '31555' ORDER BY an, classe ) PIVOT_WIDER faits_tls ON classe USING first(faits) ORDER BY an ;
Pour simplifier et construire un graphique, je vais m’en tenir aux seules classes dont le nombre de faits, en fin de période (2022), dépasse les 2 500. Une petite ligne additionnelle, utilisant la puissance des « WINDOW functions », me permet de calculer cette valeur terminale et de filtrer les classes que je veux retenir.
QUALIFY joue le rôle d’un WHERE, et arg_max() – encore une superbe petite fonction – cible le nombre de faits là où an est maximal (donc 2022) :
WITH faits_tls AS ( SELECT concat('20', annee) AS an, classe, faits, FROM faits_delinq WHERE CODGEO_2023 = '31555' QUALIFY arg_max(faits, an) OVER (PARTITION BY classe) > 2500 ORDER BY an,classe ) PIVOT_WIDER faits_tls ON classe USING first(faits) ORDER BY an ;
Avec un copier-coller du résultat, je peux produire, avec Datawrapper, cet éclairant graphique :
J’ai donc montré avec ces deux exemples comment interroger directement des bases distantes avec DuckDB, et avec beaucoup de souplesse et d’élégance.
J’espère aussi avoir convaincu un peu plus de diffuseurs de bases d’utiliser le format Parquet pour mettre à disposition leurs données.
Dans le prochain épisode (2/3), je parlerai d’API web et du format JSON.
Pour en savoir plus- 3 explorations bluffantes avec DuckDB – Butiner des API JSON (2/3), icem7, 2023
- 3 explorations bluffantes avec DuckDB – Croiser les requêtes spatiales (3/3), icem7, 2023
- Parquet devrait remplacer le format CSV, icem7, 2022
- DuckDB redonne une belle jeunesse au langage SQL, icem7, 2023
- Guide d’utilisation des données du recensement de la population au format Parquet, Antoine Palazzolo, Lino Galiana, Insee, 2023
L’article 3 explorations bluffantes avec DuckDB – Interroger des fichiers distants (1/3) est apparu en premier sur Icem7.
-
14:33
Un plugin DuckDB dans QGIS !
sur OslandiaDuckDB c’est quoi ?DuckDB est un système de base de données relationnel et open source (sous licence MIT). Les bases DuckDB sont portables (à l’instar de SQLite ou GeoPackage par exemple) ce qui rend leur utilisation assez simple : pas besoin d’installation « lourde », il faut seulement installer une bibliothèque dans votre langage préféré (Python, Rust, R, C++). Une CLI est également disponible.
Enfin, pour terminer cette brève introduction de la solution, il faut noter que DuckDB a la particularité d’utiliser un système de traitement par colonne (et non par ligne comme dans les SGBD classiques) ce qui diminue les temps de calcul sur certaines opérations. Un autre des atouts de cette solution est d’être capable de lire et convertir des données au format Parquet ou GeoParquet.
Les fonctions spatialesDuckDB possède une extension pour utiliser des données spatiales qui n’est pas activée par défaut. L’inconvénient de cette extension spatiale est que pour le moment, elle ne gère pas les systèmes de projection. Pour la plupart, ces fonctions spatiales sont issues de la librairie GEOS. On y trouve toutes les fonctions spatiales classiques et le support de beaucoup de formats de données spatiales comme le Shapefile, GeoJSON ou KML par exemple.
Grâce à un financement de l‘IFREMER, nous avons développé un plugin QGIS qui permet d’afficher des données spatiales contenues dans une base DuckDB.
Fonctionnalités de QDuckDBÀ l’heure ou DuckDB fait beaucoup parler de lui sur les différents réseaux, il est important qu’un logiciel SIG open source aussi important que QGIS soit en capacité de lire des données géographiques provenant de cette source.
Arrivés au terme de la première phase de développement de QDuckDB, nous sommes fiers d’annoncer la disponibilité de QDuckDB qui permet de charger dans QGIS une couche de données géographiques issue d’une base DuckDB.
Les principaux développements réalisés dans QDuckDB sont donc :
- Ajout d’un provider (ou fournisseur) de données permettant de lire une base de données DuckDB
- Création d’une interface utilisateur pour utiliser le provider
- Création d’un package pour Windows qui permet d’inclure les dépendances de DuckDB dans le plugin
Pour ajouter le support d’une nouvelle source de données dans QGIS il faut créer un nouveau provider (fournisseur).
Par défaut, le cœur de QGIS comporte un certain nombre de providers, comme PostgreSQL ou GeoPackage par exemple, tandis que d’autres peuvent être implémentés dans des plugins. Un provider dans le contexte QGIS est l’implémentation des interfaces définissant un fournisseur de données, interfaces qui permettront à QGIS d’obtenir les informations nécessaires pour constituer un layer (colonnes, geometry, structure, métadonnées, projection, clé primaire etc). La création du provider est donc de loin la partie la plus importante et volumineuse du projet.
Nous avons décidé d’implémenter ce nouveau provider via un plugin QGIS (et non dans le cœur). Tout d’abord parce que la technologie DuckDB est nouvelle et évolue encore rapidement et aussi parce que dans un premier temps, il est plus facile de maintenir un plugin qu’un développement cœur. Il s’agit donc d’un bon moyen de tester la connexion entre QGIS et DuckDB, avant d’envisager un portage vers le cœur.
À venirLe provider ne permet pas encore d’éditer les données, il fonctionne en « read only » et seulement sur des tables contenant un seul type de géométrie (Point, Ligne ou Polygon). En fonction des financements disponibles, nous imaginons entre autres les améliorations suivantes :
- Modification d’une couche (modifier les données, ajouter/supprimer des colonnes, créer/supprimer des entités, etc)
- Import d’une couche spatiale depuis QGIS directement dans une base DuckDB
- Meilleure intégration de DuckDB dans QGIS
- Prise en compte des tables avec plusieurs types de géométrie
Pour toute demande d’évolution, n’hésitez pas à nous contacter : contact@oslandia.com
Liens importants- Le code source (sous licence GPL2+)
- La documentation
- Le plugin sur le répertoire officiel QGIS
-
11:06
The Rise & Fall of National Rail Networks
sur Google Maps ManiaThe Berliner-Morgenpost has visualized the rise and fall of the German rail network from its rapid growth in the 19th Century right up to its 21st Century post-privatization contraction. The German Rail Network from 1835 Until Today uses an interactive map to show all the active rail lines in Germany for every single year from 1835 until 2022.On December the 7th 1835 a six-kilometer rail line
-
9:00
Lutra consulting: 3D Tiles in QGIS
sur Planet OSGeoEarlier this year, in collaboration with North Road we were awarded a grant from Cesium to introduce 3D tiles support in QGIS. The feature was developed successfully and shipped with QGIS 3.34.
In this blog post, you can read more about how to work with this feature, where to get data and how to display your maps in 2D and 3D. For a video demo of this feature, you can watch Nyall Dawson’s presentation on Youtube.
What are 3D tiles?3D tiles are a specification for streaming and rendering large-scale 3D geospatial datasets. They use a hierarchical structure to efficiently manage and display 3D content, optimising performance by dynamically loading appropriate levels of detail. This technology is widely used in urban planning, architecture, simulation, gaming, and virtual reality, providing a standardised and interoperable solution for visualising complex geographical data.
Examples of 3D tiles:
Data from Swisstopo [https:] Washington - 3D Surface Model (Vricon, Cesium) 3D tiles in QGISTo be able to use 3D tiles in QGIS, you need to have QGIS 3.34 or later. You can add a new connection to a 3D tile service from within the Data Source Manager under Scene:
Adding a new 3D tile service from Data Source Manager in QGISAlternatively, you can add the service from your Browser Panel:
3D tiles data provider in the Browser panelTo test the feature, you can use the following 3D tiles service:
Creating a new connection to a 3D tiles serviceName: Bathurst URL: [https:]
You can then add the map from the newly generated connection to QGIS:
Adding a new 3D tiles to QGISBy default, the layer is styled using texture, but you can change it to see the wireframe mesh behind the scene:
3D tiles’ mesh wireframeYou can change the mesh fill and line symbols similar to the vector polygons. Alternatively, you can use texture colors. This will render each mesh element with the average value of the full texture. This is ideal when dealing with a large dataset and want to get a quick overview of the data:
3D tiles with texture color for meshesTo view the data in 3D, you can open a new 3D map. Similar to 2D map, by zooming in/out, finer resolution tiles will be fetched and displayed:
Using data from Cesium ionCesium ion is a cloud-based platform for managing and streaming 3D geospatial data. It simplifies data management, visualisation, and sharing.
To add 3D tiles from Cesium ion, you need to first sign up to their service here: [https:]
Under Asset Depot, you will see a catalogue of publicly available datasets. You can also upload your own 3D models (such as OBJ or PLY), georeference them and get them converted to 3D tiles.
You can also add one of the existing tile service under [https:]] and select the tile service and then click on Add to my assets:
Adding an existing dataset to your Cesium ion assetsYou can use the excellent Cesium ion plugin by North Road from the QGIS repository to add the data to QGIS:
Adding Cesium ion assets to QGIS Working with Google 3D dataIn addition to accessing Google Photorealistic 3D tiles from Cesium ion, you can also add the tiles directly in QGIS. First you will need to follow the instructions below and obtain API keys for 3D tiles: [https:]]
During the registration process, you will be asked to add your credit card details. Currently (November 2023), they do not charge you for using the service.
Once you have obtained the API key, you can add Google tiles using the following connection details:
Adding Google Photorealistic tiles in QGIS Notes and remarks- Adjusting map extents for large scenes
When dealing with large scenes, map extents should be set to a smaller area to be able to view it in 3D. This is the current limitation of QGIS 3D maps as it cannot handle scenes larger than 500 x 500 km.
To change the map extent, you can open Project Properties and under View Settings change the extent. In the example below, the map extent has been limited only to a part of London, so we can view Google Photorealistic tiles in the 3D map without rendering issues.
Limiting project extent in QGIS 3D tiles from Google in QGIS- Network cache size
If you are handling a large dataset, it is recommended to increase network cache size to 1 GB or more. The default value in QGIS is much lower and it results in slower rendering of the data.
Increasing Cache size in QGIS for faster rendering- Overlaying other 3D data
When you try to overlay other data sets on top of a global 3D tiles, the vertical datum might not match and hence you will see the data in the wrong place in a 3D map. To fix the issue, you may need to use elevation offsetting to shift the data along the Z axis under Layer Properties:
Offsetting elevation of a layer in QGIS Future worksThis is the first implementation of the 3D tiles in QGIS. For the future, we would like to add more features for handling and creation of the 3D tiles. Our wishlist in no particular order is:
- Globe view: QGIS 3D cannot handle large scenes or unprojected views.
- More advanced styling of meshes: as an example, users will be able to create their own style.
- 3D In-door navigation: as an example users will be able to navigate inside buildings and potentially it will bring BIM data closer to QGIS
- Generation of 3D tiles inside QGIS: adding a processing tool in QGIS to generate 3D Tiles from your map data.
If you would like to see those features in QGIS and want to fund the efforts, do not hesitate to contact us.
-
19:16
Free and Open Source GIS Ramblings: MovingPandas v0.17 released!
sur Planet OSGeoOver the last couple of months, I have not been posting release announcements here, so there is quite a bit to catch up.
The latest v0.17.2 release is now available from conda-forge.
New features (since 0.14):
- Improved MovingFeatures MF-JSON support
- New OutlierCleaner #334
- Faster stop detection #316
- New arrow markers to indicate trajectory direction in plots fb1174b
- Distance, speed, and acceleration unit handling #295
- New aggregation parameter (agg) for to_traj_gdf() 5745068
- New get_segments_between() for TrajectoryCollection #287
Behind the scenes:
- We now have a dedicated Github organization: [https:]] that houses all related repositories
- And we finally added [https] support to the website
As always, all tutorials are available from the movingpandas-examples repository and on MyBinder:
If you have questions about using MovingPandas or just want to discuss new ideas, you’re welcome to join our discussion forum.
-
15:09
OGC India Forum 2023: Key Highlights from Hyderabad
sur Open Geospatial Consortium (OGC)A meeting of the OGC India Forum was held on October 18, 2023, in Hyderabad, where over 40 experts from government, industry, and academia met to discuss the future of geospatial technologies in India. With its booming tech industry, Hyderabad provided an apt backdrop for discussions on innovation and standards in the geospatial realm.
The event was supported by the following organizations: The Association of Geospatial Industries (AGI India), which represents India’s geospatial private sector capabilities; the Bureau of Indian Standards (BIS), the national standards body that underpins technical excellence; and Geospatial World, a media company and the host for GeoSmart India 2023, where the forum was organized.
A pivotal moment at the event was the unveiling of the OGC India Forum’s new Charter, heralding a renewed commitment to advancing geospatial standards and innovation within the Indian context. Also at the Forum, OGC and AGI India renewed their partnership in line with the policy priorities of India.
Harsha Madiraju, OGC, and Sreeramam GV, AGI India, exchanging the partnership agreement.The forum facilitated a series of expert-led panels, dissecting the latest trends, challenges, and opportunities in the geospatial and Earth Observation sectors. It provided a platform for participants to contribute insights and actively shape the Forum’s committees and future directives.
Emphasizing the Economic Value of Geospatial StandardsHarsha Madiraju, Lead – OGC India Forum, set the stage with a presentation on the economic impact of standards in geospatial technologies. Citing the 2012 ISO publication on Standards and Economic Growth, he highlighted the positive correlation between the proliferation of standards and national economic development. This underscores the importance of investment in geospatial interoperability and its tangible benefits to industries and economies.
Harsha Madiraju, Lead – OGC India Forum, delivering his opening address.From the Indian Context, Harsha said that we need proven methodologies and best practices for implementing Standards in India’s diverse and complex landscape. From this perspective, he said, the “Guide to the Role of Standards in Geospatial Information Management” prepared by ISO/TC 211, OGC, and IHO, and endorsed by UN-GGIM, provides a reliable framework around geospatial standards implementation. Quoting the guide, he said the Indian community can refer to the Goal-based Approach to geospatial standards implementation, where different maturity levels from Tier 1 to Tier 4 are prescribed.
Goal-based Approach to geospatial standards implementationHarsha said about the interoperability scenario in India: “Our data and systems are not yet fully interoperable, and our community is at varying stages of maturity compared to more developed geospatial ecosystems. The opportunity here is immense. It’s not just about sharing maps: it’s about evolving towards a spatially enabled nation where we can take advantage of the authoritative datasets coming up for India.”
He further called for collaboration by saying “In a country like India, with its unique challenges and opportunities, the role of standards in accelerating the maturity of our technology ecosystems is crucial. At OGC India Forum, we aim to work on standards, compliance, and innovation. It’s not just the responsibility of a few: it’s a collective endeavor. Your expertise and contributions can shape the future of geospatial technology in India.”
Concluding his talk, he said, “We have the framework, the global endorsement, and, most importantly, a community willing to drive change. Let’s invest wisely in standards to shape a future that benefits us all.”
Panels and Discussions for India – Tech Trends, Adoption of Standards, and Academic Perspectives.The event then proceeded with three panels on the following topics:
Panel on Geospatial and Earth Observation Technology Innovation in IndiaThe panel discussed India’s contributions to geospatial and Earth Observation technologies and the possible advancements that may come from the Indian government, private sector, and especially start-ups. The session also discussed the untapped sectors and applications that these technologies could significantly impact. Finally, the discussions identified key challenges in technology adoption and scalability and discussed how the community can help overcome these challenges.
Panelists on Geospatial and Earth Observation Technology Innovation in India, along with along with AGI and OGC Staff (on the right side)Rajesh Mathur, Esri India, said that federated GIS architecture is a new paradigm enabling collaboration and data sharing. According to him, India’s National Geospatial Policy 2022 is a progressive and transformational initiative that will accelerate the adoption of geospatial technologies by encouraging collaboration and data sharing among all the stakeholders. This opens up exciting opportunities for GIS deployment – both on the Cloud and in a federated architecture. Data partnerships enabled by Standards and interoperability will allow users from multiple organizations to collaborate and share content through trusted and secure workflows.
Shubham Sharma, GalaxEye Space, said that the OGC India Forum provided a great platform to interact with the panel members and the audience with diverse experiences. With discussions ranging from the evolution of technology in the geospatial sector to standardization, the discussions centred around the implementation of OGC standards in India. With the continued expansion of the geospatial sector, Open Standards will pave a smoother road for building scalable and sustainable products.
S S Raja Shekar, National Remote Sensing Centre (NRSC), said OGC standards have changed how geospatial data and applications are handled, providing simple solutions to complex exchanges of data and services. A growing focus on standards in the space domain and in sectors of priority to the country where geospatial applications are critical is needed. This session also brought perspectives and ideas from entrepreneurs and proved to be highly constructive.
Akshay Loya, Founder & CEO of GISKernel Technologies, said “I was asked how I envision the evolution of the geospatial industry in India. My response was straightforward: we, as young founders, can share our insights alongside esteemed figures on a platform like OGC India Forum, which is a significant evolution in our industry.”
Panel on Geospatial and Earth Observation Standards in IndiaThe second panel examined the current adoption of BIS/ISO and OGC standards in India, focusing on areas where they are most – and least – implemented. The panel also discussed the avenues available for contributing to geospatial and Earth Observation Standards, both at a national and international level. The session then also delved into the compliance and procurement aspects.
Speakers at the Panel on Geospatial and Earth Observation StandardsAbhiroop Bhatnagar, Lead, Platform at Aereo, said “I would like to share the message regarding the importance of cloud-native geospatial formats. The essential property of cloud-native formats is that they allow data delivery directly from cloud-based storage to clients without involving any compute in between – for example consider direct requests to S3 from web browsers. The world is quickly transitioning towards a cloud-based data-delivery paradigm. Under this new paradigm, if we have to ensure scalability along with preserving efficiency, it is critical to utilize cloud-native geospatial formats. In that respect, Cloud-optimized GeoTIFF has already been accepted as an OGC standard and is well-supported by the ecosystem. We at Aereo have already integrated support for COGs in our WebGIS platform, Aereo Cloud. We actively promote it as the preferred format for raster data within the industry and the government.”
Ashish Tiwari, Joint Director of the Bureau of Indian Standards (BIS), said that ISO/TC211 and OGC have a strong history of collaboration on geospatial standards. BIS, through the Geospatial Information Sectional Committee, has adopted over twelve Standards and is working on adopting fourteen more. BIS looks forward to collaborating with the OGC community, as this will be valuable in many areas where BIS can understand recent trends and best practices.
Participating in this session, Vishnu Chandra, Former Deputy Director General & HOG -NIC, Geospatial Technology Services Division, said that open geospatial Standards are the core foundation of geospatial information interoperability and play a crucial role through open geospatial APIs for the exchange of data and Service Delivery. OGC India Forum can play a critical role in bringing the global OGC standards to India in collaboration with various government, industry, and academic stakeholders.
OGC standards have a significant role given the context of the Indian National Geospatial Policy 2022, which calls for the creation of the National Geospatial Foundation around 14 Thematic Areas to support UN-GGIM objectives associated with the UN Sustainable Development Goals. These themes also have relevance in digital public infrastructures and platforms for specific governance, planning, and service delivery in the Indian context. Therefore, each data theme needs Standards implemented across the entire geospatial information value chain.
Panel providing Perspectives from Academia & Research on Innovation and Standards in IndiaThe final panel discussed the current awareness and usage of geospatial and Earth Observation Standards in academic programs and research projects. The discussions explored the extent to which Standards are integrated into educational curricula. The panel also delved into how academic and research institutions can contribute to standards development, implementation testing, and even lead the creation of new standards.
Speakers at the Panel Providing Perspectives from Academia & ResearchDr. Sanjay Chaudhary, Professor and Associate Dean, Ahmedabad University, School of Engineering and Applied Science, said “There is a lack of interest in geospatial technologies in India from the students in the broader computer science and IT community. Helping them understand the value and opportunities available in this sector will be important. With the evolution of OGC Standards into APIs and the availability of developer resources, we can make these students learn and invest in this direction, which will be valuable to their professions and bring skilled resources to India.”
Professor Dr. Karbhari Vishwanath Kale, Vice-Chancellor of Dr. Babasaheb Ambedkar Technological University, Lonere, Raigad, Maharashtra, said “Through our engagement with the Bureau of Indian Standards, I have been making personal efforts to bring awareness in our professional circles on the value and importance of Standards. As an OGC Member, our university closely follows the development of international Standards by OGC. Some of our core interests lie in the intersection of multi- and hyper-spectral sensor data for agriculture, material detection, disaster management, and health care. We must invest in developing sensors and data dissemination platforms and make applications and data more broadly available, specifically in agriculture. In line with the Indian National Education Policy 2020, our university has set goals to establish and design the course curriculum with a research lab where IoT, sensors, and Standards can be brought together for the overall benefit of end users. We look forward to collaborating with the international network of OGC and taking this on.”
Dr. Sumit Sen, GISE Hub, IIT Bombay, said “Our Hub is established as an interdisciplinary project funded by the Department of Science and Technology, Govt. of India, to enable the research and development of geospatial technology solutions. In turn, our hub works with many academic and research organizations to further fundamental research in GIScience. Standards and Interoperability is one of the focus areas, and we continue to work closely with OGC and other stakeholders like IIT Kanpur, IIT Tirupati, and IIIT Hyderabad in enabling the geospatial community with the right skills on OGC Standards and APIs. The Winter School is one of India’s unique learning programs on geospatial standards. It is a fifteen-day on-campus training program supported by OGC Staff and Members. It provides hands-on and practical training on OGC Standards to India’s government, private, and research organizations. The 2023 program will be on the OGC API Stack. We will continue our international engagement and work closely with the OGC India Forum community.”
Next StepsThe OGC India Forum 2023 event was a success. The event concluded with a broader agreement around the need to identify areas of engagement in the coming days. It was agreed that there is a need for partnerships and to organize events, training programs, and policy roundtables on geospatial standards, in collaboration with OGC Members and Partners in India and the broader community.
The post OGC India Forum 2023: Key Highlights from Hyderabad appeared first on Open Geospatial Consortium.
-
11:21
Geotrek, 11 ans d’une communauté grandissante
sur Makina CorpusCet article présente l'organisation communautaire du logiciel libre Geotrek et met en avant quelques ingrédients, qui selon nous, permettent de fédérer et donc de participer à la réussite d'un logiciel libre.
-
10:02
Wednesday Night is Game Night
sur Google Maps ManiaFollowing the huge runaway success of Benjamin Tran Dinh's the London Tube Memory Game (which bears an uncanny resemblance to my own London TubeQuiz) it is not that surprising that a number of other map memory games have now suddenly appeared on the scene. US States QuizMy own US States Quiz is similar to the London Tube Memory Game. The only real difference is that instead of having
-
5:55
Paris sportif
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueEn toile de fond des Jeux olympiques et paralympiques 2024, l’Apur a publié l’Atlas des pratiques sportives à Paris. Ce recueil de cartes veut mettre en lumière l’offre en matière de sport de la ville avec tout d’abord 409 équipements en salle publique et 597 équipements en plein air, dont des installations en accès libre dans l’espace public. Du côté des salles de sport privées, 485 lieux ont été recensés. L’offre d’équipement se développe avec 175 projets de rénovation ou de construction en cours depuis 2020, dont 91 livrés en mai 2023. 55 devraient l’être en 2024 et 29 après 2024. La Ville de Paris répond ainsi à une forte demande de pratique sportive, mais elle évolue également dans l’initiative du bouger plus. Elle axe aussi sa démarche sur l’accessibilité à tous les publics et développe des maisons sport santé. L’un des objectifs est d’installer des baignades temporaires au sein de centres sportifs afin d’enrichir l’accès aux loisirs aquatiques aux Parisiens pendant les fortes chaleurs.
+ d'infos :
apur.org/fr
-
18:07
Le groupe PARERA renforce ses positions sur le continent africain en faisant l’acquisition du groupe marocain ETAFAT pour créer ETAFAT GROUPE PARERA
sur Décryptagéo, l'information géographiqueDéjà implanté sur le continent africain au travers de 2 filiales, situées à Madagascar et en Côte d’Ivoire, le Groupe PARERA, leader dans le domaine de la cartographie et expert en gestion de la donnée patrimoniale, 42 M€ de chiffre d’affaires et 910 collaborateurs, a fait l’acquisition du groupe marocain ETAFAT, spécialisé en études, ingénierie et topographie. Cette opération de croissance externe s’inscrit pleinement dans la stratégie du groupe français qui souhaite accélérer son développement à l’international.Fondé en 1983, le groupe marocain ETAFAT est spécialisé dans les métiers du foncier, du conseil & de l’ingénierie, de la data géospatiale et des systèmes d’informations géographiques. Basé à Casablanca, il opère sur toute l’Afrique et à l’international (Europe, Moyen-Orient) au travers de ses 4 entités : ETAFAT (entreprise leader à l’échelle continentale, innovante et créatrice de valeur ajoutée en acquisition et en traitement de l’information géospatiale), ETAFAT ING (bureau d’études en ingénierie
& conseil spécialisé dans le domaine de l’aménagement du territoire), ETAFAT AFRIQUE (filiale implantée en Côte d’Ivoire qui a pour mission de participer au développement de la Côte d’Ivoire à travers ses compétences techniques et ses moyens technologiques) et ETAFAT SÉNÉGAL (filiale implantée au Sénégal qui a pour mission de participer au développement du Sénégal).
ETAFAT GROUPE PARERA emploie 180 salariés et génère un chiffre d’affaires annuel de 8 M€.
Le Groupe PARERA maintient sa confiance auprès de l’équipe managériale actuelle ainsi qu’à l’ensemble du personnel garantissant ainsi une transition en douceur et sécurisée et la poursuite de l’excellence opérationnelle.
Avec un cœur de métier commun, les deux entités sont complémentaires en termes de portefeuille clients et de technologies déployées ; ETAFAT GROUPE PARERA apportera notamment au Groupe PARERA son savoir-faire en matière d’acquisition de la donnée géographique aéroportée (prise de vues aériennes et Lidar).
« Cette opération de croissance externe au Maroc nous permet de consolider nos positions sur le continent africain pour y accélérer notre croissance. Au-delà, elle nous offre également l’opportunité de tourner notre développement vers le Moyen-Orient. Cette expansion constitue pour le Groupe une réelle opportunité en termes de marchés. » déclare Jacques Cettolo, Président du Groupe PARERA, avant de poursuivre « Cette acquisition a réellement du sens. Le Groupe PARERA et ETAFAT se connaissent déjà mutuellement, ils ont en effet déjà été amenés à collaborer sur des projets ».
Des investissements sont d’ores et déjà programmés par le Groupe PARERA, comme par exemple, l’acquisition d’un second avion dédié à l’acquisition de données géographiques aéroportées.
Pour mémoire, le Groupe PARERA a entamé son développement à l’international en 2016 avec le rachat d’ILS Océan Indien, aujourd’hui PARERA Madagascar. En 2018, il créait sa filiale PARERA Côte d’Ivoire.
Avec cette nouvelle acquisition, le groupe français compte désormais 1 100 collaborateurs et prévoit d’atteindre un chiffre d’affaires de 50 millions d’euros cette année, avec une projection de 60 millions d’euros en 2024. À l’horizon de deux ans, le Groupe PARERA ambitionne d’atteindre 30% de son chiffre d’affaires à l’international.
À propos du Groupe PARERAFondé en 1968, le Groupe PARERA a développé son activité autour des métiers de la cartographie, de la topographie, de la détection des réseaux et de la gestion de données patrimoniales. Il accompagne les concessionnaires de réseaux, les collectivités territoriales, les gestionnaires de parcs immobiliers ainsi que le secteur privé, sur l’ensemble de la chaine de valeur, des études à la maintenance en passant par l’installation, l’assistance à maîtrise d’œuvre et l’édition du logiciel de SIG VisitAnywhere. La diversité des domaines d’intervention fait de lui un acteur unique sur le territoire français et reconnu pour la qualité de ses services.
Le Groupe PARERA compte 8 filiales : PARERA SERVICES, PARERA Madagascar, GEOTECH, PARERA Formation,
PARERA Conseil, PARERA Côte d’Ivoire, ECARTIP et ETAFAT GROUPE PARERA.
Fort de 7 agences en France métropolitaine (Clermont-Ferrand, L’Isle-Jourdain, Lyon, Nancy, Paris, Rennes, Toulouse) et de 8 agences à l’international et DOM-TOM (Réunion, Madagascar, Martinique, Guadeloupe, Guyane, Côte d’Ivoire, Sénégal et Maroc), le Groupe PARERA accompagne ses partenaires et ses clients à l’échelle nationale et internationale.
Implanté à L’Isle-Jourdain (32), à une trentaine de kilomètres de Toulouse, le Groupe emploie aujourd’hui 1 100 collaborateurs, dont 800 en France. Il projette cette année un chiffre d’affaires de 50 M€.
Jacques CETTOLO, PDG, préside aux destinées de la société depuis 2004.
Références clients : Enedis, Orange, GRTGaz, GrDF, RTE, Veolia, Suez, Total, SNCF, Tisséo, 3F Groupe
ActionLogement, Lille Métropole Habitat, RIVP, AP–HP, Galeries Lafayette, RATP, Ville de Paris, Toulouse Métropole,
…
Pour en savoir plus : www.parera.fr
LinkedIn: www.linkedin.com/company/groupe–parera/ Twitter : twitter.com/groupe_parera
Cet article Le groupe PARERA renforce ses positions sur le continent africain en faisant l’acquisition du groupe marocain ETAFAT pour créer ETAFAT GROUPE PARERA est apparu en premier sur DécryptaGéo, l'information géographique.
-
16:27
Markus Neteler: Translating Open Source Software with Weblate: A GRASS GIS Case Study
sur Planet OSGeoOpen source software projects thrive on the contributions of the community, not only for the code, but also for making the software accessible to a global audience. One of the critical aspects of this accessibility is the localization or translation of the software’s messages and interfaces. In this context, Weblate (https://weblate.org/) has proven to be a powerful tool for managing these translations, especially for projects such as GRASS GIS, which is part of OSGeo (Open Source Geospatial Foundation).
What is Weblate?Weblate is an open source translation management system designed to simplify the translation process of software projects. It provides an intuitive web interface that allows translators to work without deep technical knowledge. This ease of use combined with robust integration capabilities makes Weblate a popular choice for open source projects.
GRASS GIS and LocalizationGRASS GIS ( [https:]] ), a software suite for managing and analyzing geospatial data, is used worldwide and therefore needs to be available in many languages. The project uses Weblate, hosted by OSGeo, to manage and facilitate its translation work (see OSGeo-Weblate portal).
Marking messages for translationBefore translation work can begin, the messages to be translated must be marked for translation in the GRASS GIS source code. This is done with the gettext macro _(“…”). GNU gettext is a GNU library for the internationalization of software. Here is a simplified overview of the process:
- Identify the strings to be translated: The developers identify the strings in the source code that need to be translated. These are usually user messages, while debug messages are not marked for translation.
- Use the gettext macro: The identified strings are packed into a gettext macro. For example, a string “Welcome to GRASS GIS” in the source code would be changed to _(“Welcome to GRASS GIS”). This change indicates that the string should be used for translation.
- Extraction and template generation: Tools such as xgettext are used to extract these marked strings from the source code and create a POT (Portable Object Template) file. This file is used as a template for all translations. In the GRASS GIS project the template language is English.
There are three template files in the GRASS GIS project: one with the graphical user interface (GUI) messages, one with the library functions (libs) and one with the modules (mods).
Connecting the software project to WeblateWhile the POT files could be transferred to Weblate manually, we chose the automated option. The OSGeo Weblate instance is directly connected to the GRASS GIS project via git (GitHub) using the Weblate version control integration.
How it works in practice:
- Developer makes a commit to the GRASS GIS repo on GitHub
- A GitHub webhook makes a call to weblate.osgeo.org – note that it has it’s own local git repo for GRASS GIS, as it does for other OSGeo projects, with translations being managed in this Weblate instance. This local git repo is updated when the webhook is fired.
- As messages are translated in OSGeo-Weblate, they are eventually pushed to the Weblate Github fork of GRASS GIS (the push frequency is set to 24 hours by default, i.e., new translations are collected over a day), and Weblate then triggers a pull request to the main GRASS GIS repo on GitHub.
For technical background on the OSGeo Weblate installation, see the related OSGeo-SAC Weblate page.
Translation process in WeblateHere is how the typical translation process looks like:
- Translator registration: Registration (via OSGeo-ID) and login to the Weblate instance.
- Language selection: Select the language to be translated. If a language does not exist yet, it can be added with the approval of the project managers.
- Translation interface: Weblate provides an easy-to-use web interface where translators can view the original texts and enter their translations. If activated, machine translation can also be used here (DeepL, Google Translate, etc.). The Weblate translation memory helps to quickly translate identical and similar sentences.
GRASS GIS messages in Weblate
- Together we are better: translators can discuss translations, resolve conflicts and suggest improvements. Weblate also offers quality checks to ensure consistency and accuracy. Translations in different languages can be compared in tabular form.
Message translation comparison in Weblate (GRASS GIS project example)
- Integration with source code: Once translations are completed and checked, they are written back into the GRASS GIS source code (see above). Weblate supports automatic synchronization with source code repositories.
- Continuous updates: As the source code evolves, new strings can be marked for translation and Weblate is automatically updated to reflect these changes.
Pull request with new translations opened by Weblate in GRASS GIS Github repository
Benefits for the GRASS GIS projectBy using Weblate, GRASS GIS benefits from the following advantages:
- Streamlined translation workflow: The process from tagging strings to integrating translations is efficient and manageable.
- Community engagement: Weblate’s ease of use encourages more community members to participate in the translation process.
- Quality and Consistency: Weblate ensures high quality translations through integrated quality checks and collaboration tools.
- Up-to-date localization: Continuous synchronization with the source code repository ensures that translations are always up-to-date.
The integration of Weblate into the GRASS GIS development workflow underlines the importance of localization in open source software. By using tools such as gettext for message tagging and Weblate for translation management, GRASS GIS ensures that it remains accessible and usable for a global community, embodying the true spirit of open source software.
ThanksThanks to Regina Obe from OSGeo-SAC for her support in setting up and maintaining the OSGeo-Weblate instance and for her explanations of how things work in terms of Weblate/GitHub server communication.
The post Translating Open Source Software with Weblate: A GRASS GIS Case Study appeared first on Markus Neteler | Geospatial Analysis | Remote sensing | GRASS GIS.
-
10:14
Ten Years of Global Marine Traffic
sur Google Maps ManiaThe Global Marine Traffic Density Service (GMTDS) map visualizes global marine traffic over the last ten years. The map is designed to support a number of uses, including monitoring fishing activity, monitoring port activity, and environmental and economic activity monitoring. The GMTDS Map has processed hundreds of billions of AIS signals from over ten years of marine traffic around the world
-
10:00
Makina Corpus Territoires au Salon des Maires et des Collectivités Locales 2023 !
sur Makina CorpusDu 21 au 23 novembre, retrouvez Makina Corpus au Salon des Maires et des Collectivités Locales de Paris Porte de Versailles, sur le stand D80, Pavillon 4, secteur Tech et Transformation numérique.
-
17:46
Nomadia dévoile Nomadia Territory Manager Fall 2023
sur Décryptagéo, l'information géographiqueRépondant aux exigences d’une organisation territoriale toujours plus précise, Nomadia dévoile la mise à jour de son outil phare, Nomadia Territory Manager. Cette version Fall 2023 se distingue par des fonctionnalités renforcées, une meilleure collaboration entre utilisateurs et une optimisation de la visualisation des données.Paris, le 13 novembre 2023 – Nomadia, leader européen de solutions SaaS pour les professionnels itinérants, dévoile la nouvelle version de Nomadia Territory Manager. Destinée à accompagner les entreprises dans la répartition géographique équitable de leurs activités, de leurs équipes et de leurs ressources, la solution est un outil stratégique de pilotage et d’aide à la décision.
Dans un contexte où les entreprises doivent faire face à des enjeux multiples, qu’il s’agisse de course à la productivité, de pression concurrentielle ou encore des réglementations liées à la circulation des véhicules ou à la durabilité, définir des stratégies omnicanales prenant en compte ces enjeux est essentiel. Nomadia Territory Manager a pour objectif la construction de secteurs équilibrés, constitués selon trois étapes :
- La représentation de l’organisation, permettant une visualisation de la répartition géographique de l’activité,
- La compréhension de l’organisation, avec l’identification des déséquilibres et potentiels dysfonctionnements,
- L’optimisation de l’organisation, visant à équilibrer automatiquement les secteurs, la charge de travail, les quantités à livrer et kilomètres à parcourir, mais aussi à adapter les objectifs et anticiper les changements.
Cette version Fall 2023 introduit des améliorations majeures en matière de représentation cartographique, d’analyse territoriale et de collaboration. Conçue à partir des retours des utilisateurs et des dernières avancées technologiques, elle vise à optimiser la sectorisation et la gestion des territoires pour les activités professionnelles de terrain (secteurs commerciaux, zones de livraison et d’intervention principalement).
Un outil stratégique d’aide à la prise de décision aux performances améliorées
Nomadia Territory Manager Fall 2023 s’affirme comme un outil puissant apportant gain de temps et aide à la prise de décision. Le mode comparaison permet un affichage précis des différents KPI permettant d’apprécier différents scénarii d’organisation. Les utilisateurs disposent également d’une multitude de supports de représentations visuelles tels que des tableaux, des cartes ou encore des graphiques destinés à les guider dans ce processus.
Pour répondre à toutes les tailles d’organisation et d’analyse, Il est à présent possible d’afficher sur la carte cent fois plus de points simultanément et plus rapidement. Nomadia Territory Manager permet désormais de modifier les données associées à ces points directement depuis l’interface de la solution, éliminant ainsi le besoin de réimporter des fichiers à chaque modification. Cette fonctionnalité représente un gain de temps significatif pour les utilisateurs.
Un travail collaboratif renforcéLes utilisateurs de Nomadia Territory Manager peuvent désormais partager des études entre différents postes. Au service d’une meilleure coordination, cette fonctionnalité essentielle permet aux différents membres d’une équipe de retravailler et d’affiner des études de manière collaborative. Le mode comparaison a été enrichi et offre aux utilisateurs la possibilité de visualiser les changements et variations entre 2 simulations au travers de graphiques visuels. Cela est particulièrement utile pour comprendre les modifications apportées par un collègue et pour fiabiliser la prise de décision finale.
Équité et adaptabilitéDans un contexte où les entreprises de toutes tailles doivent composer avec de nombreuses variations au niveau de leurs ressources, Nomadia Territory Manager se positionne comme un outil au service d’une répartition équitable du travail. La solution offre la possibilité d’équilibrer charge de travail et disponibilité de la main d’œuvre. Ses fonctionnalités avancées sont notamment capables de prendre en compte les spécificités d’un poste à 80%, d’un mi-temps thérapeutique ou encore d’un congé. L’outil est capable de calculer la charge de travail réelle de chaque secteur, offrant une estimation précise du temps nécessaire pour visiter tous les clients d’un secteur donné et permettant ainsi de définir des secteurs réellement équilibrés et équitables.
Des fonctionnalités de cartographie avancéesCette nouvelle version de la solution propose des options de personnalisation cartographique avancées. Les utilisateurs peuvent ainsi mettre en avant des territoires selon de nouvelles teintes de couleurs, superposer des secteurs et des rendus satellites en personnalisant la transparence de chaque couche d’information, afin de bénéficier d’une vision de leur activité sur le terrain encore plus précise. De nombreuses améliorations ont été également apportées à la représentation analytique des données sur la carte en fonction de leurs valeurs textuelles et numériques. L’outil suggère des thématiques et des échelles de valeur en fonction des données importées, facilitant l’interprétation des résultats.
A propos de Nomadia
Nomadia est le 1er éditeur français de solutions SaaS de mobilité intelligente à destination des professionnels nomades : commerciaux itinérants, techniciens et chauffeurs-livreurs. Portées par un fort investissement en R&D, les solutions développées par Nomadia couvrent l’ensemble de leurs besoins quotidiens : applications mobiles métiers, optimisation de tournées, gestion des interventions, prise de rendez-vous intelligente, CRM, sectorisation, protection du travailleur isolé, etc. En tant qu’entreprise à mission, Nomadia accompagne ses clients dans une démarche RSE efficace : amélioration de la productivité, réduction de l’empreinte carbone, mais aussi bien-être des travailleurs nomades. Son innovation technologique, qui intègre entre autres le machine learning et l’IoT, lui permet d’intégrer le Magic Quadrant de Gartner pour ses solutions de FSM et de VRSLM, le classement Truffle 100 et le top 100 des éditeurs français du Syntec Numérique. La société équipe 200 000 utilisateurs et 4 000 clients, et a aujourd’hui une couverture internationale dans 92 pays. Elle est implantée en France (son siège social est à Paris), et dispose de bureaux en Chine, aux États-Unis, en Inde, en Italie et en Suisse.
Contacts presse : AxiCom France
rpnomadia@axicom.com
Adèle Wydouw – adele.wydouw@axicom.com
Ayoub Belmahdi – ayoub.belmahdi@axicom.comCéline Rousseau – celine.rousseau@axicom.com
Cet article Nomadia dévoile Nomadia Territory Manager Fall 2023 est apparu en premier sur DécryptaGéo, l'information géographique.
-
16:36
Le BIM d’Or devient le Tech Show for Construction
sur Veille cartographieCet article Le BIM d’Or devient le Tech Show for Construction est apparu en premier sur Veille cartographique 2.0.
Anciennement, le BIM d’Or était une cérémonie qui récompensait les meilleurs projets BIM, en France ou à l’international, organisés par les Cahiers Techniques du Bâtiment et Le Moniteur, deux magazines français porté sur le secteur de la construction. Vu le jour en 2013, le BIM d’Or récompense ses lauréats en fonction de plusieurs critères : […]
Cet article Le BIM d’Or devient le Tech Show for Construction est apparu en premier sur Veille cartographique 2.0.
-
16:35
Le Salon Internationale de la Géomatique à Abidjan
sur Veille cartographieCet article Le Salon Internationale de la Géomatique à Abidjan est apparu en premier sur Veille cartographique 2.0.
Au rendez-vous des acteurs de la géomatique s’invitent le Salon Internationale de la Géomatique, qui confère aux élus, collectivités, et entreprises, de se rapprocher du monde de la géomatique. Organisé par le Centre National de Télédétection et d’Imagerie Géographique, ce salon bisannuel tenu en Côte d’Ivoire, se pose une question cruciale pour cette 6ème édition, […]
Cet article Le Salon Internationale de la Géomatique à Abidjan est apparu en premier sur Veille cartographique 2.0.
-
16:35
La géomatique au service du BTP : MaTerrio Construction
sur Veille cartographieCet article La géomatique au service du BTP : MaTerrio Construction est apparu en premier sur Veille cartographique 2.0.
Jusqu’où peut-on aller dans l’utilisation d’un SIG pour une gestion des déchets du BTP ? C’est la question à laquelle ont tenté de répondre l’UNICEM (Union Nationale des Industries Carrières et Matériaux) et la FNTP (Fédération Nationale des Travaux Publics) par en consacrant leur temps au montage d’une cartographie interactive disponible en ligne et pour […]
Cet article La géomatique au service du BTP : MaTerrio Construction est apparu en premier sur Veille cartographique 2.0.
-
16:35
Soliguide : une cartographie au service des personnes en difficultés
sur Veille cartographieCet article Soliguide : une cartographie au service des personnes en difficultés est apparu en premier sur Veille cartographique 2.0.
Dans un récent rapport publié par l’Abbé Pierre, ont estimé à hauteur de 330 000 le nombre de personnes sans domicile fixe en France, en 2023. Ce chiffre atteint les 4 millions si l’on compte les personnes considérées comme mal-logés. La Fondation accable le gouvernement d’une inaction envers les sans domiciles fixes voir même d’un […]
Cet article Soliguide : une cartographie au service des personnes en difficultés est apparu en premier sur Veille cartographique 2.0.
-
16:18
GPS ou téléphone mobile: Quel outil utilisé pour les collectivités?
sur Veille cartographieCet article GPS ou téléphone mobile: Quel outil utilisé pour les collectivités? est apparu en premier sur Veille cartographique 2.0.
Dans les collectivités les emplois et postes sont aussi divers que les tâches à réaliser. Il est possible de regrouper ces postes de manière très simplifié sous deux dénominations: le siège et le terrain. En simplification, le terrain va devoir réaliser et superviser les actions décidées au siège, mais la relation entre ces deux corps […]
Cet article GPS ou téléphone mobile: Quel outil utilisé pour les collectivités? est apparu en premier sur Veille cartographique 2.0.
-
15:51
Une stratégie de gestion du risque inondation récente : la cartographie de l’infiltration de l’eau dans le sol
sur Veille cartographieCet article Une stratégie de gestion du risque inondation récente : la cartographie de l’infiltration de l’eau dans le sol est apparu en premier sur Veille cartographique 2.0.
Dans le contexte du changement climatique, les aléas naturels auraient tendance à se montrer plus extrême. C’est notamment le cas de l’inondation. Ces trente dernières années, le sol a été largement modifié par l’action de l’homme. Entrainant ainsi une imperméabilisation et une minéralisation du sol. Ces modifications de la nature du sol deviennent un facteur […]
Cet article Une stratégie de gestion du risque inondation récente : la cartographie de l’infiltration de l’eau dans le sol est apparu en premier sur Veille cartographique 2.0.
-
10:15
Standing on Top of the World
sur Google Maps ManiaIf you want an uninterrupted view towards the horizon in all directions then you need to stand on top of a mountain. But not just any mountain. What you need is an 'on top of the world' mountain. On Top of the World Mountains An "on top of the world" mountain, also known as an OTOTW mountain, is a mountain that is so high that no other mountains can be seen above the horizon from its
-
10:03
Makina Corpus Territoires : une nouvelle entité pour accompagner les territoires dans leur transformation numérique
sur Makina CorpusAvec plus de 20 ans d'expertise dans la création d'applications cartographiques, Makina Corpus a toujours été un allié de confiance pour les collectivités territoriales.
-
8:30
CybergeoNetworks 2: una robusta aplicación de aprendizaje para publicaciones científicas
sur CybergeoCon motivo del coloquio desarrollado el 26 de mayo del 2016 para celebrar el 20º aniversario de la revista Cybergeo, cuatro jóvenes investigadores unieron fuerzas para desarrollar una aplicación altamente pionera para el análisis geográfico, estadístico y semántico de datos extraídos del conjunto de datos de Cybergeo (texto completo y metadatos) y además datos en línea asociados a la revista entre 1996 y 2015 (motores de búsqueda, Tweets, citas y publicaciones), naciendo así el sitio CybergeoNetworks. Fieles a nuestra política de publicación a acceso abierto, tal aplicación permite localizar visual y estadísticamente datos referentes a los autores de los artículos de la revista, países estudiados y citados, o incluso quien estudia qué. Compuesto por cuatro módulos interactivos, la información proporcionada por sus análisis es remarcable. Por ejemplo, es posible agrupar países por redes semánticas, visualizar y asociar a estos según la procedencia de los autores (información que Lode...
-
8:30
CybergeoNetworks 2: a deep learning application for scientific publishing
sur CybergeoOn the occasion of the conference held on May 26, 2016 to celebrate the 20th anniversary of Cybergeo magazine, four young researchers joined forces to develop a pioneering application for geographic, statistical and semantic analysis of data extracted from the Cybergeo corpus (full text and metadata), as well as online data associated with the magazine between 1996 and 2015 (search engines, tweets, citations and publications). The CybergeoNetworks website was born. In keeping with our open-access publishing policy, it provides visual and statistical access to data on the location of the authors of the journal's articles, the countries studied and cited, and who is studying whom? Comprising four interactive modules, the information provided by its analyses is impressive. For example, it is possible to group countries by semantic networks, to visualize the states to which authors are affiliated (information that Lodel, OpenEdition's publishing software, does not provide in its current...
-
8:30
CybergeoNetworks 2 : une application d’apprentissage profond au service de la publication scientifique
sur CybergeoA l’occasion du colloque du 26 mai 2016 pour la célébration des 20 ans de la revue Cybergeo, quatre jeunes chercheurs se sont associés pour développer une application tout à fait pionnière d’analyses géographique, statistique et sémantique des données extraites du corpus de Cybergeo (plein texte et métadonnées), mais aussi des données en ligne associées à la revue entre 1996 et 2015 (moteurs de recherche, tweets, citations et publications). Le site CybergeoNetworks, est né. Fidèle à notre politique de publication en accès ouvert, il permet de situer visuellement et statistiquement des données sur la localisation des auteurs des articles de la revue, les pays étudiés et cités, ou encore qui étudie qui ? Composée de quatre modules interactifs, l’information fournie par ses analyses est impressionnante. A titre d’exemple, il est possible de regrouper des pays par réseaux sémantiques, de visualiser les États auxquels sont affiliés les auteurs (une information que Lodel, le logiciel d’éd...