Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considèrerons que vous acceptez l'utilisation des cookies. J'ai compris ! ou En savoir plus !.
Un Planet est un site Web dynamique qui agrège le plus souvent sur une seule page, le contenu de notes, d'articles ou de billets publiés sur des blogs ou sites Web afin d'accentuer leur visibilité et de faire ressortir des contenus pertinents aux multiples formats (texte, audio, vidéo, Podcast). C'est un agrégateur de flux RSS. Il s'apparente à un portail web.
Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
  • Canaux
  • Categories
  • Tags
  • Canaux

    4340 éléments (85 non lus) dans 55 canaux

    Dans la presse Dans la presse

    Toile géomatique francophone (6 non lus)

     
    • sur [Story] Oslandia x QWC : épisode 1 / 8

      Publié: 4 September 2024, 6:52am CEST par Caroline Chanlon

      Depuis plusieurs années maintenant, et notamment grâce aux stages de fin d’études de Flavie et Benoît (qui avaient donné lieu à une série d’articles), Oslandia investit dans la solution logicielle QWC (pour QGIS Web Client) afin de proposer à ses clients de publier leurs projets QGIS sur le web.

      QWC est un framework applicatif et une application clefs en main, permettant de publier des projets QGIS sur le web, en partageant les mêmes données, la même configuration et le même rendu. Il comporte les éléments classiques d’un SIG web, et peut être totalement personnalisé.

      QWC est un projet OpenSource développé par plusieurs acteurs de la communauté. On peut notamment citer Sourcepole ( Suisse ), qui a réalisé le développement initial de QWC et continue de contribuer.

      Nous réalisons notamment des projets pour nos clients, par exemple l’EuroMétropole de Strasbourg, le groupement de recherche Silex, WKN, Amarenco, le Syndicat des Eaux de la Manche, les agences de l’eau, la Métropole du Grand Lyon et d’autres.

      Au passage, on notera que Clément Zitouni de l’EuroMétropole de Strasbourg contribue régulièrement aux différents dépôts du projet pour ajouter des fonctionnalités ou corriger certains problèmes directement. Bravo à lui !

      Au delà des projets client, Oslandia investit également en fonds propres sur QWC. Chaque année, environ 10% du temps de l’équipe de production est dédiée à l’auto-investissement sur les projets OpenSource que nous développons ou maintenons.

      Avec ces différents projets, Oslandia a pu intégrer plusieurs collaborateurs dans le développement et la maintenance de QWC. C’est toujours le cas de Benoît Blanc, rejoint par Gwendoline Andres notamment.

      Plusieurs améliorations ont été intégrées dans la solution logicielle, que ce soit de nouvelles fonctionnalités ou bien des corrections de bugs.

      L’environnement QWC est composé d’une application web écrite en Javascript (avec le framework React) ainsi que de micro-services en Python. Nous sommes intervenus sur tous ces composants, avec des contributions dans le cœur de l’application.

      QWC est en perpétuelle évolution avec de nombreuses fonctionnalités développées en continu.

      Dans les prochains articles, nous ferons un tour – non exhaustif – de ce qui a été réalisé récemment par Oslandia.

    • sur Variabilisez vos profils QGIS avec QDT

      Publié: 3 September 2024, 4:39pm CEST par Julien Moura
      Pièce jointe: [télécharger]
      Variables d’environnement ?

      Les variables d’environnement sont, comme leur nom l’indique, des paires clé/valeur permettant de décrire et paramétrer des applicatifs selon un environnement. Une variable peut intervenir à différents niveaux ou périmètres : système d’exploitation, session avec droits d’administration, annuaire/domaine, session utilisateur, applicatif, processus.

      Capture d'écran du gestionnaire de variables d'environnement de Windows 11 avec le dialogue permettant d'en modifier une qui est ouvert

      Gestion des variables d’environnement sur Windows 11

      Si vous êtes familier/ère avec l’utilisation de QGIS, c’est le même principe que pour les variables prédéfinies, liées à un projet, à des couches, etc. et utilisables à différents endroits (expressions, mode atlas/rapport…). D’ailleurs QGIS gère également des variables d’environnement à l’échelle de son installation et par profil (voir la documentation).

      Remplacement dynamique par QDT

      Dans QDT, vous pouvez définir des variables dans vos fichiers de configuration `QGIS3.ini` et `QGISCUSTOMIZATION3.ini`, qui seront ensuite interpolées avec les valeurs des variables d’environnement au moment du déploiement. Cette approche permet de paramétrer de manière flexible divers aspects de la configuration de QGIS sans modifier manuellement les fichiers sur chaque machine.

      3 avantages :

      – Flexibilité : adapter facilement la configuration à différentes machines sans modifications manuelles des fichiers.
      – Maintenance réduite : gérez une seule version des fichiers QGIS*3.ini qui s’adapte dynamiquement aux conditions locales.
      – Sécurité : séparer les données sensibles de la configuration en les conservant dans les variables d’environnement.

      Cet usage des variables est particulièrement utile dans des environnements où les chemins d’accès ou les configurations peuvent varier significativement entre les déploiements, permettant une personnalisation sans effort et à la volée de l’installation QGIS.

      En bonus, nous avons intégré un mécanisme primaire de sauvegarde des paramètres en cas de conflit entre les valeurs poussées par QDT et celles changées par l’utilisateur. Concrètement, cela se traduit par des sections préfixées directement dans le fichier INI :

       

    • sur Les cartes de l'Ordnance Survey irlandaise ont 200 ans

      Publié: 1 September 2024, 8:11pm CEST


      L'Irlande est connue pour être l'un des premiers pays à avoir été systématiquement cartographié au début du XIXe siècle. De 1825 à 1846, l'Ordnance Survey irlandaise a entrepris un relevé très détaillé de l'ensemble du pays afin de créer des cartes à l'échelle de 6 pouces pour 1 mile (environ 1:10 000). Par la même occasion, l'Ordnance Survey a recueilli des informations géographiques, archéologiques et toponymiques, notamment sur les coutumes locales, les monuments, les noms de lieux et les caractéristiques topographiques. Ces documents reflètent les paysages de l'Irlande tels qu'ils existaient dans les années 1820-1830 , ainsi que les pratiqus agricoles, la langue, le folklore, les métiers et la religion.

      Les documents laissés par l’Ordnance Survey (OS) pour l’Irlande sont particulièrement importants car ils nous permettent de mieux comprendre les processus et les pratiques de cette enquête nationale qui à eu un impact profond sur le gouvernement, la politique, la société et l’économie de l’Irlande des XIXe et XXe siècles. Ces documents de l’OS dirigée par les Britanniques n’ont pas été conservés en Grande-Bretagne mais à Dublin. En effet, contrairement aux premiers documents de l’OS sur la Grande-Bretagne en grande partie détruits pendant la Seconde Guerre mondiale, les comptes rendus de l’OS sur l’Irlande ont survécu. Ces comptes rendus offrent une opportunité majeure de faire progresser notre compréhension non seulement de la cartographie de l’Irlande sous domination britannique, mais aussi de la manière dont ce pouvoir a été exercé par le biais d’activités mises en œuvre localement « sur le terrain ». Les opérations de l'OS en Irlande ont eu un impact et une influence plus larges sur les levés topographiques et la cartographie dans d'autres parties du globe. Par exemple, la mesure de la ligne de base du Lough Foyle par le colonel Colby (1827-1828) a attiré l'attention de George Everest, qui a ensuite adopté ce qu'il a appelé le « beau système » de Colby pour le Grand relevé trigonométrique de l'Inde. 

      Le projet OS200 « Recartographie numérique du patrimoine de l'Ordnance Survey d'Irlande », lancé par des chercheurs de l'Université de Limerick, s'appuie sur les quatre sources principales de l'Ordnance Survey créées lors de la première mission d'observation de l'Irlande : les cartes de 6 pouces, les mémoires, les lettres et les livres de noms de lieux. L'importance de ces sources réside dans leur description de l'Irlande d'avant la Grande famine. 

      Les sources réunies sur le site [OS200] (source : irelandmapped.ie)



      Les cartes elles-mêmes sont extrêmement détaillées et magnifiquement dessinées. Grâce au travail de numérisation du projet OS200, on peut explorer ces cartes originales de l'Ordnance Survey d'Irlande dans les moindres détails sous forme de cartes interactives. 
      Le projet vise à rassembler des cartes et des textes historiques de l'Ordnance Survey (OS) pour former une seule ressource en ligne, librement accessible à l'usage des universitaires et du public. Les résultats numériques de l'OS200 permettent non seulement de faire progresser notre compréhension de la manière dont l'Irlande a été cartographiée il y a deux siècles, mais ouvrent à un nouveau public l'héritage et les impacts de l'OS, reconnaissant l'importance durable de ce qui a été accompli et marquant le bicentenaire de son instigation.
      Le projet est soutenu par la Royal Irish Academy, le Public Record Office d'Irlande du Nord, la Bibliothèque nationale d'Irlande et le Digital Repository of Ireland.

      Pour compléter
      L’Ordnance Survey Ireland (OSI) (en gaélique Suirbhéireacht Ordanáis na hÉireann) est l’agence gouvernementale de cartographie de l'Irlande. Il est l’équivalent de l’IGN français. Cet organisme a pris la succession en 1922 de la division irlandaise de l’Ordnance Survey du Royaume-Uni qui existait depuis 1824. Tout son travail prend sa source dans les différentes missions menées entre 1815 et 1845 par des officiers anglais du Royal Engineers et par des membres du service des Mines qui ont à ce moment-là rédigé un ensemble de cartes d’une précision jamais atteinte sur l’île. En collaboration avec son alter ego en Irlande du Nord, cet organisme est destiné à cartographier à différentes échelles l’ensemble de l’île d’Irlande.
      L’Irlande (comme le Royaume-Uni) n’utilise généralement pas les latitudes et les longitudes pour décrire un lieu qui se trouve sur leur territoire national. Ils ont mis en place un système de référence spécifique. L’île d’Irlande est divisée en 20 cases de 100 km de côté, chacune identifiée par une lettre. Chaque case possède une graduation numérique en partant du coin sud ouest. Par exemple G0305 signifie Case G 3 km est, 5 km nord. Il existe également des tirages dit Discovery Series de l'OSI. L’île d’Irlande est ainsi divisée en cases de 30 km de côté, par 40 km en largeur, à l'échelle de 1:50 000 chacune identifiée par un numero (1 à 89). Voir plan, ref: No. 41 ~ Centre de Westmeath (source : Wikipedia)
      OS200. Digitally Re-Mapping Ireland’s Ordnance Survey Heritage
      Irish Townland and Historical Map Viewer
      PRONI Historical Map (uniquement Irlande du Nord)
      GeoHive. Ireland's National Geospatial Data Hub
      Ireland Mapped website 
      Lilley, K.D & Porter, C. (2022) 'A Journey Through Maps: Exploring Ireland’s Cartographic Heritage'" Public lecture for Armagh Robinson Library (video Youtube)
      Articles connexes
      L'histoire par les cartes : l'Irlande aux XIXe et XXe siècle
      L'histoire par les cartes : le mouvement des enclosures en Grande Bretagne aux XVIIIe et XIXe siècles
      Cartographier le parcellaire des campagnes européennes d’Ancien Régime
      L'histoire par les cartes : la mappe sarde du XVIIIe siècle
      La grille de Jefferson ou comment arpenter le territoire américain
      La parcelle dans tous ses états (ouvrage en open access)
      Derrière chaque carte, une histoire : découvrir les récits de la bibliothèque Bodleian d'Oxford
      Cartes et atlas historiques


    • sur Barres empilées : comment s’en débarrasser ?

      Publié: 1 September 2024, 1:10pm CEST par Éric Mauvière

      C’est l’un des graphiques les plus utilisés dans la production statistique française, mais aussi le plus paresseux et le moins efficace pour comprendre et surtout mémoriser. La plupart des responsables éditoriaux le savent, formés qu’ils/elles le sont à la sémiologie graphique. Pour autant, pas moyen de remiser ces empilements : ils collent aux publications statistiques comme le sparadrap au capitaine Haddock !

      Prenons comme premier exemple ce graphique sur l’évolution des crimes en France, classés par type. Le diagramme en barres empilées traduit tel quel le tableau croisé des données, y intégrant un total. Et c’est la principale raison de son emploi : on voit en même temps l’évolution d’ensemble et le détail des catégories. 

      Source : ministère de la Justice/SG/SEM/SDSE, fichier statistique Casier judiciaire national

      Si l’on voit bien le mouvement général, il est plus difficile d’apprécier les détails, d’analyser la morphologie de ces rectangles colorés. Quand la base d’une série est horizontale, par exemple celle des homicides en bas, il suffit d’en suivre visuellement les sommets. Mais quand les segments flottent, le lecteur doit mener deux opérations mentales exigeantes – extraire visuellement la série et la recaler sur une base commune. Cet effort à répéter fatigue et complique la mémorisation, faute d’images prêtes à photographier mentalement.

      Comment ordonner les catégories, choisir les couleurs ? “Autres crimes” est la première catégorie que l’œil rencontre, c’est aussi la moins signifiante. Et la palette adoptée crée deux groupes artificiels, un en violet et l’autre en gris.

      Que va-t-on retenir d’une telle image ? Au mieux, oubliant les catégories, une tendance globale à la baisse avant la crise du covid, et une reprise post-covid qui ressemble à un rattrapage – dont on ne sait s’il est réel ou purement administratif (du fait d’instructions retardées).

      Distinguons chaque série dans une collection de petits graphiques triés et catégorisés

      Avec un outil soucieux de sémiologie comme Datawrapper (ou Flourish), testons une variante où chaque composante peut apparaitre séparément, la comparaison avec l’évolution d’ensemble restant possible. 

      Retenons le même ordre de tri que le graphique d’origine, par effectifs finaux décroissants. Cette nouvelle construction graphique présente d’abord les trois catégories les plus importantes. Elles ont en commun de bien marquer l’effet de rattrapage précédemment évoqué. L’importance des viols est manifeste. Un rapide calcul visuel montre qu’ils représentent au total la moitié des crimes. Ce constat m’a particulièrement frappé.

      Je le souligne donc, dans cet affinage prêt à diffuser, à l’aide d’une couleur différente et d’un titre qui reprend deux informations majeures.

      Ces petits graphiques sont évidents et élégants, avec leurs axes épurés dont les étiquettes sont davantage conformes aux règles de lisibilité (écriture horizontale pour les années, séparateur des milliers pour les effectifs).

      Un bon graphique présente toutes les données et dégage une ou quelques images simples (par exemple les trois graphiques de la première rangée), que le lecteur pourra relier à des enseignements verbalisés. Il les mémorisera ainsi durablement, grâce à la puissante association entre le visuel et le sémantique, quand ces deux canaux résonnent en cohérence.

      C’est le mantra cher à Jacques Bertin, le grand sémiologue français : trier judicieusement ce qui peut l’être, puis catégoriser pour hiérarchiser les niveaux d’information.

      Étendons la démarche à un jeu de données plus fourni

      Issu d’une source différente, ce nouveau diagramme empilé traite d’un sujet voisin, les actes de délinquance, en regardant plutôt les victimes et ce à quoi elles sont sujettes selon leur âge. La dimension de l’âge, en X dans ce diagramme, est ordonnée de façon logique, croissante. 

      Mais qu’en est-il des indicateurs de délinquance ? L’auteur ne précise pas le critère de tri en Y et l’œil du lecteur n’en saisit pas la logique. Renforcée par les contrastes lumineux, l‘impression d’ensemble est bruitée et inconfortable. 

      Par ailleurs, la palette de couleur n’est pas ordonnée, elle n’exprime pas la progression des âges. Le lecteur peinera à regrouper visuellement des tranches voisines.

      La construction suivante utilise une palette visuellement ordonnée, désempile les barres, et reclasse les faits de délinquance pour construire l’image la plus pure, la plus significative – perceptible dans l’instant minimal de vision, selon les vœux de Bertin. Une telle image, comme il l’exprime dans sa “Sémiologie graphique”, tend vers deux critères topologiques : connexité (peu ou pas de trous, une forme ramassée) et convexité (enveloppe plutôt ronde). Idéalement, une belle diagonalisation !

      Un bon outil graphique facilitera les reclassements. Après quelques essais, la tranche des 70 ans et plus fournit un bon critère de départ pour un tri. L’examen conjoint des tranches les plus jeunes m’amène à définir trois groupes. Ce nouveau graphique déroule une vague expressive. 

      Il faut se faire violence, parfois, pour chambouler l’ordre par défaut des nomenclatures. Bertin l’évoquait malicieusement, dans un dernier article, témoignant de sa longue – et fructueuse – expérience de collaboration avec la statistique publique : « À l’école de l’Insee, reclasser un tableau de données était une abomination ! »

      Le geste suivant, encore plus audacieux pour le statisticien, consiste à nommer ces groupes, dès lors qu’il saisit ce qui les caractérise.

      Un titre informatif s’en déduit naturellement. C’est l’association entre messages de premier niveau clairs et une forme d’ensemble simple et significative qui va consolider l’inscription en mémoire de la hiérarchie des enseignements.

      Pourquoi la plupart des graphiques statistiques sont-ils paresseux ?

      Certes, la puissance de la sémiologie graphique n’est pas suffisamment exprimée et enseignée, que ce soit à l’école ou en formation continue. Au pays de Bertin, c’est pour le moins étonnant, voire dissonant. À cela, les responsables d’enseignement ou de services statistiques peuvent facilement remédier, si ils/elles le souhaitent – et même si cela prend un peu de temps ?

      Mais ce déficit renvoie plus fondamentalement à la posture de l’analyste, au rôle qu’il/elle se donne ou qu’on lui donne : mettre à disposition des chiffres solides et laisser au lecteur le soin de les interpréter ? 

      Ou chercher en plus à transmettre, avec les outils de la sémiologie graphique, ce que soi-même, avec son expertise, sa curiosité, sa déontologie, on a fini par retirer de ses multiples explorations. C’est la voie que, pour ma part, j’approfondis comme rédacteur d’articles, et enseigne en formations sur mesure.

      Pour en savoir plus

      L’article Barres empilées : comment s’en débarrasser ? est apparu en premier sur Icem7.

    • sur Let’s ask Copernicus to keep S2A operational after S2C launch

      Publié: 30 August 2024, 3:01pm CEST par Olivier Hagolle

      The launch of Sentinel-2C (S2C) is scheduled on the 4th of September 2024, next week ! After 3 months of commissioning phase, S2C will replace S2A, to fulfill the Sentinel-2 mission together with S2B. S2B will later be replaced by S2D. The current plans are to keep S2A as a redundant satellite, in case something happens to one of the two other satellites. It seems likely that S2A will stop acquiring images once S2C is operational.

      I guess the decision not to keep S2A operational would be for cost reasons. The operation costs are high : although I have no information, I guess these costs are on the order of magnitude of one or two dozens of millions per year. My reference is the SPOT4 (Take5) experiment which cost ~1 M€ for a few months with a limited amount of data. In the case of S2, the data volumes to download, process and distribute are huge, and ESA would also need to monitor data quality, have a tighter orbit and attitude control… Anyway, the cost of operating a satellite is much lower than the cost of the satellite itself (Sentinel-2B’s price was a few hundreds of M€).

      I am very proud Europe was able to build the Sentinel-2 mission with a revisit of 5 days and funding of 20 years of operations, including two replacement satellites. But we could do even better for a limited cost. I write this letter to try to convince scientific, public and private users that 5 days revisit is not enough. We should therefore try to set-up a campaign to ask ESA/UE to reconsider the decision to end S2A imaging operations when S2C is operational. Help, feedback and ideas are welcome !

      A petition is available here.

      Revisit needs Correlation of start of season determination as a function of the cloud free observation frequency in Germany. « 2018 was a hot and dry year with exceptionally low precipitation and cloud cover ». From Kowalski et al, 2020 : [https:]]

      As an example, here are the cloud free revisit needs expressed by the vegetation monitoring community.

      • Land cover classification : a clear observation per month
      • Biomass/Yield estimation : a clear observation per fortnight
      • Phenology (start and end of season, flowering…) : a clear observation per week

      Waters, especially coastal waters, tend to change even quicker, with the additional drawback to be affected by the reflection of the sun on water, on one third to one half of the acquisitions.

      Very recently, several papers have studied the biases due to the insufficient and irregular observations from space optical missions. Bayle et al, 2024 show that part of the observed greening of mountains observed on the Landsat time series acquires during decades is in fact due to the increase of the revisit frequency, which is still not always sufficient to capture the short-lived peak of greenness in alpine ecosystems. Langhorst et al, 2024 show that the loss of observations due to clouds leads to miss important hydrological events that bias statistics.

      5 days revisit is not enough

      The global average cloud cover is 70%, with of course large variations across seasons and location. It means that on average, for a given pixel, two observations out of three are cloudy. But if you need to observe a large area simultaneously cloud free, it is even more difficult. I don’t have statistics on that, but roughly only 10% of Sentinel-2 products on 100×100 km² are fully cloud free.

      Due to the fact that the great majority of images have clouds, our users have asked for cloud free periodic syntheses. At the THEIA land data center, we produce every month surface reflectances syntheses (named « Level3A » products). Our WASP processor computes a weighted average of all the cloud free surface reflectances found during 46 days (from 23 days before to 23 days after the synthesis date). When no cloud free data is available, we raise a flag, and provide one of the cloudy reflectance values acquired during the period. These regions appear in white (but don’t confuse them with snow in mountains).

      Since these syntheses use 46 days, and not 30 days, they do not meet any of the needs explained above. The  46 days duration was tuned to have less than 10% of pixels always cloudy on average per synthesis. Here are some examples.

      South-Western EU

      Over western Europe, the top left image shows a summer drought period, with a reduced amount of always cloudy pixels. However, some are visible in the East of Belgium/Netherlands. The images in winter have large region with no cloud free data, and even in April 2023, there is a remaining cloudy region in the east of France.  You might have noticed that the remaining regions often have a trapezoidal shape. It is explained by the fact that Sentinel-2 swaths overlap, and it is of course more likely to miss cloud free pixels where we have two observations every 5 daysinstead of one. More examples are available at THEIA : [maps.theia-land.fr]

       : July 2022 (Drought in Europe) December 2022
       
      January 2022 (a dry January ) April 2023
      Germany

      South-Western Europe is blessed by a nice weather (when it’s not too hot), but Germany has a lot of clouds. Our colleagues form DLR also process Level3A syntheses with our tools. Here are some examples. You may also see by yourselves at this address :  [https:]

      April 2023 November 2023
      Norway

      Norway cartographic agency (Kartverket) also uses our softwares MAJA and WASP to produce countrywide syntheses, but they had to change the parameters to obtain a correct result. Summer syntheses are produced each year, but they often need a manual post-processing to enhance the results where some clouds are remaining. This is despite the orbits fully overlap in Norway.
      [https:]

      Consequences

      The main consequence of persistent cloudiness on S2 images is that our observations are quite far from the expressed needs, except in the sunniest countries. As a result, studies and retrievals are not as accurate as they could be, biases and noise appear. In my sense, the main issue is the fact that persistent clouds on images introduce a random unreliability, that prevents to provide an operational service.

      S2 quicklook thumbnails in June 2019 on Toulouse tile (31TCJ)

      One of the most acute cases in my memory happened in June 2019. The region near Toulouse suffered a long and early heat wave, but clouds were present every 5 days in the morning, when S2A or S2B were acquiring data. During a heat wave,it is very hard to explain local customers that the product didn’t work because of clouds.

      As a result, insufficient revisit hampers the development of services based on optical images.

      There are some ways around, using Landsat 8 and 9 (but resolution is 30m), Sentinel-1 (but SAR provides a completely different information), Planet (but only 4 bands, very expensive if you need to work at country scale, and not the same quality). Moreover, Planet uses Sentinel-2 a lot to improve its products. A better availability of S2 data would also improve the data quality of Planet data and the soon to be launched Earth Daily constellation.

      Dear EU, please keep S2A operational !

      That’s why it would be a pity not to go on using S2A after S2C commissioning phase. With three satellites, S2A passing for instance two days after S2B, we could produce cloud free syntheses every 20 days, based on 30 days of data only. We would be closer to the needs, and would reduce a lot the unreliability of S2 services.

      Of course, it means an increase of data volume and processing costs, but it is only a few % every year of the cost of one satellite. If it is really too much, let’s do it over Europe only, as S2 is funded by Europe. Maybe EU fears that if we ask for it, users of the other Sentinel missions will also ask for it. But S1 does not have clouds (and S1B has been lost) and S3 has a daily overpass already. Therefore, there are good reasons to operate a third satellite in the case of S2 only.

      If you agree or disagree with me, or if you have more arguments to provide, please add a comment to this page !

      Petition

      I am not sure it is the best way to have influence on Copernicus, but I have set up a petition on an ethical web service provider, feel free to sign here : [https:]]

      References :
      • Bayle, A., Gascoin, S., Berner, L.T. and Choler, P. (2024), Landsat-based greening trends in alpine ecosystems are inflated by multidecadal increases in summer observations. Ecography e07394. [https:]]
      • Langhorst, T., Andreadis, K. M., & Allen, G. H. (2024). Global cloud biases in optical satellite remote sensing of rivers. Geophysical Research Letters, 51, e2024GL110085. [https:]]
    • sur Sélection 2025 du Prix du Livre de géographie des Lycéens et Etudiants

      Publié: 30 August 2024, 12:36pm CEST par r.a.

       

      – Rémi Barbier et Sara Fernandez (dir), Idées reçues sur l’eau et sa gestion, Le Cavalier bleu

      – Marie Bonte, Nuits de Beyrouth, ENS éditions

      – Marc Brosseau, Tableau de la géographie littérairePuppa

      – François-Michel Le Tourneau, Chercheurs d’or, CNRS éditions

      – Sylvain Genevois, Matthieu Noucher et Xemartin Laborde, Le blanc des cartes, Autrement

    • sur Journée d’étude : La carte, «oeil de l’histoire » (XVI?-XVIII? siècle), BnF / EHESS-CAK, 8 octobre 2024

      Publié: 30 August 2024, 12:27pm CEST par Catherine Hofmann
      Bibliothèque nationale de France, site Richelieu, Salle des conférences, entrée par le 5 rue Vivienne 75002 Paris

      La géographie comme « oeil de l’histoire » est une expression courante durant la période moderne, mais elle s’articule de manière spécifique
      si l’on pose l’objet cartographique comme point d’observation. L’objectif de cette journée d’étude est de réinvestir le couple carte et histoire dans l’empan chronologique du XVI? au XVIII? siècle, en Europe et dans ses prolongements impériaux, selon plusieurs directions.

      La journée d’étude est organisée par Oury Goldman (Paris 1 Panthéon- Sorbonne), Lucile Haguet (Bibliothèque municipale du Havre),
      Catherine Hofmann (BnF, Cartes et plans) et Geoffrey Phelippot (EHESS-CAK). Elle a bénéficié de la coopération du département des
      Cartes et plans (BnF) et du Centre Alexandre-Koyré (CAK).

      PROGRAMME


      9h15 : Accueil des participants


      9h30 : Mot d’accueil de la BnF par Cristina Ion (directrice adjointe du département
      des Cartes et plans de la BnF)
      9h45 : Introduction générale par Oury Goldman (Paris 1 Panthéon-Sorbonne), Lucile
      Haguet (Bibliothèque municipale du Havre) et Geoffrey Phelippot (EHESS-CAK)


      Session 1 : La carte, un art de la mémoire au service de l’histoire
      Session présidée par Antonella Romano (EHESS-CAK)
      10h : Aurélien Ruellet (Le Mans Université)
      « Comme la toile où l’on place en son lieu ce que l’on aprend », La carte et l’histoire dans
      les collèges oratoriens (années 1640-années 1780)
      10h30 : Louise McCarthy (Université Paris Cité)
      La carte comme théâtre de la mémoire, « Ould Virginia » de John Smith et Robert
      Vaughan (1624)
      11h : Monika Marczuk (BnF, département des Cartes et plans)
      Histoire en un coup d’oeil : Mappemonde historique de J.-L. Barbeau de La Bruyère
      (1750)


      11h30-11h45 : Pause-café


      Session 2 : Quand l’historien se fait cartographe
      Session présidée par Jean-Marc Besse (CNRS-EHESS)
      11h45 : Éric Grosjean (École Pratique des Hautes Études)
      Fabio Calvo ou les principes architecturaux de Vitruve appliqués à la cartographie
      historique de la Rome Antique à l’aube du XVI? siècle
      12h15 : Ghislain Tranié (Centre Roland Mousnier, Sorbonne Université)
      L’oeil du polygraphe. Gabriel Simeoni et la fabrique des lieux de l’histoire au milieu du
      XVI? siècle


      12h45-14h : Repas


      14h-15h : Présentation des cartes par Catherine Hofmann (BnF, Cartes et plans) en
      Salle des vélins, sur inscription, dans la limite des places disponibles.

      Session 3 : Chronotopoï, deux exemples de lieux cartographiés avant tout pour leur histoire
      Session présidée par Lucile Haguet (Bibliothèque municipale du Havre)
      15h : Iona Zamfir (Bucharest National Museum of Maps and old Books)
      Jerusalem as Chronotopos, The Tension between the Textual and Visual Mediums in
      16 – Century Geographic Literature
      15h30 : Pierre Salvadori (Université d’Artois)
      Anatomie d’une connexion, histoires situées du pont transarctique dans la cartographie
      du XVI? siècle


      16h-16h15 : Pause-café


      Session 4 : La carte comme outil stratégique et politique
      Session présidée par Catherine Hofmann (BnF, Cartes et plans)
      16h15 : Anne-Rieke Van Schaik (University of Amsterdam)
      Making History, Floris Balthasar Puts Dutch Victories on the Map (c.1600-1610)
      16h45 : Grégoire Binois (Institut d’histoire moderne et contemporaine)
      Cartographier l’histoire militaire aux XVII? et XVIII? siècles, une activité stratégique
      17h15 : Kory Olson (Stockton University)
      L’oeil de la Révolution, Le Plan d’une partie de la ville de Paris de Mangin
      17h45-18h00 : Conclusion générale – Oury Goldman, Lucile Haguet et Geoffrey Phelippot

    • sur Café géo de Paris, 24 septembre 2024 : Les territoires de l’extrême droite en France et en Europe.

      Publié: 29 August 2024, 9:14pm CEST par Les Cafés Géo

      Avec Béatrice Giblin, géographe, géopolitologue

      Café de Flore, 24 septembre 2024, 19-21h

      Béatrice Giblin, géographe et géopolitologue française, professeur émérite des universités, est l’invitée des Cafés Géographiques pour parler de l’extrême droite de France et en Europe.

      En 2012, dans un numéro de la revue Hérodote, elle présentait déjà une analyse géopolitique de l’extrême droite en Europe. En 2022, toujours dans la revue Hérodote, elle posait la question d’une nouvelle géopolitique électorale en France. Aujourd’hui, en 2024, à l’heure où l’extrême droite accroît son audience dans de nombreux pays européens, la lecture géopolitique et l’analyse spatiale s’avèrent des clés de lecture indispensables de ce phénomène.

      Ainsi en France, les dernières élections ont montré un net renforcement du processus de diffusion géographique du vote de l’extrême droite. Si le cœur des métropoles et leurs banlieues restent des pôles de résistance à ce vote, l’espace périurbain a constitué le principal espace de progression du vote RN. A l’échelle européenne, Béatrice Giblin a publié dans le journal Le Monde en juin 2024 une série de cartes qui traduit les ressorts communs affectant les territoires les plus affectés par le vote croissant en faveur de l’extrême droite en Europe. Il y a là matière à mieux comprendre ce phénomène et à participer à la discussion collective pendant ce café géo.

      Béatrice Giblin (géographe), Sylvie Gittus  et Francesca Fattori (Cartographes) : Cartographie des territoires de l’extrême droite en Europe, Le Monde, 7 juin 2024 (édition abonnés)

       

    • sur Mardi 24 septembre 2024, au Café de Flore, c’est la rentrée des Cafés Géo !

      Publié: 29 August 2024, 7:25pm CEST par r.a.

      Cela fait 26 ans que l’aventure des Cafés Géographiques se poursuit et une quinzaine d’années qu’elle emprunte l’adresse parisienne du Café de Flore. Cette année encore, le mardi de 19h à 21h, la salle du premier étage du Flore permettra au public curieux et intéressé d’apprendre et/ou d’échanger à l’occasion de sujets variés grâce aux intervenants invités : géographes, historiens, diplomates, économistes, géopolitologues, journalistes… Cette saison 2024-2025 proposera des sujets d’actualité mais aussi d’autres sujets moins connus pour lesquels l’analyse spatiale et les outils de la géographie proposent des lectures pertinentes et … souvent stimulantes !

      Programme des Cafés géographiques de Paris
      Saison 2024-2025

       

      Mardi 24 septembre 2024 : Les territoires de l’extrême droite en France et en Europe (avec Béatrice Giblin, géographe)

      Mardi 15 octobre 2024 : Les Etats-Unis et le Monde (avec Philippe Etienne, diplomate)

      Mardi 19 novembre 2024 : Qu’est devenue la Yougoslavie (avec Jean-Arnault Dérens et Laurent Geslin, journalistes)

      Mardi 17 décembre 2024 : Géohistoire de l’humanité (avec Christian Grataloup, géohistorien)

      Mardi 28 janvier 2025 : Vivre au bord de la mer (avec Annaig Oiry, géographe)

      Mardi 11 février 2025 : Géographie des pandémies contemporaines (avec Guillaume Lachenal, historien)

      Mardi 25 mars 2025 : Nous aurons toujours besoin des forêts (avec Laurent Testot, journaliste)

      Mardi 29 avril 2025 : Littérature et géographie (avec Emmanuelle Loyer, historienne, et Jean-Louis Tissier, géographe)

      Le Café géo du mardi 24 septembre 2024, 19h à 21h
      Les territoires de l’extrême droite en France et en Europe
      (Avec Béatrice Giblin, géographe, géopolitologue)

      Béatrice Giblin, géographe et géopolitologue française, professeur émérite des universités, est l’invitée des Cafés Géographiques pour parler de l’extrême droite de France et en Europe.

      En 2012, dans un numéro de la revue Hérodote, elle présentait déjà une analyse géopolitique de l’extrême droite en Europe. En 2022, toujours dans la revue Hérodote, elle posait la question d’une nouvelle géopolitique électorale en France. Aujourd’hui, en 2024, à l’heure où l’extrême droite accroît son audience dans de nombreux pays européens, la lecture géopolitique et l’analyse spatiale s’avèrent des clés de lecture indispensables de ce phénomène.

      Ainsi en France, les dernières élections ont montré un net renforcement du processus de diffusion géographique du vote de l’extrême droite. Si le cœur des métropoles et leurs banlieues restent des pôles de résistance à ce vote, l’espace périurbain a constitué le principal espace de progression du vote RN. A l’échelle européenne, Béatrice Giblin a publié dans le journal Le Monde en juin 2024 une série de cartes qui traduit les ressorts communs affectant les territoires les plus affectés par le vote croissant en faveur de l’extrême droite en Europe. Il y a là matière à mieux comprendre ce phénomène et à participer à la discussion collective pendant ce café géo.

      Daniel Oster, Paris, le 29 août 2024

    • sur ESRI et FME

      Publié: 29 August 2024, 2:00pm CEST
      Septième et avant-dernière partie du tour d'horizon des SIG sur les dessous des calculs géométriques : un petit tour chez ESRI et FME.
    • sur Michel Bruneau, un « géographe de transitions »

      Publié: 27 August 2024, 9:59pm CEST par r.a.

      Michel BRUNEAU, Parcours d’un géographe de transitions. L’Harmattan, 2023

      Ce « parcours » est le parcours d’une vie, d’une vie professionnelle de géographe bien sûr, mais aussi d’une vie personnelle où amitiés et rencontres intellectuelles jouent un grand rôle, dans le milieu universitaire français comme sur ses terrains d’études en Thaïlande ou en Asie Mineure. En utilisant le terme « transitions » pour qualifier une carrière de plus de 60 ans, Michel Bruneau se réfère à l’espace -passage de l’Asie du Sud-Est au terrain pontique de la Grèce au Caucase -, mais aussi à son évolution personnelle sur les plans méthodologique et épistémologique.

      Le géographe est avant tout un homme de « terrain », terme qui définit à la fois un espace, des méthodes et le discours produit sur cet espace. Pour ce faire il collecte des données selon des moyens traditionnels (enquêtes, questionnaires…) mais aussi des techniques novatrices dans les années 1960/1970 (images de télédétection…) et utilise les travaux des autres sciences humaines (anthropologie, histoire…). Le choix des deux grands terrains d’études de Michel Bruneau, l’Asie du Sud-Est et le monde grec pontique, est en grande partie lié à son histoire familiale : un grand-père fonctionnaire en Indochine et un père élève de Pierre Gourou à Hanoï dans le premier cas, des vacances et l’étude du grec ancien au lycée dans le second cas. C’est ainsi que le jeune géographe a commencé sa carrière à l’université de Chiang Mai, dans le nord de la Thaïlande dans le cadre du service civil de coopération afin d’y étudier « Les populations de riziculteurs des bassins et vallées ».

      A travers les longues années passées en Thaïlande, nous pouvons suivre l’évolution intellectuelle de l’auteur mais aussi celle de la pensée géographique de l’époque.

      Les premiers travaux de M. Bruneau se font dans le cadre de la géographie tropicale telle qu’elle a été définie par P. Gourou, une géographie classique post-vidalienne. Il recueille de nombreuses données qualitatives et quantitatives auprès des paysans dont il partage la vie, avec l’aide des étudiants locaux, notamment chez les Karen de la montagne et dans les villages du bassin de Chiang Mai. Ces travaux qui intègrent déjà les images de télédétection Landsat pour la cartographie et le traitement informatique des données chiffrées, sont la base de sa thèse préparée au Centre d’Etudes de Géographie tropicale (CEGET) de Bordeaux.

      Au cours des années1970, un clivage divise les géographes selon des facteurs intellectuels et politiques. La géographie post-vidalienne de P. Gourou est vivement contestée par les tenants de la « géographie critique » qui utilise les concepts marxistes de mode de production. Ces derniers expliquent la différenciation des espaces ruraux thaïlandais par la pénétration du mode de production capitaliste sous la pression des impérialismes anglais et français. M. Bruneau, ancien soixante-huitard, sensible aux thèses marxistes d’analyse des sociétés et converti au catholicisme de Témoignage Chrétien, adopte l’approche de la géographie critique dans sa thèse, dirigée par Jean Delvert. La soutenance de celle-ci, en 1977, suscite de vives controverses. D’un côté, les géographes conservateurs – dont le directeur de thèse –, tenants de la géographie tropicale, s’étonnent de l’utilisation de concepts marxistes et refusent l’utilisation de l’histoire et des méthodes nouvelles. De l’autre côté, les « nouveaux » géographes, de gauche, tiers-mondistes, valorisent la problématique marxiste et dénoncent la filiation entre géographie coloniale et géographie tropicale. Sous la pression de J. Delvert, il n’y eut pas de compte rendu de la thèse de M. Bruneau dans les Annales de géographie.

      Troisième étape dans son itinéraire intellectuel : l’abandon du schéma marxiste d’explication. La poursuite de ses recherches en Thaïlande l’amène à formuler des limites à la géographie critique. La lutte des classes des années 70 n’a pas débouché sur une réforme agraire. La forte croissance économique et industrielle capitaliste du pays a amené la création d’une nouvelle paysannerie aisée, intégrée dans une force de travail mondialisée. On peut parler de villageois urbanisés dont la cohésion est assurée par une forte identité culturelle.

      Les derniers travaux de M. Bruneau sur son terrain asiatique sont marqués par la prédominance de la dimension géohistorique dont les maîtres sont F. Braudel puis C. Grataloup. Il a ainsi montré qu’en Asie de l’Est, deux modèles spatiaux ont été élaborés sur la longue durée, l’un polycentrique et hétérarchique (1), sur le modèle indien, qu’il appelle Etat-mandala, l’autre, de type hiérarchique autour d’une autorité centrale forte, sur le modèle chinois.

      Le second grand terrain du géographe concerne les Grecs pontiques et l’amène à se déplacer de la Grèce à la Turquie et au Caucase russe et géorgien, mais aussi dans d’autres parties du monde (France, Amérique du Nord, Australie). Ces recherches ont été faites dans le cadre d’une nouvelle unité de recherche, « Territorialité et Identité dans le domaine européen » (TIDE). Le travail porte sur les diasporas et les communautés transnationales. En effet, le traité de Lausanne (1923) a contraint les Grecs d’Asie Mineure, du Pont et de Thrace orientale à quitter la nouvelle République turque pour l’Etat grec puis le reste du monde.

      Bruneau s’engage dans ces recherches avec une nouvelle approche scientifique, celle de la géographie culturelle, telle qu’elle a été définie par Paul Claval. Les descendants des migrants pontiques ont gardé une forte mémoire du territoire d’origine de leurs ancêtres. La transmission de la mémoire des lieux d’origine, assurée par des associations culturelles, utilise une iconographie très riche et des voyages-pèlerinages. Monuments commémoratifs, images murales, toponymes évoquent aussi bien les mythes antiques que les violences turques plus récentes. On part à la découverte du village où vivaient les ancêtres ; même s’il est difficile de retrouver leurs maisons et si l’église a été transformée en mosquée, on reçoit un bon accueil des habitants actuels. La mémoire est aussi entretenue par les œuvres littéraires, comme les romans historiques de Christos Samouelidis ou les articles de Photis Kontoglou.

      Le travail sur les migrations des Grecs pontiques a amené M. Bruneau à élaborer un nouveau concept, celui de « peuple-monde de la longue durée » (2). Un peuple-monde est une entité socio-politique et culturelle dont la dimension excède celle d’un seul Etat. Les enquêtes de terrain sont fondamentales dans ce nouveau champ de recherche, mais l’utilisation de données statistiques et la cartographie des paysages n’y ont pas leur place. De nombreuses références scientifiques ont guidé notre géographe, celles de F. Braudel et de de C. Grataloup déjà cités, mais aussi celles de P. Nora, de J. Gottman, d’A. Smith (l’approche mytho-symbolique de « peuple ») ou de J. Lacarrière (continuité de l’hellénisme de l’Antiquité à nos jours). Un peuple-monde a un Etat territorial et une diaspora mondiale.

      Chez les Grecs, la continuité historique a été assurée par la langue, porteuse d’une culture, l’hellénisme. Une même langue parlée depuis l’Antiquité et une même spiritualité chrétienne depuis Byzance, l’orthodoxie. Un modèle spatial en cinq auréoles concentriques permet de comprendre la dimension spatiale de l’hellénisme, depuis l’espace égéen central jusqu’aux auréoles externes de la diaspora dans le Nouveau Monde et en Afrique.

      A partir de ses analyses sur l’hellénisme, M. Bruneau a pu distinguer cinq autres peuples-monde de la longue durée : Indiens, Chinois, Juifs, Arméniens et Iraniens. La longévité de leur culture est exceptionnelle (même s’ils ont assimilé d’autres éléments culturels).

      En conclusion, M. Bruneau reconnait qu’au cours de sa vie de chercheur-géographe, il a suivi deux approches différentes, celle d’une étude spatiale à différentes échelles (village, Etat, ensemble d’Etats) en Asie du Sud-est et celle des réseaux et des lieux à l’échelle mondiale pour la diaspora grecque. Mais au-delà de leurs différences, ces approches ont des caractères communs : immersion dans les cultures étudiées sur une longue période, approche interdisciplinaire, modélisation graphique, importance des relations amicales pour la compréhension du milieu…). Les inflexions de son itinéraire scientifique reflètent l’évolution des courants de la pensée géographique en un demi-siècle.

      Notes :

      (1) hétérarchique : relatif à un système d’organisation non hiérarchique qui est caractérisé par l’interrelation et la coopération entre les entités qui la composent.

      (2) peuple-monde de la longue durée : concept élaboré par le géographe Michel Bruneau. Voir la synthèse : Michel Bruneau, Peuples-monde de la longue durée. Chinois, Indiens, Iraniens, Grecs, Juifs, Arméniens, CNRS Editions, 2022.

       Michèle Vignaux, juillet 2024

    • sur Lettre ouverte à la commission Européenne – Défendons le programme NGI

      Publié: 29 July 2024, 10:16am CEST par Vincent Picavet

      Cette lettre a été publiée initialement par les petites singularités. Si vous souhaitez signer la lettre, vous pouvez la publier sur votre site et compléter le tableau ici.

      Le CNLL a également publié une tribune, s’alarmant de la suppression des programmes NGI. Oslandia, en tant que membre du CNLL, soutient aussi ce texte.

      Lettre ouverte à la Commission Européenne

      Depuis 2020, les programmes Next Generation Internet (NGI), sous-branche du programme Horizon Europe de la Commission Européenne financent en cascade (via les appels de NLNet) le logiciel libre en Europe. Cette année, à la lecture du brouillon du Programme de Travail de Horizon Europe détaillant les programmes de financement de la commission européenne pour 2025, nous nous apercevons que les programmes Next Generation Internet ne sont plus mentionnés dans le Cluster 4.

      Les programmes NGI ont démontré leur force et leur importance dans le soutien à l’infrastructure logicielle européenne, formant un instrument générique de financement des communs numériques qui doivent être rendus accessibles dans la durée. Nous sommes dans l’incompréhension face à cette transformation, d’autant plus que le fonctionnement de NGI est efficace et économique puisqu’il soutient l’ensemble des projets de logiciel libre des plus petites initiatives aux mieux assises. La diversité de cet écosystème fait la grande force de l’innovation technologique européenne et le maintien de l’initiative NGI pour former un soutien structurel à ces projets logiciels, qui sont au cœur de l’innovation mondiale, permet de garantir la souveraineté d’une infrastructure européenne. Contrairement à la perception courante, les innovations techniques sont issues des communautés de programmeurs européens plutôt que nord-américains, et le plus souvent issues de structures de taille réduite.

      Le Cluster 4 allouait 27.00 millions d’euros au service de :

      • « Human centric Internet aligned with values and principles commonly shared in Europe » ;
      • « A flourishing internet, based on common building blocks created within NGI, that enables better control of our digital life » ;
      • « A structured eco-system of talented contributors driving the creation of new internet commons and the evolution of existing internet common ».

      Au nom de ces enjeux, ce sont plus de 500 projets qui ont reçu un financement NGI0 dans les 5 premières années d’exercice, ainsi que plus de 18 organisations collaborant à faire vivre ces consortia européens.

      NGI contribue à un vaste écosystème puisque la plupart du budget est dévolue au financement de tierces parties par le biais des appels ouverts (open calls). Ils structurent des communs qui recouvrent l’ensemble de l’Internet, du matériel aux applications d’intégration verticale en passant par la virtualisation, les protocoles, les systèmes d’exploitation, les identités électroniques ou la supervision du trafic de données. Ce financement des tierces parties n’est pas renouvelé dans le programme actuel, ce qui laissera de nombreux projets sans ressources adéquates pour la recherche et l’innovation en Europe.

      Par ailleurs, NGI permet des échanges et des collaborations à travers tous les pays de la zone euro et aussi avec ceux des widening countries [1], ce qui est actuellement une réussite tout autant qu’un progrès en cours, comme le fut le programme Erasmus avant nous. NGI0 est aussi une initiative qui participe à l’ouverture et à l’entretien de relation sur un temps plus long que les financements de projets. NGI encourage également à l’implémentation des projets financés par le biais de pilotes, et soutient la collaboration au sein des initiatives, ainsi que l’identification et la réutilisation d’éléments communs au travers des projets, l’interopérabilité notament des systèmes d’identification, et la mise en place de modèles de développement intégrant les autres sources de financements aux différentes échelles en Europe.

      Alors que les États-Unis d’Amérique, la Chine ou la Russie déploient des moyens publics et privés colossaux pour développer des logiciels et infrastructures captant massivement les données des consommateurs, l’Union Européenne ne peut pas se permettre ce renoncement. Les logiciels libres et open source tels que soutenus par les projets NGI depuis 2020 sont, par construction, à l’opposée des potentiels vecteurs d’ingérence étrangère. Ils permettent de conserver localement les données et de favoriser une économie et des savoirs-faire à l’échelle communautaire, tout en permettant à la fois une collaboration internationale. Ceci est d’autant plus indispensable dans le contexte géopolitique que nous connaissons actuellement. L’enjeu de la souveraineté technologique y est prépondérant et le logiciel libre permet d’y répondre sans renier la nécessité d’œuvrer pour la paix et la citoyenneté dans l’ensemble du monde numérique.

      Dans ces perspectives, nous vous demandons urgemment de réclamer la préservation du programme NGI dans le programme de financement 2025.

      [1] Tels que définis par Horizon Europe, les États Membres élargis sont la Bulgarie, la Croatie, Chypre, la République Tchèque, l’Estonie, la Grèce, la Hongrie, la Lettonie, la Lithuanie, Malte, la Pologne, le Portugal, la Roumanie, la Slovaquie et la Slovénie. Les pays associés élargies (sous conditions d’un accord d’association) l’Albanie, l’Arménie, la Bosnie Herzégovine, les Iles Feroé, la Géorgie, le Kosovo, la Moldavie, le Monténégro, le Maroc, la Macédoine du Nord, la Serbie, la Tunisie, la Turquie et l’Ukraine. Les régions élargies d’outre-mer sont : la Guadeloupe, la Guyane Française, la Martinique, La Réunion, Mayotte, Saint-Martin, Les Açores, Madère, les Iles Canaries.

       Photo de Maximalfocus sur Unsplash

       

    • sur GéoDataDays 2024

      Publié: 25 July 2024, 6:49am CEST par Caroline Chanlon

      Oslandia est cette année encore sponsor des GéoDataDays qui se tiendront les 19 et 20 septembre 2024 à Nantes ! Retrouvez-nous sur notre stand pour découvrir nos solutions et notamment Piero, l’application Web 3D SIG/BIM open source et sur l’espace Démo pour un atelier Métropoles ? OpenSource !

      Venez discuter des dernières avancées de l’open source Geospatial, voir les projets que nous avons réalisés, et découvrir comment nous pouvons répondre à vos problématiques.

      Vous y croiserez notamment Bertrand Parpoil, Vincent Picavet, Julien Moura et Vincent Bré !

      Inscription : [https:]]

    • sur [1’Tech by Oslandia] open data

      Publié: 23 July 2024, 6:55am CEST par Caroline Chanlon

      Dans cette minute Tech, nos collaborateurs vous proposent d’expliquer une technologie, une méthodologie, un concept. Après open source, LiDAR, webGL, réversibilité, TCO et même télétravail, on a brainstormé sur GitLab pour donner notre meilleure définition de l’open data

      L’open data ( « Donnée ouverte » ), est la donnée librement accessible. Elle concerne notamment toutes les données publiques accessibles aux usagers : citoyens, entreprises, collectivités, … Elles peuvent être d’origine privée mais sont la plupart du temps mises à disposition par une collectivité ou un établissement public.

      L’Open Knowledge Foundation en 2005 donnent les critères essentiels de l’open data : la disponibilité, la réutilisation et la distribution, et la participation universelle. En France, il existe un cadre légal obligeant à l’ouverture de certaines données.
      Ces ressources ouvertes accessibles dans des catalogues de données, permettent de construire des outils comme des observatoires pour lesquels la représentation cartographique est utilisée.

      Oslandia a travaillé sur de nombreux projets mobilisant de l’open data, c’est le cas de Terristory®, un outil partenarial d’aide au pilotage de la transition des territoires ou sur des projets avec Bruxelles Environnement. Nous avons également une connaissance approfondie de la donnée OpenStreetMap.

      L’open data permet d’alimenter ces outils numériques avec de la donnée de qualité permettant ainsi des services de qualité.

      OpenData et OpenSource forment le combo libre et efficient !

    • sur [Équipe Oslandia] Jean-Marie, développeur C++ / Python

      Publié: 18 July 2024, 7:30am CEST par Caroline Chanlon

      Jean-Marie a toujours aimé l’électronique et tout ce qui touche au traitement du signal. Il rejoint l’INSA Rennes, une école d’ingénieur généraliste en spécialité ESC – Electronique et Systèmes de Communication (aujourd’hui E&T) sur les problématiques télécommunications.

      Il réalise son stage de fin d’étude chez Silicom à Rennes sur le sujet « Modélisation de systèmes de communication » sous Matlab avant d’être embauché par la même entreprise mais pour une toute autre mission …le développement d’une application informatique de simulation de réseaux télécom pour la DGA avec QT en C++ !

      « Je ne connaissais pas trop l’informatique, quelques notions pendant mes études, mais j’aimais bien, ça me plaisait de pouvoir me lancer là dedans. J’ai acquis des connaissances en pratiquant, c’est comme ça qu’on apprend ! »

      Ensuite, Jean-Marie saisit l’opportunité de travailler sur le passage au tout numérique via la TNT. « J’ai travaillé pendant 2 ans et demi au CSA, j’ai réalisé des études sur la planification de fréquences, étudié les couvertures des émetteurs TNT. C’était une super expérience, j’ai travaillé sur un projet qui a impacté les français au quotidien ! »

      De retour à Rennes, il reprend le développement en C++ avec QT, notamment pour un projet d’analyse de signaux sismiques du CEA et découvre QGIS. Une nouvelle compétence qu’il mobilise pour la DGA et le développement d’un outil basé sur QGIS pour l’affichage de données relatives à l’aide à la planification de missions satellites.

      « 14 ans chez Silicom, il était temps de passer à autre chose »

      Jean-Marie rejoint Oslandia en novembre 2021 en tant que développeur C++ / Python où il réalise des missions de développement et DevOps, notamment pour Viamichelin sur la refonte du calcul d’itinéraire de l’outil en ligne ou pour l’IGN pour la mise en place du calcul d’itinéraire sur la nouvelle Géoplateforme.

      Projet emblématique

      Jean-Marie a produit 80% du code d’OpenLog, un outil de visualisation de données de sondage open source porté par Apeiron (filiale d’Oslandia).

      « Ce projet m’a permis de mobiliser mes connaissances sur la représentation de données »

      Technologies de prédilection

      Python et C++

      Ta philosophie

      Le partage ! Ce qu’on produit peut être utilisé par d’autres, nous partageons nos connaissances et notre travail !

      Oslandia en 1 mot

      Ouverture par rapport à l’open source et dans le sens où tout est transparent dans l’entreprise, tout le monde peut donner son avis, les décisions sont prises collectivement.

    • sur Une vision multiscalaire des rapports de force politiques

      Publié: 16 July 2024, 10:27am CEST par Nicolas Lambert

      Camarades cartographes, nous sortons d’une séquence politique inédite. Le pays semble fracturé en trois blocs avec une extrême droite au plus haut. Mais comment rendre compte cartographiquement des clivages géographiques qui fracturent le pays ?

      Dans un billet réalisé avec Antoine Beroud et Ronan Ysebaert pour le journal l’Humanité (voir), nous proposons une série de cartes avec des représentations continues à plusieurs échelles. La méthode d’interpolation spatiale utilisée ici est connue sous le nom de potentiel, de potentiel gravitationnel ou d’accessibilité gravitationnelle. Le concept a été développé dans les années 1940 par le physicien John Q. Stewart à partir d’une analogie avec le modèle gravitationnel. Ce potentiel est défini comme un stock – un nombre de voix – pondéré par une distance définie ici par une fonction gaussienne (courbe en cloche). En faisant varier la portée de cette fonction, l’algorithme permet de dessiner des cartes plus ou moins généralisées pour montrer les grandes structures spatiales selon différentes échelles d’analyse, en faisant abstraction des irrégularités du maillage sous-jacent.

      In fine, la méthode permet de rendre compte avec différents filtres d’observation, des lignes de force des différents blocs politiques qui structurent géographiquement le pays.

      Bloc de gauche

      Bloc de droite

      Bloc d’extrême droite

      Des comparaisons deux à deux sont également possibles.

      Article initial et explications méthodologiques : [https:]]

      Code source : [https:]] & [https:]]

      Nicolas Lambert

      Ingénieur de recherche CNRS en sciences de l'information géographique. Membre de l'UMS RIATE et du réseau MIGREUROP / CNRS research engineer in geographical information sciences. Member of UMS RIATE and the MIGREUROP network.

      More Posts

      Follow Me:
      Twitter

    • sur TerriSTORY® – Une histoire de territoires OpenSource

      Publié: 16 July 2024, 7:04am CEST par Sylvain Beorchia

      Lorsque nous avons commencé à travailler sur Terristory en 2018, c’était alors un POC (Proof Of Concept) commandé par AURA-EE,  Auvergne Rhône-Alpes Énergie Environnement. Le premier sprint devait convaincre de la faisabilité et projeter les ambitions de l’association. 6 ans plus tard, la plateforme devenue publique est un projet OpenSource maintenu de façon autonome directement par AURA-EE.

      Le développement de la plateforme s’est déroulé sur plusieurs années. Au départ Oslandia était le prestataire chargé de réaliser et conseiller l’AURA-EE sur le projet, mais il était prévu aussi de former petit à petit les équipes côté association et de transmettre le savoir pour un jour permettre une totale autonomie. En parallèle, il y avait une volonté forte de la part d’Oslandia d’arriver à terme à une ouverture du code source de l’application, ce qui était également une volonté d’AURA-EE dès le départ.

      Publier le code source d’une application (ici un site web) n’est pas forcément une tâche difficile en apparence.  On pourrait penser qu’il s’agit juste de créer un répertoire gitlab et d’y déposer le code. Dans les faits, c’est ce qui se passe. Néanmoins, une bonne préparation en amont est nécessaire si on souhaite une ouverture de qualité.

      De nombreuses questions se bousculent alors

      Quand doit-on publier ? Est-ce que la documentation est prête ? Dois-je traduire en anglais ? A-t-on résolu tous les bugs critiques ? Comment va se passer la publicité ? Y-a-t il un formalisme à respecter ? Les aspects juridiques sont-ils couverts ? Est-on prêt à recevoir les retours de la communauté ?

      Les étapes

      La première chose à faire était de choisir la licence. Dans le cas de Terristory c’est la GNU Affero (ou AGPL) version 3 qui a été sélectionnée, après étude des tenants et des aboutissants. Ici il s’agit d’un outil serveur, sur lequel AURA-EE et les différents partenaires impliqués au sein d’un consortium national voulaient que les modifications faites par les utilisateurs soient reversées.

      Un premier travail de documentation et de structuration du code a été entrepris par AURA-EE. Avoir une bonne documentation, des guidelines sont essentiels pour s’assurer que toute personne intéressée par la réutilisation ou par la contribution au code puisse aisément installer, tester et ajouter de nouvelles fonctionnalités.

      Le code de Terristory a également connu de nombreuses phases de refactoring, c’est à dire de réécriture de certaines parties parce qu’obsolète, pas assez efficaces ou suite à des changements de librairies utilisées. Outre les évolutions fonctionnelle d’une telle application, le refactoring constitue une partie importante de la vie du logiciel. D’autant plus sur les applications Web où les avancées technologiques sont rapides. Il faut maintenir le code, et suivre l’évolution des librairies sous-jacentes si on veut pouvoir faire évoluer le site plus facilement et par un maximum de personnes. Côté Oslandia, nous anticipons au mieux ces phases de développement pour éviter le jour J de devoir faire une revue totale et potentiellement complexe du code juste avant la publication.

      Oslandia a accompagné AURA-EE sur toutes ces années, et a réussi à lui transmettre la culture de l’OpenSource, aussi bien techniquement que dans les méthodes de travail. Ainsi, les collaborateurs d’AURA-EE sont vite devenus des utilisateurs experts de Gitlab, des utilisateurs experts de la solution, puis des développeurs de l’application, pour enfin procéder eux-même à la libération publique du code. En tant qu’ancien développeur principal de l’application pendant plusieurs années, je suis personnellement assez fier du travail accompli et de la manière dont les choses se sont déroulées.

      [Témoignage]

      Pierrick Yalamas, Directeur intelligence territoriale et observatoires à Auvergne-Rhône-Alpes Énergie Environnement :
      « Oslandia a su nous accompagner durant les premières années du projet TerriSTORY® : des premiers développements à l’appui juridique (choix de la licence) pour l’ouverture du code. L’équipe est maintenant complètement autonome. L’ouverture du code début 2023 a déjà donné lieu (mi-2024) à plusieurs réutilisations, qui permettent d’enrichir les fonctionnalités de TerriSTORY®. »

      Notre vision

      Le projet TerriSTORY® et la manière dont il s’est déroulé correspond à la vision d’Oslandia de la relation client : notre objectif est de fournir les outils et les méthodes permettant aux organisations que nous accompagnons d’être le plus efficace et le plus autonome possible. Et ce, sur tous les aspects d’un projet logiciel : technique, mais aussi organisationnel, juridique, sur l’infrastructure de développement et les process mis en place. Voir des solutions que nous avons ébauchées prendre leur propre autonomie, dans le respect de l’esprit du logiciel libre est une satisfaction et une fierté pour toute l’équipe, et nous sommes reconnaissants à l’AURA-EE de nous avoir fait confiance pour cela.

    • sur Premiers MNT LidarHD

      Publié: 14 July 2024, 6:55pm CEST par Simon Gascoin
      Pièce jointe: [télécharger]

      L’IGN communique actuellement sur la mise à disposition des premiers MNT dérivés des nuages de points LiDAR HD.

      [Thread LiDAR HD ?] Vous les attendiez ? Les premiers modèles numériques #LiDARHD sont maintenant disponibles et accessibles à tous en #opendata ?

      ? [https:]]

      ? La Charente-Maritime (bloc FK), le Nord (KA) et le Pas-de-Calais (JA) sont les premiers… pic.twitter.com/1UFOZabImE

      — IGN France (@IGNFrance) July 10, 2024

      A mon avis, cet exemple est mal choisi puisqu’un MNT de la citadelle de Gravelines de qualité équivalente  était déjà disponible dans le RGE ALTI® 1m en libre accès depuis le 1er janvier 2021. Sur ce secteur les métadonnées du RGE ALTI® indiquent que la source est un LiDAR de densité d’acquisition à 1 points au m². On pouvait donc déjà voir ces fortifications dans mon interface de visualisation du RGEALTI.

      Comparaison des MNT RGE ALTI® 1m et LiDAR HD sur le fort de Gravelines

      En effet, le RGE ALTI® est un composite de plusieurs sources de données… La qualité du produit final est très variable ! En l’occurrence Gravelines était déjà couvert en lidar comme le reste du littoral.

      Sources du RGE ALTI® (oui sans la légende) : corrélation (en général), lidar (littoral, rivières et villes) ou radar (montagnes). Pour en savoir plus consulter l’annexe B de ce document [https:]]

      Pour le littoral, le nouveau MNT LiDAR HD présente un intérêt plus marquant là où la surface terrestre a changé récemment. On peut ainsi comparer les MNT RGE ALTI® et LiDAR HD pour observer l’évolution des dunes de la Slack près de Wimereux. Malheureusement je ne connais pas les dates d’acquisition de ces deux produits.

      document.createElement('video'); [https:]]

      Mais le véritable intérêt du MNT LiDAR HD se situe plutôt dans les zones où la source des données pour construire le RGE ALTI® n’était pas du lidar. Par exemple dans le département du Pas-de-Calais se trouve la plus grande carrière de France, les Carrières du Boulonnais.

      Comparaison des MNT RGE ALTI® 1m et LiDAR HD sur les Carrières du Boulonnais

      Vivement la mise à disposition des autres régions de France !

      Photo en-tête : Zoom sur la partie centrale de la carrière de Ferques (Pas de Calais) par Pierre Thomas. Source : Planet Terre [https:]]

    • sur Crue du Vénéon : que nous apprennent les images satellites ?

      Publié: 13 July 2024, 2:27am CEST par Simon Gascoin
      Pièce jointe: [télécharger]

      Le 21 juin 2024, la crue torrentielle du Vénéon et de son affluent le torrent des Étançons a dévasté le hameau de la Bérarde dans le massif des Écrins. Cette crue a résulté des fortes pluies et de la fonte de la neige, et a peut-être été aggravée par la vidange d’un petit lac supra-glaciaire.

      L’année en cours est particulièrement excédentaire en neige dans les Alpes, en particulier à haute altitude. Le stock de neige dans le bassin du Rhône au printemps 2024 est bien supérieur à la normale des trente dernière années mais proche de celle des années 1961-1990. Or une telle crue ne s’est pas produite depuis la moitié du 20e siècle au moins à la Bérarde. Que s’est-il passé ?

      Image

      Le secteur est bien instrumenté avec une station hydrométrique sur le Vénéon à 3 km en aval de la Bérarde (1581 m) et une station météorologique située à 6 km de route près du bourg de Saint-Christophe-en-Oisans (1564 m).

      Séries horaires de précipitations et de débit entre le 19 juin 00h et le 21 juin 18h TU.

      Le cumul de précipitation mesuré entre le 19 et le 21 juin est considérable, précisément 100 mm en 34 heures. J’ai calculé le bassin versant du Vénéon à cette station hydrométrique Saint-Christophe-en-Oisans à partir du modèle numérique de terrain RGE ALTI® 5m fourni par l’IGN. Sa superficie est de 104 km², le volume d’eau reçu pendant ces 34 heures est donc 10 millions de mètres cube, soit 84 m³/s. On constate que le débit de crue s’approchait de 80 m³/s avant que l’enregistrement ne cesse. Il est probable que ces 100 mm de pluie intense expliquent l’essentiel de la crue. Malheureusement la série de débit est interrompue et à ce jour il est impossible de fermer le bilan hydrologique. Peut-on en savoir plus sur la contribution du manteau neigeux à partir des images satellitaires ?

      Bassin versant du Vénéon à la station hydrométrique de St-Christophe-en-Oisans (marqueur rouge) et la station météorologique associée (marqueur bleu).

      Ce bassin draine des zones de haute montagne dont l’antécime de la Barre des Ecrins qui culmine à plus de 4000 m d’altitude. Les fluctuations diurnes de débit indiquent que la fonte des neiges avait commencé à alimenter le Vénéon depuis le début du mois de juin (la taux de fonte est en grande partie contrôlé par l’énergie solaire donc il suit le rythme des journées).

      Série journalière des précipitations et série horaire du débit du Vénéon à St-Christophe-en-Oisans. La série de débit est interrompue à partir du 21 juin sans doute à cause des dégâts causés par la crue.

      Les images Sentinel-2 avant et après la crue montrent que le manteau neigeux a bien réduit entre les deux dates car sa limite basse remonte en altitude. Un autre détail intéressant est le changement de couleur : les zones enneigées blanches de haute altitude ont disparu, ce qui suggère que la fonte a eu lieu jusqu’aux plus hauts sommets du bassin versant. En effet, les poussières sahariennes ont été déposées à la fin du mois de mars 2024.

      [https:]]

       

      On peut analyser l’évolution de l’enneigement à partir des cartes de neige Theia ou Copernicus. Voici par exemple celle du 2 juillet 2024.

      Une façon de résumer l’enneigement et de s’affranchir des nuages est de calculer la « ligne de neige », c’est-à-dire l’altitude qui délimite en moyenne la partie basse de l’enneigement. Pour la calculer j’utilise l’algorithme de Kraj?í et al. (2014) qui minimise la somme de la surface enneigée sous la ligne de neige et de la surface non-enneigée au dessus de la ligne de neige. Dans cet exemple on obtient 2740 m.

      Les cartes de neige sont disponibles depuis 2015 (Landsat 8, Sentinel-2). La série complète sur le bassin versant du Vénéon à St Christophe permet de voir la remontée de la ligne de neige entre avril (01/04 = jour 91) et août (01/08 = jour 213).

      L’année 2024 se distingue par une limite d’enneigement plus basse que les huit années précédentes.

      Si on superpose cette ligne de neige avec l’isotherme 0°C donnée par ERA5 on constate que l’intégralité du bassin versant était sous l’iso 0°C quelques jours avant la crue, ce qui suggère (1) qu’il a plu à très haute altitude (2) qu’il y a eu un apport de fonte, d’autant que le manteau neigeux avait déjà été bien réchauffé au début du mois de juin.

      Des images satellites à très haute résolution (Pléiades Neo) ont été acquises dans le cadre de la CIEST2. Ces images permettent de voir les traces des pluies abondantes sur la neige lessivée et des avalanches de neige humide autour du glacier de Bonne Pierre.

      Image satellite du manteau neigeux sur le glacier de Bonne Pierre (Pléiades Neo 04 juillet 2024, composition colorée)

       

      Image satellite du manteau neigeux sur le glacier de Bonne Pierre (Pléiades Neo 04 juillet 2024, panchromatique)

      En conclusion, les données disponibles montrent cette crue est une crue de pluie sur neige (Rain-On-Snow). On trouve tous les ingrédients favorables à ce type de crue :

      • une pluie intense ;
      • un manteau neigeux particulièrement étendu avec une ligne de neige basse pour la saison ;
      • un manteau neigeux déjà en régime de fonte ou proche (isothermal, ripe snowpack) ;
      • un apport de chaleur pendant l’évènement, ici une atmosphère chaude et humide qui a dû émettre de forte quantités de rayonnement thermique.

      Les taux de fonte peuvent dépasser 20 mm/jour dans les zones de montagne. Cet apport de fonte doit être pondéré par la fraction enneigée du bassin. Le 17 juin 60% de la surface du bassin était enneigée donc on peut estimer une contribution potentiellement de l’ordre de 15 mm/jour pendant la crue à comparer aux 100 mm de pluie mesurés à St-Christophe pendant l’épisode. Donc le manteau neigeux a pu augmenter significativement l’apport d’eau liquide dans ce bassin versant. Néanmoins, d’autres facteurs aggravants sont à considérer :

      • une augmentation du taux de précipitation par effet orographique : les précipitations mesurés à St-Christophe à 1564 m sont probablement sous-estimées à l’échelle du bassin versant de la Bérarde qui s’étend jusqu’à 4086 m (Pic Lory) ;
      • la saturation des sols et des nappes d’eau souterraines (y compris le thermokarst glaciaire) suite à un printemps bien arrosé et une fonte des neiges en cours depuis plusieurs semaines.

      Ces évènements Rain-On-Snow sont bien étudiés aux USA où ils sont connus pour déclencher des crues dévastatrices (comme le débordement du lac Oroville en Californie). Plusieurs études montrent que le changement climatique augmente le risque de crue Rain-On-Snow en haute montagne [1, 2].

      Les images Pléiades Neo étant des prises stéréo, elles devraient également permettre aux géomorphologues de calculer les volume de sédiments charriés lors de cette crue exceptionnelle.

      Mise à jour 15/07/2024. Le SYMBHI nous apprend que « Le débit du Vénéon a atteint 200 m3/s (source EDF) à plan du Lac (St Christophe en Oisans) ». Cela ferait une lame d’eau horaire de 7 mm, ce qui reste compatible avec les mesures du pluviomètres de St Christophe (on observe 3h avec des taux supérieurs à 8 mm/h).

    • sur Exposition “Cartes et cartographie du bas-Limousin et de la Corrèze”, Tulle, 8 juillet-31 décembre 2024

      Publié: 12 July 2024, 12:09pm CEST par Catherine Hofmann
      Exposition aux Archives départementales de Corrèze, 4 rue du Touron à Tulle, 8 juillet-31 décembre 2024

        Catalogue d’exposition : Cartes et cartographie du Bas-Limousin et de la Corrèze, d’une province méconnue aux contours d’un département, par Julien MENDES, sous la dir. de Justine BERLIÈRE, Tulle, 2024, 148 p.

      Fruit d’un patient et minutieux travail, cette exposition des Archives départementales de la Corrèze retrace l’histoire de la représentation géographique d’un territoire particulièrement important dans l’histoire de la cartographie française qui s’y illustra dès le XVIsiècle. Elle évoque ainsi l’histoire de la cartographie à la lueur de l’exemple corrézien.

      Au fil des documents présentés et des pages du catalogue qui accompagne l’exposition, on voit peu à peu se dessiner un ensemble, le Bas-Limousin, constitué de diverses strates de seigneuries, juridictions, paroisses… La Révolution reconnaît ensuite son identité propre en créant le département de la Corrèze, dont le découpage devait permettre d’accéder au chef-lieu en une journée de cheval.

      Il faut se plonger dans la lecture de ce catalogue richement illustré, qui invite à voyager dans le temps, depuis les premières représentations cartographiques du Limousin à la fin du Moyen Âge jusqu’aux Systèmes d’information géographique actuels, en passant par la carte de Cassini et celle de l’état-major aux XVIIIe et XIXe siècles.

      Autant de supports, conservés dans différents dépôts d’archives et bibliothèques, qui sont un régal pour les yeux et font voir sous un jour nouveau les contours de ce beau département et l’évolution de la cartographie.

    • sur Fin de la phase d’acquisitions d’images de VENµS

      Publié: 12 July 2024, 9:52am CEST par Olivier Hagolle

       =>

      C’est avec une certaine tristesse mais aussi beaucoup de fierté que je vous rappelle que la phase opérationnelle de VENµS se terminera fin juillet après 7 ans de bon travail. La phase d’acquisition actuelle (VM5) s’arrêtera le 12 juillet. Les semaines restantes seront consacrées à quelques expériences techniques (les acquisitions au-dessus d’Israël se poursuivront jusqu’à fin juillet), puis, nos collègues israéliens videront les réservoirs en abaissant l’orbite, « passiveront » le satellite, puis laisseront les hautes couches de l’atmosphère réduire sa vitesse et abaisser son altitude avant de brûler dans l’atmosphère dans quelques années.

      Les agences spatiales de France (CNES) et d’Israêl (ISA) ont lancé le micro-satellite VENµS en août 2017, et pour un micro-satellite, il a eu une vie assez particulière ! VENµS a d’abord été injecté en orbite à 720 km d’altitude. Il y est resté 3 ans (phase 1 de la mission VENµS, VM1), puis son orbite a été abaissée à 400 km (VM2), il y a été maintenu quelques mois (VM3), avant d’être remonté (VM4) à 560 km (VM5) où il est resté deux ans et demi.

      VENµS avait en effet deux missions :

      • tester un moteur à propulsion ionique et démontrer qu’il était capable de changer d’orbite et même de maintenir le satellite à 400 km d’altitude et de compenser le freinage atmosphérique dû aux couches les plus élevées de l’atmosphère terrestre
      • prendre des images répétitives de sites sélectionnés à haute résolution (4 à 5 m), avec des revisites fréquentes (1 ou 2 jours), avec 12 bandes spectrales fines, et un instrument de haute qualité.

      Les deux phases VM1 et VM5 ont été utilisées pour observer environ 100 sites (différents sites pour chaque phase), avec une revisite de deux jours pendant VM1, et d’un jour pour certains sites pendant VM5. Toutes les images ont été traitées au niveau 1C et au niveau 2A. En ce qui concerne VM5, un retraitement complet sera effectué fin 2024 afin d’avoir un jeu de données cohérent, avec les derniers paramètres de correction géométrique et radiométrique mis à jour, et les mêmes versions des chaines de traitement, pendant toute la durée de vie du VENµS. le même retraitement avait été effectué après la fin de VM1 en 2022.

      Tableau de bord actuel du site web de distribution du CNES, avec le nombre de produits disponibles. Seules les images avec une proportion suffisante de pixels sans nuages sont fournies, et les statistiques ne tiennent pas compte des produits sur Israël distribués par l’université Ben Gurion du Neguev.

      Bien que l’impact scientifique de VENµS n’ait pas été à la hauteur des espérances initiales en raison de son lancement tardif (VENµS devait démontrer la puissance des observations optiques multitemporelles, mais a finalement été lancé après Sentinel-2), il nous a néanmoins incités à préparer intensivement l’arrivée des observations de Sentinel-2. Le développement de nombreuses méthodes telles que celles des processeurs MAJA, WASP,et Iota2  ont été motivées par l’existence du projet VENµS.

      De plus, les données acquises par VENµS vont rester disponibles [https:] et nous espérons que sa combinaison unique de résolution (4m) et de revisite (1 jour) avec 12 bandes, sera encore utile pour plusieurs années à venir. Notre petit satellite est de plus en plus connu dans la communauté de l’apprentissage profond, puisqu’il a été utilisé pour construire le jeu de données Sen2VENµS afin d’apprendre à améliorer la résolution de Sentinel-2, ou pour tester les méthodes de fusion de données entre Sentinel-2 et VENµS.

      Par ce billet, nous souhaitons remercier toutes les équipes en France et en Israël qui ont contribué à la décision, au financement, à la construction, à l’exploitation et au traitement des données de ce satellite. La liste des personnes ayant apporté une contribution significative serait trop longue (des centaines), et le risque d’oublier quelqu’un serait trop élevé, aussi nous ne citerons que Gerard Dedieu and Arnon Karnieli, les PI français et israélien initiaux (Arnon est toujours PI), qui ont consacré de nombreuses années de leur carrière à la réussite de ce petit satellite.

       

      Rédigé par Olivier Hagolle (CNES/CESBIO) avec l’aide d’Arnon Karnieli (BGU)

      PS : La fin du VM5 a été une période difficile avec un satellite vieillissant qui a largement dépassé sa durée de vie nominale de 3 ans avec un objectif fixé à 5 ans. Une proportion non négligeable des tentatives d’acquisition a échoué, et certains sites n’ont pas produit les séries temporelles attendues. Nous nous excusons si la collecte de données n’a pas été à la hauteur de vos attentes. Cependant, notre collection de données comprend plus de 82 000 produits, 56 000 pour VM1 et 26 000 pour VM5, ce qui nous permet de disposer de nombreuses et belles séries de produits prêts à l’emploi (Analysis Ready Data).

       

    • sur The end of VENµS imaging phase

      Publié: 11 July 2024, 12:05pm CEST par Olivier Hagolle

      => 

      It is with some sadness but also a lot of pride that I remind you that the VENµS operational phase will end at the end of July after 7 years of good work. The current acquisition phase (VM5) will stop on the 12th of July. The remaining weeks will be devoted to a few technical experiments (acquisitions over Israel will go on until end of July), and then, our Israeli colleagues will empty the tanks by lowering the orbit, passivate the satellite, and then let the higher layers of the atmosphere reduce its speed and lower its altitude before burning in the atmosphere in a few years.

      The French and Israeli space agencies (CNES and ISA) launched the VENµS micro-satellite in August 2017, and for a micro-satellite, it has had quite a special life ! VENµS was first injected into orbit at 720 km altitude. It stayed there for 3 years (VENµS Mission 1 phase, VM1), then its orbit was lowered to 400 km (VM2), it was maintained there for a few months (VM3),  before being raised again (VM4) to 560 km (VM5) where it stayed for two and a half years.

      VENµS indeed had two missions :

      • test a ionic propulsion engine and verify it was able to change orbits and even maintain the satellite at 400 km altitude with all the atmospheric drag due to the highest levels of the earth atmosphere
      • take repetitive images of selected sites at a high resolution (4 to 5 m), frequent revisit (1 or 2 days), with 12 thin spectral bands, and a high-quality instrument

      The two phases VM1 and VM5 were used to observe around 100 sites (different sites for each phase), with a revisit of two days during VM1, and one day for some sites during VM5. All the images have been processed to Level 1C and Level 2A. Regarding VM5, a full reprocessing will be done at the end of 2024 to have a consistent data set with the latest updated geometric and radiometric correction parameters, and the same updated versions of software during the whole life of VENµS. The same reprocessing had been done after the end of VM1 in 2022.

      Current dashboard of CNES distribution website, with the number of available products. Only images with a sufficient proportion of cloud free pixels are produced, and the statistics do not account for the products over Israel distributed at BGU.

      Although VENµS’ scientific impact was not as high as expected due to its late launch (VENµS was meant to demonstrate the power of multi-temporal optical observations, but was finally launched after Sentinel-2), it nevertheless incited us to prepare the arrival of Sentinel-2 observations intensively. The development of many methods such as those in MAJA, WASP, Iota2 or LIS processors were motivated by the existence of the VENµS project.

      Moreover, the data acquired by VENµS are here to stay ( [https:]] ), and we hope its unique combination of resolution (4m) and revisit (1 day) with 12 bands, will still be useful for several years to come. Our little satellite is getting very well known in the deep learning community, as it has been used to build the Sen2VENµS data set for learning to improve the resolution of Sentinel-2, or to test data fusion methods between Sentinel-2 and VENµS.

      With this post, we would like to thank all the teams in France and Israel who contributed to the decision, funding, building, exploitation and data processing of this satellite. The list of persons who brought a meaningful contribution would be too long (hundreds), and the risk of forgetting someone will to too high, so we will only cite Gerard Dedieu and Arnon Karnieli, the initial French and Israeli PIs (Arnon is still PI), who devoted many years of their career to the success of this little satellite.

      Written by VENµS PI: Olivier Hagolle (CNES/CESBIO) with the help of Arnon Karnieli (BGU)

      PS : The end of VM5 was a difficult period with an aging satellite that was well over its nominal life of 3 tears with a goal set to 5 years. A non-negligible proportion of the attempted acquisitions failed, and some sites did not yield the expected time series. We apologize if the data collection was not as good as your expectations. However, our data collection includes more than 82,000 products, 56,000 for VM1, and 26,000 for VM5, bringing much analysis-ready data

       

    • sur Les lignes de force du vote RN en 2024 : une cartographie lissée avec la grille H3

      Publié: 11 July 2024, 3:44am CEST par Éric Mauvière

      Les résultats des dernières élections françaises sont maintenant disponibles à un niveau fin, à la commune et même jusqu’au bureau de vote. Mais comment produire une cartographie lisible et synthétique à partir de données si détaillées ?

      Ce travail récent de Karim Douïeb, largement repris, illustre bien le dilemme : il dénonce le caractère trompeur de la carte (choroplèthe) de gauche et propose à la place la variante (à symboles) de droite.

      Les cartes choroplèthes sont faciles à lire avec leur coloration continue de tout le territoire. Mais l’œil voit seulement des surfaces, il ne peut faire le tri entre les territoires plus peuplés et les moins peuplés.

      Les cartes à pastilles proportionnelles rendent mieux compte des populations en présence, mais les petits ronds se voient peu, ou alors coagulent en amas artificiels là où le maillage communal est très serré (par exemple dans les Hautes-Pyrénées, voisines des Landes où c’est l’inverse). Les cartogrammes qui distordent la géographie pour prévenir les superpositions accentuent souvent ces artefacts.

      Une autre voie respecte la géographie, préserve la continuité de l’image et prend en compte les différences de population : celle où le résultat d’un candidat (part en %) est lissé par disques mobiles.

      Les spécialistes des études locales la connaissent depuis longtemps – je la pratique depuis 35 ans. Certes, les calculs requis par le lissage en limitent l’usage, même avec des librairies spécialisées. Il est toutefois possible en 2024 de construire simplement de solides cartes lissées, sans logiciel lourd.

      Voyons comment faire avec 3 petits bijoux d’efficacité : un moteur SQL autonome (DBeaver/DuckDB), une grille hexagonale (H3) et un outil de cartographie web (Mapshaper).

      A - Lissage appliqué aux résultats communaux des européennes de 2024

      Comparons ci-dessous les résultats bruts des élections européennes et la représentation lissée par disque mobile. Le lissage améliore spectaculairement la lisibilité de l’image.

      Européennes 2024 – Part des votes RN et Reconquête (%)

      Lissé Brut

      Les grandes agglomérations éloignent le vote RNR, mais cet effet est moins visible dans un grand Nord-Est ou sur le littoral méditerranéen. Quelques contrastes locaux sont frappants, par exemple entre le Lot et Tarn-et-Garonne, ou l’agglomération bordelaise et sa frange nord.
      Note : les petits points gris signalent les capitales régionales.

      Comme le pinceau de l’archéologue dépoussière un bas-relief, ou la restauratrice révèle sous les vernis et les taches le tableau originel, le lissage dégage les lignes de force qui traversent les territoires – et bien souvent celles qui résistent au temps et aux soubresauts politiques.

      Je vais décrire la méthode, car en saisir le principe, c’est mieux comprendre les limites et les avantages de cette technique. Le lissage n’est pas une moyenne locale des valeurs communales (ici la part de telle liste). Il repose sur une agrégation de deux grandeurs que l’on va ensuite diviser pour recalculer le taux « ambiant ». Cette agrégation se fait sur une étendue plus ou moins large, le rayon du disque de lissage.

      En un endroit donné, on additionne par exemple le nombre de votants RNR au sein d’un rayon de 20 km, et l’on procède de même pour l’ensemble des votants ;  le nouveau taux se calcule sur ces deux grandeurs étendues. Ainsi, d’une commune à sa voisine, les taux ambiants vont faiblement varier. Les aléas locaux sont lissés, et les territoires localement plus peuplés contribuent davantage à la représentation.

      B - La méthode en images

      Considérons les deux cartographies traditionnelles du résultat d’une liste, dans notre exemple la part du vote RN et Reconquête (en abrégé, RNR). Sur une carte zoomée, la technique des ronds coloriés a bien des avantages, car les symboles sont tous visibles, leur couleur aussi. Ce mode présente à la fois une grandeur absolue (les votants), et la part du vote RNR. 

      Ronds Choro

      Comme on le constate dans cette vue de la périphérie toulousaine, les communes sont de taille fort variable. Le découpage communal influence fortement la morphologie de l’image. C’est la raison pour laquelle certains politiques s’échinent à redéfinir les maillages électoraux, pour tourner l’addition locale des votes à leur avantage.

      Passer d’un maillage hétérogène à une grille régulière donnera une assise plus solide à la méthode de lissage.

      La grille H3, conçue d’abord pour les besoins d’Uber, maille l’ensemble de la planète avec des hexagones. En voici une représentation au niveau de précision 7 (sur une échelle allant de 0 à 15). 

      38 hexagones de niveau 7 recouvrent la commune de Toulouse. Une première idée consiste à répartir le total des votants à Toulouse de façon égale sur ces 38 hexagones. Je pourrais affiner cette répartition sur les hexagones frontières, par un prorata de la surface intersectée. Mais ce serait me compliquer la vie inutilement, car en définitive, je vais lisser !

      Toulouse et les hexagones H3

      Grille H3 de niveau 7, intersectant Toulouse Votants à Toulouse répartis fictivement en 38 points

      Les hexagones sur les frontières communales vont ainsi recevoir des votants venus de deux, parfois trois communes limitrophes. Cela produit déjà, de fait, un premier microlissage. 

      En voici le résultat cartographié, après recalcul du taux pour chaque hexagone.

      H3 Brut

      Le principe du lissage par fenêtre mobile est toutefois bien plus puissant. H3 permet très facilement (c’est aussi une librairie avec quantité de fonctions utilitaires) de lister les hexagones voisins, avec un pas variable – de 1 à 10 dans cet exemple :

      Avec ce rayon de lissage de 10 (soit un peu plus de 20 km), je m’emploie à additionner, en un centre donné, les votants et les votants RNR sur l’ensemble de ce disque. Je prends garde à donner de moins en moins d’importance aux hexagones qui s’éloignent, par une pondération inverse de la distance au centre.

      Mon lissage intègre ainsi deux paramètres d’ajustement : le rayon du disque mobile (en fait un grand hexagone mobile), et la fonction de pondération (quelle importance j’accorde aux hexagones les plus éloignés pour calculer le taux ambiant).

      Voici deux cartes, avec des rayons de lissage différents : 5 (soit environ 12 km) et 10 (20-25 km).

      ++ + C - Comment lisser, en pratique ?

      Je conduis les calculs en SQL, avec le moteur DuckDB et son extension H3, dans l’interface DBeaver. DBeaver donne un premier aperçu du résultat des requêtes spatiales, ce qui s’avère très pratique.

      Pour la cartographie thématique, Mapshaper, utilisable en ligne, dessine et colorie avec une vélocité remarquable. 

      Cette démarche procède d’un principe pédagogique auquel je suis attaché : ouvrir des portes pour le plus grand nombre, privilégier les outils les plus simples, les plus accessibles, les mieux conçus. 

      Commençons par récupérer les résultats des européennes 2024, à partir de la base électorale consolidée par l’équipe data.gouv au format parquet :

      				
      					-- source : [https:] 
      
      CREATE OR replace TABLE s_com_europ2024 as
      WITH t1 AS (
      	FROM 'candidats_results.parquet'
      	SELECT "Code du département" || "Code de la commune" codgeo, nuance, 
      	sum(voix) tvoix,
      	sum(tvoix) over(PARTITION BY "Code du département" || "Code de la commune") exprimes,
      	WHERE id_election = '2024_euro_t1'
      	GROUP BY codgeo, nuance
      ), t2 AS (
      	PIVOT t1 
      	ON nuance USING(sum(tvoix))
      )
      FROM t2 SELECT codgeo,exprimes,LREC+LRN RN,LENS,LFI+LUG+LVEC+LCOM LNFP
      ORDER BY codgeo ;
      
      
      				
      			

      J’utilise DuckDB dans sa version la plus récente (dev 1.0.1), qui simplifie davantage encore les écritures. 

      Deux extensions vont me servir, SPATIAL pour les requêtes géographiques, H3 pour créer et manipuler le maillage hexagonal. 

      				
      					INSTALL H3 FROM COMMUNITY ;
      LOAD H3 ;
      
      -- pour récupérer, si besoin, la version de dev :
      -- FORCE INSTALL spatial FROM 'http://nightly-extensions.duckdb.org';
      LOAD SPATIAL ;
      
      
      				
      			

      À partir du contour de la France métropolitaine, je crée une enveloppe, et je peux la voir immédiatement dans DBeaver.

      				
      					CREATE OR REPLACE VIEW e_fra AS
      FROM st_read('a_frametro.json') 
      SELECT st_convexHull(geom).st_buffer(0.1) AS geom ;
      
      				
      			

      Notre première fonction H3, l’une des plus puissantes, est en mesure de mailler ce polygone avec plein de petits hexagones de niveau 7. Ils sont 182 000. DBeaver ne m’en montre qu’un échantillon, mais c’est déjà impressionnant ! 

      				
      					FROM e_fra
      SELECT h3_polygon_wkt_to_cells(geom, 7) -- ids
      	    .unnest()
      		.h3_cell_to_boundary_wkt()
      		.st_geomfromtext() ; -- géométries
      				
      			

      h3_polygon_wkt_to_cells() renvoie une valeur qui est en fait une liste d’identifiants d’hexagones. unnest() permet de déplier cette valeur/liste en autant de lignes de la table résultante.

      h3_cell_to_boundary_wkt(), autre fonction très utile, génère la géométrie hexagonale d’un identifiant.

      On peut ainsi fabriquer un grillage spatial sans écrire soi-même aucun calcul mathématique.

      Pour remplir une forme plus complexe que le simple POLYGON précédent, la France par exemple, il faut la décomposer en formes plus élémentaires, et assembler le résultat pour constituer une table homogène.

      				
      					CREATE OR REPLACE TABLE fra_h3_res7 AS
      WITH france_polys AS (
      	FROM st_read('a_frametro.json')
      	-- décomposition MULTIPOLYGON -> POLYGON
      	SELECT st_dump(geom).unnest(recursive := true) AS geom
      ), h3_ids AS (
      	FROM france_polys 
      	SELECT list(h3_polygon_wkt_to_cells(geom, 7))
      			.flatten().unnest() AS id -- concaténation des ids d'hexagones
      ) FROM h3_ids SELECT id, 
      -- conversion en géométries
      h3_cell_to_boundary_wkt(id).st_geomfromtext() AS geom ;
      
      
      				
      			

      Voici un aperçu des 115 000 hexagones du niveau 7 qui recouvrent la France métropolitaine.

      Passons dans Mapshaper

      Les fonctions cartographiques de DBeaver sont pratiques, mais limitées. L’outil Mapshaper affiche sans aucune difficulté l’ensemble de la couche. 

      Au préalable, on aura procédé, dans DBeaver, à un export Geojson.

      				
      					COPY fra_h3_res7 TO 'fra_h3_res7.json' 
      WITH (format GDAL, driver GeoJSON) ;
      
      
      				
      			

      Il suffit ensuite de faire glisser ce fichier dans l’interface de Mapshaper. La console de cet outil permet d’écrire de puissantes instructions de manipulation, dont je vais profiter.

      Je souhaite enrichir cette grille par jointure spatiale avec deux autres couches géographiques. Je vais ainsi relier chaque hexagone aux département, région et commune(s) qui le recouvrent ou l’intersectent.

      				
      					target fra_h3_res7 \
      join a-depmetro calc='reg=first(reg), dep=first(dep)' largest-overlap \
      join a-com2022 calc='com2022=first(codgeo), coms2022=collect(codgeo)' largest-overlap \
      join a-com2022 calc='coms2022=collect(codgeo)'
      
      
      				
      			

      Ces opérations complexes prennent moins de 10 secondes dans mon navigateur. 

      J’utilise ce fond de carte communal.

      L’identifiant d’un hexagone est un entier de grande taille. Mapshaper l’interprète plutôt comme une string, on y sera attentif par la suite.

      Je stocke ma couche hexagonale enrichie sous la forme d’un fichier geoparquet, ce que permet très simplement la version 1.0.1 de DuckDB. Le fichier produit pèse à peine 9 Mo. 

      				
      					COPY (
      	FROM st_read('fra_h3_res7_v2.json')
      	SELECT * REPLACE(id::ubigint AS id),
      	ORDER BY reg,id
      ) TO 'fra_h3_res7_v2.parquet' (compression ZSTD) ;
      
      
      				
      			
      Cartographie thématique avec Mapshaper

      Je ne les avais jamais utilisées, je découvre avec bonheur les fonctions de coloriage de Mapshaper !

      La surface des hexagones n’est pas constante dans H3, car ces hexagones résultent de la projection sur la sphère terrestre d’une forme géométrique complexe, un icosaèdre. De plus, leur surface apparente dépendra de la projection cartographique finale.

      Pour autant, cette surface projetée varie peu d’un hexagone à l’autre. Voici ce que donne le rapport à la surface moyenne :

      				
      					classify field=coeff_area colors='#fff5eb,#fee7cf,#fdd4ab,#fdb97e' classes=4 \
      style stroke='d.fill'
      
      
      				
      			

      Conscient de ces petites variations, je considère tout de même que le lissage à venir s’appliquera de façon globalement homogène – en tous cas bien plus homogène que si j’en étais resté au maillage communal.

      J’ai pu agrémenter ma carte de limites départementales et régionales précisément superposables, par fusion de la couche détaillée : Mapshaper excelle dans ces traitements topologiques, et je vais 10 fois plus vite qu’avec un logiciel spécialisé comme QGIS !

      				
      					target fra_h3_res7_v2 \
      dissolve dep,reg
      
      				
      			
      Projection des données communales du vote sur la grille H3

      Je dispose donc d’un excellent référentiel cartographique, avec des hexagones enrichis d’informations communales : elles vont me permettre de faire le lien avec la table des résultats électoraux.

      Dans une table intermédiaire, je stocke le nombre d’hexagones couvrant chaque commune.  

      				
      					CREATE OR replace VIEW n_com_h3_res7 as
      WITH t1 AS (
      	FROM 'fra_h3_res7_v2.parquet'
      	SELECT UNNEST(coms2022) codgeo, id 
      ) FROM t1 SELECT codgeo, count() AS nb_h3_res7
      GROUP BY codgeo 
      ORDER BY codgeo ;
      
      FROM n_com_h3_res7 
      WHERE codgeo = '31555';  -- 38 hexagones intersectent Toulouse
      				
      			

      Grâce à cela et par jointure, je ventile la table communale du vote à l’hexagone.

      				
      					CREATE OR REPLACE table s_h3_res7_europ2024 AS
      FROM s_com_europ2024 p
      -- jointures sur le code commune
      JOIN n_com_h3_res7 n using(codgeo)
      JOIN (FROM 'fra_h3_res7_v2.parquet'
      	SELECT UNNEST(coms2022) codgeo, id) h3 
      	ON h3.codgeo = p.codgeo
      SELECT id, 
      round(sum(RN/n.nb_h3_res7),1) RN, -- ventilation des votants sur chaque hexagone
      round(sum(exprimes/n.nb_h3_res7),1) exprimes 
      GROUP BY id ORDER BY id ;
      				
      			

      Il ne me reste plus qu’à injecter cette information dans la couche spatiale des hexagones, que j’exporte vers Mapshaper :

      				
      					COPY (
      	FROM 'fra_h3_res7_v2.parquet' m
      	JOIN s_h3_res7_europ2024 l USING(id) 
      	SELECT RN, exprimes, 
      	round(100*RN/exprimes, 1) part_rn, 
      	st_geomfromwkb(geom) geom
      ) TO 'a_h3_7_europ2024_fra_brut.json' WITH (format GDAL, driver GeoJSON) ;
      				
      			

      J’essaie deux variantes de coloration, en quantiles, et avec des seuils explicites (pour faciliter les comparaisons à venir entre carte brute et cartes lissées) :

      				
      					classify field=part_rn quantile classes=5 colors=Oranges \
      style stroke='d.fill'
      
      classify field=part_rn breaks=35,40,45,50 colors=Oranges \
      style stroke='d.fill'
      				
      			

      Européennes 2024 – Part des votes RN et Reconquête (%) – par hexagone de niveau 7

      Le lissage final

      Pour lisser les données par fenêtre spatiale mobile, il me faut faire le lien entre un hexagone donné, et l’ensemble des hexagones voisins, de premier niveau jusqu’au niveau 10.

      h3_grid_disk_distances() me donne cette liste d’anneaux successifs en un seul appel. C’est un autre atout majeur du système H3.

      				
      					CREATE OR replace VIEW corresp_h3_res7_dist10 AS 
      WITH t1 AS (
      	FROM 'fra_h3_res7_v2.parquet' 
      	SELECT id, list_transform(h3_grid_disk_distances(id, 10), 
      							  (c,i) -> {ids:c, distance:i})
      						.unnest(recursive := true)
      ) 
      FROM t1 
      SELECT id, unnest(ids) id2, distance ;
      				
      			

      L’opération de lissage résulte d’un appariement de cette table de correspondance et des données de vote à l’hexagone. Je définis une fonction de pondération inverse de la distance, et je me réserve la possibilité d’ajuster le rayon de lissage.

      				
      					CREATE OR REPLACE VIEW s_h3_res7_europ2024_liss as
      FROM corresp_h3_res7_dist10 c 
      JOIN s_h3_res7_europ2024 p ON c.id2 = p.id
      SELECT c.id, 
      sum( RN     /(1 + pow(distance-1,1.5)) ) RN, -- 1.5 (pondération) ajustable
      sum(exprimes/(1 + pow(distance-1,1.5)) ) exprimes
      WHERE distance 
      				
      			

      Pour rappel, la méthode commence par agréger séparément le numérateur et le dénominateur, le taux “ambiant” est calculé dans un second temps, avant export vers Mapshaper :

      				
      					COPY (
      	FROM 'fra_h3_res7_v2.parquet' 
      	JOIN s_h3_res7_europ2024_liss USING(id) 
      	SELECT RN, exprimes, 
      	round(100*RN/exprimes,1) part_rn, 
      	geom
      ) TO 'a_h3_res7_europ2024_fra_liss_l5_p15.json' 
      WITH (format GDAL, driver GeoJSON) ;
      				
      			
      				
      					classify field=part_rn breaks=35,40,45,50 colors=Oranges \
      style stroke='d.fill'
      				
      			

      Voici le résultat, avec en prime une comparaison avec le vote le Pen lors de l’élection présidentielle de 2022.

      Européennes 2024 – part des votes RN et Reconquête (%) et présidentielle 2022 – Part du vote le Pen (%)

      2024 2022

      Ces deux cartes présentent de grandes similitudes. Même si les seuils ne sont pas comparables (le vote RN était supérieur, en %, en 2002, mais il s’agissait du 2d tour, avec donc seulement 2 candidats en présence).

      D - À vous de jouer !

      Ci-dessous figure l’accès à ce kit de lissage : la couverture H3 de la France au niveau 7, et la table de correspondance entre chaque hexagone et leurs voisins. Les préparer a demandé un peu de temps, comme on l’a vu ci-dessus.

      Leur application à toute base de données communales est toutefois simple et rapide, deux requêtes suffisent, et tournent en moins de 10 secondes : ventilation des valeurs additives sur la grille H3, et lissage par fenêtre mobile. Avec Mapshaper, vous en voyez très rapidement le résultat. Lisser ne demande qu’un éditeur SQL (ou le client léger DuckDB) et le navigateur web.

      Pour en savoir plus

      L’article Les lignes de force du vote RN en 2024 : une cartographie lissée avec la grille H3 est apparu en premier sur Icem7.

    • sur Journée d’étude du CFC “CARTOGRAPHIE ET CINÉMA”, 6 décembre 2024

      Publié: 10 July 2024, 7:46pm CEST par Catherine Hofmann

      Institut national d’histoire de l’art, 2 rue Vivienne Paris (salle Vasari)

      Dans le prolongement de la rencontre organisée le 25 novembre 2023 autour des croisements entre art et cartographie, la Commission Histoire du Comité Français de Cartographie présente le 6 décembre 2024 une Journée d’études intitulée « Cartographie et cinéma ». Comme chacun le sait, le cinéma, principal média de fiction développé au cours du XXe siècle, a été dès son origine tourné vers la représentation des espaces et des paysages les plus divers à la surface de la planète. La cartographie, sous toutes ses formes, a été mobilisée pour transformer les lieux et les espaces géographiques en un ensemble de supports et de foyers narratifs. La Journée d’études a pour ambition d’explorer quelques-unes des modalités de la présence de la cartographie dans l’histoire du cinéma de fiction ainsi que dans les opérations cinématographiques.

      Avec le soutien de l’EPHE-PSL (Histara), du CNRS (Lamop) et de la Bibliothèque nationale de France

      Carto-cinema-afficheTélécharger PROGRAMME

      9h : Accueil et introduction par Jean-Marc Besse (CNRS-EHESS) et Catherine Hofmann (BnF, Cartes et plans)

      Première session : Les imaginaires cartographiques du/au cinéma

      9h30 : Teresa Castro, Les imaginaires cartographiques du cinéma

      10h : Robin Hopquin, Une France imaginaire : cartographie des films français à succès (2015-2024)

      10h30-10h45 : Pause-café

      Deuxième session : La carte au cinéma, entre quête, enquête et errance

      10h45 : Marcello Tanca, Cartographier l’errance, l’inattendu, l’étonnement et les choses : Perfect days de Wim Wenders.

      11h15 : Mathieu Combes, « La smetta con queste geometrie! ». La cartographie comme enquête chez Francesco Rosi

      11h45 : Thierry Joliveau, Une analyse du rôle de la carte et d’autres géodispositifs dans deux films de quête et de voyage

      12h15-14h : Déjeuner

      Troisième session : La carte au cinéma, entre pouvoir, oppressions et résistances

      14h : Guillaume Monsaingeon, Dansons avant qu’il n’explose : Le Dictateur de Charlie Chaplin

      14h30 : Alice Letoulat, “Non identifié”. Oppressions et résistances cartographiques dans Bacurau (Kleber Mendonça Filho et Juliano Dornelles, 2019)

      15h-15h15 : Pause-café

      Quatrième session : Carte et cinéma dans la France de l’entre-deux-guerres

      15h15 : Nadège Mariotti / Jitka de Préval, Du Tour de la France par deux enfants (1923) à la France imaginée, filmée et cartographiée des premiers temps du cinéma à la fin des années 1920

      15h45 : Mathieu Panoryia, Usages et significations de la carte dans les films sur la Première Guerre mondiale

      16h15-16h30 : Pause-café

      Ouvertures et conclusion

      16h30 : Jasmine Desclaux-Salachas, Les Cafés – carto et le cinéma

      16h45 : Marina Duféal, Du festival Géocinéma au film d’animation « Astérix, le secret de la potion magique », retour en carte sur des expériences de décryptages géo-cinématographiques

      17h : Conclusion générale de la journée

      Contact : catherine.hofmann@bnf.fr

      Carto-cinema-programmeTélécharger
    • sur Naviguer dans l’Ère des Tuiles Vectorielles : Techniques et Applications

      Publié: 9 July 2024, 8:38am CEST par admin
      C’est quoi une tuile ?

      Pour diffuser des données spatiales sur une carte, il existe différents formats de données dont celui de la tuile vectorielle qui apporte de nouvelles possibilités d’affichage de données (rapidité d’accès à la donnée, facilité de modification du style, interaction directe des utilisateurs avec les objets).

      En effet, une carte numérique peut théoriquement afficher des données à n’importe quelle échelle et à n’importe quel endroit, mais cette flexibilité peut poser des problèmes de performance.

      La mosaïque de tuiles améliore la vitesse et l’efficacité d’affichage :

      • En limitant les échelles disponibles. Chaque échelle est deux fois plus détaillée que la précédente.
      • En utilisant une grille fixe. Les zones que l’on souhaite afficher sont composées de collections de tuiles appropriées.

      La plupart des systèmes de tuiles commencent avec une seule tuile englobant le monde entier, appelée « niveau de zoom 0 », et chaque niveau de zoom suivant augmente le nombre de tuiles par un facteur de 4, en doublant verticalement et horizontalement.

      Coordonnées des tuiles

      Chaque tuile d’une carte en mosaïque est référencée par son niveau de zoom, sa position horizontale et sa position verticale. Le schéma d’adressage couramment utilisé est XYZ.

      Voici un exemple au zoom 2 :

      On va récupérer la tuile à l’aide de l’adressage XYZ suivant :

      http://server/{z}/{x}/{y}.format

      Par exemple, vous pourrez voir la tuile image de l’Australie à l’adresse suivante, c’est le même principe pour les tuiles vectorielles : [https:]]

      Principe d’une tuile vectorielle

      Les tuiles vectorielles ressemblent aux tuiles raster, mais à la place d’une image, elles contiennent des données permettant de décrire les éléments qui la composent avec des tracés vectoriels. Au lieu d’avoir des ensembles de pixels, il y a donc des ensembles de coordonnées de points, auxquels on peut associer plusieurs informations attributaires.

      Comme leurs cousines raster, les tuiles vectorielles peuvent être mises en cache, côté serveur et côté navigateur, et permettent de naviguer dans des cartes immenses rapidement, même sur des terminaux légers.

      Comment l’utilise-t-on ? Produire des tuiles vectorielles à la volée depuis PostGIS

      Il existe différentes briques pour publier des données à la volée depuis PostGIS, voici notre sélection :

      • pg_tileserv => [https:]] : c’est un serveur de tuile codé en GO et produit par Crunchy Data. On va préférer utiliser la version dockerisée dans nos applications => [https:]]
      • Martin => [https:]] : très similaire à pg_tileserv, codé en RUST et produit par MapLibre.
      • GeoServer : permet également de générer des tuiles vectorielles

      Dans le cadre de ce blog, nous resterons sur l’utilisation de pg_tileserv.

      pg_tileserv

      Par défaut, pg_tileserv permet de produire des tuiles vectorielles à partir des tables géographiques qui sont dans la base de données.

      Tout l’intérêt d’utiliser un outil comme pg_tileserv réside dans la génération de tuiles produites à partir d’une analyse plus fine.

      Voici un exemple de requête que l’on peut utiliser pour afficher une donnée cartographique. Cette requête va permettre de simplifier la géométrie en fonction du seuil de zoom et filtrer la donnée en fonction de l’opérateur et de la techno.

      CREATE OR REPLACE FUNCTION generate_couvertures_tiles(
        z integer,
        x integer,
        y integer,
        in_operateur bigint,
        in_techno character varying)
          RETURNS bytea
          LANGUAGE 'plpgsql'
          COST 100
          VOLATILE PARALLEL UNSAFE
      AS $BODY$
      
      #variable_conflict use_variable
      begin
        return (
          WITH
          bounds AS (
            SELECT ST_TileEnvelope(z, x, y) AS geom,
           (CASE
            when z >= 12 then 0
            when z = 11 then 0
            when z = 10 then 10
            when z = 9 then 100
            when z = 8 then 300
            when z = 7 then 900
            when z = 6 then 1500
            when z <= 5 then 3000
            ELSE 1 END
             ) as simplify_tolerance
          ),
      
          mvtgeom AS (
            SELECT fid, operateur, date, techno, usage, niveau, dept, filename,
            ST_AsMVTGeom(
                ST_Simplify(t.geom,simplify_tolerance), bounds.geom) AS geom
      
            FROM couverture_theorique t, bounds
            WHERE ST_Intersects(t.geom, bounds.geom )
            and operateur = in_operateur
            and techno = in_techno
          )
          SELECT ST_AsMVT(mvtgeom)
          FROM mvtgeom
        );
      end;
      $BODY$;

      Pour appeler cette fonction, on va utiliser l’url formatée de la manière suivante :

      https://hostname/tileserv/public.generate_couvertures_tiles/{Z}/{X}/{Y}.pbf?in_operateur=28020&in_techno=3G

      Vous voilà en mesure de faire parler votre imagination pour récupérer les données que vous souhaitez et répondre aux besoins de votre carte.

      On peut penser à la création de Cluster, d’analyse thématique, d’agrégation de couche ou que sais-je.

      Et la performance dans tout ça ?

      Toute cette liberté acquise va nous plonger dans des requêtes de plus en plus complexes et donc nous apporter une performance dégradée. Si chaque tuile prend 10 secondes à se générer, l’expérience utilisateur sera mauvaise.

      Pour remédier à ce contretemps, rappelons-nous que la tuile vectorielle repose sur une grille fixe. Il est donc possible de générer du cache (mise en cache). Cool ! mais comment fait-on cela ?

      C’est parti :

                  1 – Créer une table de cache de tuiles

      CREATE TABLE IF NOT EXISTS tiles_cache
      (
          z integer NOT NULL,
          x integer NOT NULL,
          y integer NOT NULL,
          operateur bigint NOT NULL,
          techno character varying COLLATE pg_catalog."default" NOT NULL,
          mvt bytea NOT NULL,
          CONSTRAINT tiles_pkey PRIMARY KEY (z, x, y, operateur, techno)
      )

      2 – Générer le cache

      Pour générer le cache, dans un premier temps on récupère les grilles sur lesquelles on a des données. Le seuil de zoom maximum (max_zoom) peut être défini dans la fonction suivante.

      CREATE OR REPLACE FUNCTION gettilesintersectinglayer(
        liste_operateur bigint,
        liste_techno character varying)
          RETURNS TABLE(x integer, y integer, z integer)
          LANGUAGE 'plpgsql'
          COST 100
          VOLATILE PARALLEL UNSAFE
          ROWS 1000
      
      AS $BODY$
      DECLARE
        tile_bounds public.GEOMETRY;
        max_zoom INTEGER := 7;
      BEGIN
        FOR current_zoom IN 1..max_zoom LOOP
          FOR _x IN 0..(2 ^ current_zoom - 1)
          LOOP
            FOR _y IN 0..(2 ^ current_zoom - 1)
            LOOP
              tile_bounds := ST_TileEnvelope(current_zoom, _x, _y);
              IF EXISTS (
                SELECT 1 FROM couverture_theorique
                WHERE ST_Intersects(geom, tile_bounds)
                AND operateur = liste_operateur
                AND techno = liste_techno
              )
              THEN
                RAISE NOTICE 'Traitement %', current_zoom || ', ' || _x || ', ' || _y;
                z := current_zoom;
                x := _x;
                y := _y;
                RETURN NEXT;
              END IF;
            END LOOP;
          END LOOP;
        END LOOP;
      END;
      $BODY$;

      À l’aide de ce tableau de grilles, on va générer l’ensemble des tuiles et les injecter dans la table de cache.

      with oper as (
        SELECT distinct operateur from couverture_theorique
      ),
      techno as (
        SELECT distinct techno from couverture_theorique
      )
      insert into tiles_cache_couverture(z, x, y, operateur, techno, mvt)
      select tile.z, tile.x, tile.y, oper.operateur,  techno.techno,
      generate_couvertures_tiles(tile.z, tile.x, tile.y, oper.operateur, techno.techno)
      from techno, oper, GetTilesIntersectingLayer(operateur, techno) as tile;

                  3 – Le rendu mixte cache ou requête

      Une fois que les tuiles sont insérées dans la table de cache, lorsque l’on va vouloir récupérer la tuile, il va falloir aiguiller la recherche pour que la fonction aille soit récupérer la tuile dans la table de cache ou la générer à la volée.

      CREATE FUNCTION couvertures(z integer, x integer, y integer, liste_operateur integer[], liste_techno character varying[]) RETURNS bytea
          LANGUAGE plpgsql
          AS $$
      
      #variable_conflict use_variable
      begin
        if (z <= 7 and array_length(liste_operateur,1) = 1) then
          return (
            SELECT mvt
            from tiles_cache_couverture
            Where tiles_cache_couverture.x=x
              AND tiles_cache_couverture.y=y
              AND tiles_cache_couverture.z=z
              and operateur = any(liste_operateur)
              and techno = any(liste_techno)
          );
        else
          return (
            WITH
            bounds AS (
              SELECTST_TileEnvelope(z, x, y) AS geom,
             (CASE
              when z >= 12 then 0
              when z = 11 then 0
              when z = 10 then 10
              when z = 9 then 100
              when z = 8 then 300
              when z = 7 then 900
              when z = 6 then 1500
              when z <= 5 then 3000
              ELSE 1 END
               ) as simplify_tolerance
            ),
      
            mvtgeom AS (
              SELECT fid, operateur, date, techno, usage, niveau, dept, filename,
              public.ST_AsMVTGeom(
                 ST_Simplify(t.geom,simplify_tolerance), bounds.geom) AS geom
      
              FROM couverture_theorique t, bounds
              WHEREST_Intersects(t.geom, bounds.geom )
              and operateur = any(liste_operateur)
              and techno = any(liste_techno)
            )
            SELECTST_AsMVT(mvtgeom)
            FROM mvtgeom
          );
        end if;
      end;
      $$;

      Maintenant en appelant la couche « couvertures » dans pg_tileserv, sur les zooms les plus petits (inférieur à 8), et donc les plus gourmands pour calculer la simplification géométrique, nous allons utiliser le cache de tuiles. Cependant, lorsque l’on sera relativement proche, on va utiliser la génération des tuiles à la volée car les performances sont bonnes.

      Pour les plus ardus, je vous mets un petit bonus. Un exemple de couche cluster générée coté base de données. Le cluster va s’adapter au seuil de zoom, pour clustériser au niveau départemental, puis communal, puis sous forme de cluster naturel (St_ClusterDBSCAN) avec un espacement dynamique pour chaque seuil de zoom, et enfin un affichage par objet quand on est très proche. On aurait pu imaginer un cluster en nid d’abeille que je trouve plus efficace car le problème du cluster de PostGIS, c’est qu’il va être calculé dans l’emprise de chaque tuile. Cela signifie qu’il découpe des clusters de façon arbitraire quand on a une densité importante entre 2 tuiles.

      CREATE FUNCTION cluster_filtres(z integer, x integer, y integer, filtres text[]) RETURNS bytea
          LANGUAGE plpgsql
          AS $_$
      
      #variable_conflict use_variable
      DECLARE
        query text;
        result bytea;
      begin
        --MISE EN PLACE DES FILTRES
      
        if ( z < 9) then
          --Vue par departement
          query := '
            WITH
            bounds AS (
              SELECT ST_TileEnvelope($1, $2, $3) AS geom
            ),
            item_fitler AS (
              --On récupère nos données filtrées
              SELECT distinct t.id
              FROM table t
              WHERE ' || filtres || '
            ),
            tot_dept AS (
              select code_departement, count(1) as tot_item
              from departement d
              INNER JOIN table t ON ST_Intersects(d.geom, t.geom )
              INNER JOIN item_fitler ON item_fitler.id = t.id
              group by code_departement
            ),
            mvtgeom AS (
              SELECT tot_dept.code_departement, tot_dept.tot_item,
              ST_AsMVTGeom(ST_PointOnSurface(tot_dept.geom), bounds.geom) AS geom
              FROM tot_dept
              INNER JOIN bounds ON ST_Intersects(tot_dept.geom, bounds.geom )
              WHERE tot_item is not null
            )
            SELECT ST_AsMVT(mvtgeom)
            FROM mvtgeom
          ';
          --RAISE NOTICE 'Calling query (%)', query;
          EXECUTE query INTO result USING z, x, y, filtres;
              return result;
         
        elsif ( z <= 10) then
          --Vue par commune, On ajoute un buffer pour récupérer les items autour de la tuile sans devoir le faire sur la France entière
          query := '
            WITH
            bounds AS (
              SELECT ST_TileEnvelope($1, $2, $3) AS geom
            ),
            item_fitler AS (
              --On récupère nos données filtrées
              SELECT distinct t.id
              FROM table t
              INNER JOIN bounds ON ST_Intersects(t.geom, ST_Buffer(bounds.geom, 10000) )
              WHERE ' || filtres || '
            ),
            tot_com AS (
              select insee_com, count(1) as tot_item
              from commune c
              INNER JOIN table t ON ST_Intersects(c.geom, t.geom )
              INNER JOIN item_fitler ON item_fitler.id = t.id
              group by insee_com
              having count(1) > 0
            ),
            mvtgeom AS (
              SELECT tot_com.insee_com, tot_com.tot_item,
              ST_AsMVTGeom(ST_PointOnSurface(tot_com.geom), bounds.geom) AS geom
              FROM tot_com
              INNER JOIN bounds ON ST_Intersects(tot_com.geom, bounds.geom )
              WHERE tot_item is not null
            )
            SELECT ST_AsMVT(mvtgeom)
            FROM mvtgeom
          ';
          --RAISE NOTICE 'Calling query (%)', query;
          EXECUTE query INTO result USING z, x, y, filtres;
              return result;
         
        elsif ( z <= 15) then
          --Vue par cluster
          query := '
            WITH
            bounds AS (
              SELECT ST_TileEnvelope($1, $2, $3) AS geom
            ),
            item_fitler AS (
              --On récupère nos données filtrées
              SELECT distinct t.id
              FROM table t
              INNER JOIN bounds ON ST_Intersects(t.geom, bounds.geom )
              WHERE ' || filtres || '
            ),
            clustered_points AS (
              SELECT ST_ClusterDBSCAN(t.geom, eps :=
                (CASE
                  when $1 = 11 then 500
                  when $1 = 12 then 385
                  when $1 = 13 then 280
                  when $1 = 14 then 150
                  when $1 = 15 then 75
                  ELSE 1 END
                ) , minpoints := 1) over() AS cid,
              t.fid, t.geom
              FROM table t
              INNER JOIN item_fitler s ON s.id = t.id
              group by t.id, t.geom
            ),
            mvtgeom AS (
              SELECT cid, array_agg(id) as ids,
              count(1) as tot_item,
              ST_AsMVTGeom(ST_PointOnSurface(ST_Collect(c.geom)), bounds.geom) AS geom
              FROM clustered_points c, bounds
              WHERE ST_Intersects(c.geom, bounds.geom )
              group by cid, bounds.geom
            )
            SELECT public.ST_AsMVT(mvtgeom)
            FROM mvtgeom
          ';
          RAISE NOTICE 'Calling query (%)', query;
          EXECUTE query INTO result USING z, x, y, filtres;
              return result;
        else
          --vue par objet
          query := '
            WITH
            bounds AS (
              SELECT ST_TileEnvelope($1, $2, $3) AS geom
            ),
            item_fitler AS (
              --On récupère nos données filtrées
              SELECT distinct t.id
              FROM table t
              INNER JOIN bounds ON ST_Intersects(t.geom, bounds.geom )
              WHERE ' || filtres || '
            ),
            mvtgeom as (
              SELECT ST_AsMVTGeom(t.geom, bounds.geom) AS geom, t.id
              FROM item_fitler t , bounds
              WHERE ST_Intersects(t.geom, bounds.geom )
            )
            SELECT ST_AsMVT(mvtgeom)
            FROM mvtgeom
          ';
          EXECUTE query INTO result USING z, x, y, filtres;
              return result;
        end if;
      end;
      $_$;
      Finalement quels avantages ? Fond de plan

      Dans les choix des fonds de plan, les avantages sont multiples.

      On peut assez facilement personnaliser un fond de plan en modifiant les paramètres d’affichage que l’on souhaite utiliser pour chaque élément. Pour faire cela, on peut s’appuyer sur des fichiers de style comme ceux proposés par Etalab : [https:]] .

      Si l’on héberge soit même les fichiers de style, on peut les modifier pour choisir le style des éléments. Voici à quoi ressemble le paramétrage d’un élément issu d’une tuile vectorielle :

          {
            "id": "landuse-commercial",
            "type": "fill",
            "source": "openmaptiles",
            "source-layer": "landuse",
            "filter": [
              "all",
              ["==", "$type", "Polygon"],
              ["==", "class", "commercial"]
            ],
            "layout": {
              "visibility": "visible"
            },
            "paint": {
              "fill-color": "hsla(0, 60%, 87%, 0.23)"
            }
          },

      Il est par exemple possible d’extruder les bâtiments si on souhaite obtenir un rendu 3D

      L’affichage vectorielle permet également d’afficher les libellés / icônes toujours dans le bon sens de lecture.

      Choix de l’ordre d’affichage des couches

      Ensuite il est intéressant de rappeler qu’il est possible de modifier l’ordre d’affichage des couches qui sont issues du fond de plan et des couches métiers, ce qui n’est pas possible avec les fonds de plan de type WTMS. On peut donc faire ressortir les libellés des communes sur une couche métier.

      Couche vectorielle

      La couche étant vectorielle, il est également possible de récupérer des attributs de celle-ci.

      Outil de d’édition du style

      Il existe plusieurs outils permettant de modifier le style des données vectorielles. Cependant je vous conseille maputnik qui est très complet et accessible => [https:]]

      Conclusion

      En conclusion, les tuiles vectorielles représentent une avancée significative dans la diffusion et l’affichage de données spatiales, et permettent de créer des applications cartographiques avancées. Encore faut-il les intégrer dans des outils robustes et des méthodologies performantes, afin de répondre aux besoins croissants de précision et de réactivité. La technologie des tuiles vectorielles est essentielle pour le futur de la cartographie numérique, offrant un équilibre entre performance, flexibilité et interactivité.

      Pistes futures ?

      L’authentification et les rôles à travers pg_tileserv. On pourrait imaginer dans un futur blog, comment fusionner l’authentification via un token, le service pg_tileserv et la sécurité de PostgreSQL avec le Row Level Sécurity. Cela permettrait de gérer les droits au niveau de l’objet et nativement dans PostgreSQL.

      Rédacteur : Matthieu Etourneau

    • sur Analyser les cartes et les données des élections législatives de 2024 en France

      Publié: 7 July 2024, 8:09pm CEST


      Les élections législatives anticipées des 30 juin et 7 juillet sont les dix-septièmes élections législatives sous la Cinquième République. À bien des égards, elles apparaissent comme un scrutin exceptionnel : décision surprise de la dissolution de l’Assemblée nationale par le président de la République au soir des élections européennes du 9 juin, perspective d’une alternance gouvernementale à l’issue du second tour du scrutin, formation de nouvelles coalitions électorales à gauche comme à droite du système partisan pendant la campagne, contexte politique particulièrement anxiogène.

      L'objectif de ce billet est de fournir une approche critique des cartes et des graphiques que l'on peut trouver dans les médias. Il s'agit de donner accès aux données et à la fabrique de l'information, mais aussi de comparer les choix opérés par les médias en regard des cartes et analyses proposées par des géographes, des sociologues ou des politistes.

      I) Analyser les cartes et les données du 1er tour des législatives (30 juin 2024)

      1) Accès aux données

      Le taux de participation a été de 66,7% au 1er tour, soit nettement au dessus du taux de participation aux législatives de 2022 qui était de 48,5%. A lui seul, le Rassemblement national a rassemblé  29,25% des voix au 1er tour. En deuxième position, le Nouveau Front populaire obtient 27,99% des suffrages. Le camp présidentiel n'arrive, lui, qu'en troisième place, avec 20,04% des voix. Loin derrière, avec leurs alliés Divers droite, Les Républicains qui ont refusé de suivre Eric Ciotti dans une alliance avec le RN, obtiennent 10,23% des suffrages. 

      Seulement 76 candidats ont été élus au premier tour. C’est le Rassemblement National et la France insoumise qui ont le plus de candidats élus au premier tour le 30 juin 2024.

      Liste des candidats au 1er tour avec leur parti et leur profession (Data.gouv.fr)

      Résultats définitifs du 1er tour des élections législatives du 30 juin 2024 (Data.gouv.fr)

      2) Cartes des résultats dans les médias

      • La carte des résultats des législatives au premier tour et le tableau des candidats qualifiés (Le Monde)
      • Législatives 2024 : voici les résultats définitifs du premier tour, parti par parti (Le Parisien)
      • Les résultats du premier tour des législatives 2024 dans chaque circonscription (Libération)
      • Résultats du 1er tour des législatives 2024 : découvrez les scores des candidats et les députés qualifiés (France Info)
      • Législatives 2024 : la carte des résultats du premier tour (Les Echos)
      • Élections législatives 2024: découvrez les résultats définitifs dans votre circonscription et dans votre ville (Le Figaro)
      • Législatives : le Rassemblement National aurait la majorité absolue au deuxième tour sans désistement généralisé ou front républicain - projection exclusive (Le Grand Continent)
      • Cartographie électorale et symbolisme des couleurs. Le choix du bleu marine (au lieu du brun) pour représenter le RN et ses alliés n'est pas anodin. On le retrouve par exemple pour l'AFP, France Info ou Le Parisien. Au contraire, Libération et Les Echos font le choix de représenter le RN en noir, Le Monde et Mediapart en brun. Le Figaro n'est pas très clair dans ses choix sémiologiques (violet pour le candidat RN en tête et bleu lorsqu'il est élu). Voir cet article de Wikipedia sur le symbolisme des couleurs en politique.
      • Triangulaires : le désistement de la gauche change la donne dans 160 circonscriptions. Quels scénarios pour le second tour ? (Le Grand Continent)
      • Outre les triangulaires qui devraient se réduire avec certains désistements, le site Contexte identifie les points chauds où l'écart de points est faible entre le 1er et le 2e candidat (cela ne présage pas des reports de voix en provenance d'autres candidats).
      • Législatives : et revoilà les fragiles projections de sièges. Les grandes chaînes continuent d'afficher des diagrammes qui n'ont aucune valeur (Arrêt sur Images)

      3) Piste d'analyses pour approfondir

      • Décryptage des résultats au lendemain du 30 juin 2024 par Pierre-Henri Bono (Cevipof - SciencesPo)
      • Sociologie des électorats et profil des abstentionnistes (sondage IPSOS - 30 juin 2024)
      • Quelles circonscriptions peuvent faire basculer les élections ? (The Conversation). Accès à l'outil de cartographie interactive proposé par Claude Grasland
      • Votes aux législatives : explorations géographiques (Olivier Bouba-Olga)
      • « Ce qui explique vraiment les différences de vote RN entre les villes et les campagnes » par Olivier Bouba-Olga et Vincent Grimault (Alternatives économiques)
      • Législatives 2024 : vote des champs et vote des villes, une question de diplômes plus que de géographie (Le Monde)
      • Eric Charmes, géographe : « Face à l’extrême droite, les autres forces politiques devront imposer une lecture différente de la France périphérique » (Le Monde)
      • Carte des résultats du premier tour des élections législatives 2024 par bureau de vote (Julien Gaffuri)
      • Tendances politiques des quartiers de Nantes Métropole selon les résultats des législatives du 30 juin 2024 (Martin Vanier)
      • « Entre foyers pauvres et modestes, une classe d'écart mais des votes aux antipodes » (Charivari). Hervé Mondon croise les résultats du premier tour des législatives avec le niveau de vie de chaque circonscription (données issues du portrait statistique des circonscriptions législatives de l’Insee de 2022)

      4) Réflexion sur le mode de scrutin 

      Outre les effets pervers du scrutin majoritaire, pour les législatives se pose le problème du découpage et de la forte disparité des circonscriptions électorales :

      • « Législatives : le maillage des circonscriptions »  (Les Cartes en mouvement)
      • « Législatives : les fortes disparités entre les 577 circonscriptions sur le nombre d’habitants ou d’inscrits, le taux de chômage, l’âge moyen... » (Le Monde - Les Décodeurs)
      • « Quel est votre poids électoral ? » par Cédric Rossi (Visionscarto)
      • « Faut-il que ces élections législatives soient les dernières au scrutin majoritaire à deux tours ? » (France Inter)

      II) Analyser les cartes et les données du 2nd tour des législatives (7 juillet 2024)

      La participation finale s'élève à 66,63%, soit une hausse de 20,4 points par rapport à 2022 où elle avait été l’une des plus faibles sous la Ve République : seulement 46,23% des inscrits s'étaient rendu aux urnes pour le second tour. 1094 candidats (656 hommes, 438 femmes) dans 409 duels, 89 triangulaires et 2 quadrangulaires étaient en lice dans les 501 circonscriptions pour lesquelles un second tour était organisé le dimanche 7 juillet 2024. 

      Le Front Populaire arrive en tête du 2nd tour avec 170 sièges, Ensemble en 2e position avec 150 sièges, le Rassemblement et ses alliés en 3e position avec 143 sièges suivis par Les Républicains et apparentés avec 66 sièges. Les désistements ont profité au Nouveau Front Populaire (NFP), mais aussi à l'ancienne majorité. C'est le Rassemblement National (RN) qui réunit le plus de suffrages exprimés (8,7 millions de voix), suivi par le Nouveau Front populaire (7 millions de voix) et Ensemble (6,3 millions). Du point de vue de la répartition géographique, le NFP réalise de gros scores à Paris et en petite couronne. Ensemble est très implanté dans le centre et l'ouest, tandis que le RN et ses alliés s'implantent durablement dans le sud-est et dans une grande partie du nord-est de la France.

      1) Accès aux données

      Résultats officiels publiés par le Ministère de l'Intérieur

      Liste des candidats au 2e tour avec leur parti et leur profession (Data.gouv.fr). Selon les premières analyses de la sociologie des député(e)s de la nouvelle Assemblée nationale, on observe en moyenne trois fois plus de députés parmi les professions cadres supérieurs et professions intellectuelles supérieures que dans la population active (Cevipof). On compte 36% de femmes parmi les élu.e.s (contre 37,3% en 2022). Sur 577, on dénombre 423 sortants (soit 73 %). Sur les 154 nouveaux députés, 141 n’ont jamais siégé à l’Assemblée nationale.

      2) Cartes des résultats dans les médias

      • La carte des résultats des législatives 2024 au second tour : la composition de l’Assemblée et le tableau des candidats élus (Le Monde). 155 circonscriptions changent de couleur politique (Le Monde-Les Décodeurs)
      • Les résultats du second tour des élections législatives 2024 par commune (Libération)
      • Législatives 2024 : la carte de France des résultats du second tour des élections (Le Parisien)
      • Législatives : comment la mécanique du barrage a fonctionné ? 6 leçons clefs (Le Grand Continent). Quelle efficacité pour le "front républicain” ?" (mesure de l'écart entre le candidat RN ou alliés et le candidat qui lui était opposé dans les duels du second tour)
      • Législatives : formation politique arrivée en tête des élections, par circonscription (Les Echos). Résultats des législatives : 3 cartes pour comprendre la géographie du vote au second tour (Les Echos)
      • Résultats Législatives : la carte complète des députés élus par parti (Le Figaro)
      • La carte des résultats circonscription par circonscription (Ouest France)
      • Résultats des élections législatives 2024 : une circonscription sur quatre a changé de couleur politique, la vôtre est-elle concernée ? (France Info)
      • Résultats des législatives : tentez de composer une majorité absolue avec un simulateur de coalitions (Le Figaro)
      • Quelle coalition ? Composez votre majorité absolue avec un simulateur de coalitions (Le Grand Continent)

      3) Piste d'analyses pour approfondir
      • « Décryptage des résultats  au lendemain du 7 juillet 2024 » (Cevipof). Huit chercheurs proposent une analyse des résultats du second tour des législatives 2024.
      • « NFP, Ensemble, LR : qui sont les électeurs qui ont le plus fait barrage au RN ? » (CheckNews-Libération)
      • « France de l’abstention, France de gauche, France de droite ou d’extrême droite : une radiographie politique du pays » (L'Humanité). L’éclairage des cartographes Nicolas Lambert, Antoine Beroud et Ronan Ysebaert à partir de cartes par interpolation (UAR RIATE). Avec méthodologie et code source disponibles sur Observable.
      • « Quelles cartes pour comprendre les élections de 2024 en France ? » (Géoconfluences)
      • Alexandre Blin, étudiant du master SIGAT, propose une datavisualisation donnant une vision générale de la répartition géographique des trois blocs accompagnée de deux histogrammes (nombre de voix et transformation au 2nd tour).
      • « Vents contraires de la politique française. Evolution du vote entre les élections de 2024 et celles de 2022 » par Sylvain Lesage.
      • « On est peut-être à l’aube d’une révision constitutionnelle majeure ». En l’absence de majorité absolue, les parlementaires élus vont devoir inventer un chemin non prévu par la Constitution de la Ve République, estime la constitutionnaliste Charlotte Girard (Politis).
      • « Législatives 2024. Qu'a voté la France des villes moyennes ? » par Ivan Glita et Achille Warnant (Fondation Jean Jaurès).
      • Comprendre la géographie du vote RN en 2024 » par Jérôme Fourquet et Sylvain Manternach (Institut Terram)
      Le billet est complété au fur et à mesure des liens repérés sur Internet.


      Articles connexes

      Analyser les cartes et les données des élections législatives de juin 2022 en France

      Cartes et graphiques sur les élections européennes de 2024

      Portraits des circonscriptions législatives en France (2022)
      Analyser les cartes et les données des élections présidentielles d'avril 2022 en France

      La carte, objet éminemment politique : exemple des élections européennes

      Dis-moi où tu vis, je te dirai ce que tu votes ? (Géographie à la carte, France Culture)

      S'initier à la cartographie électorale à travers l'exemple des élections présidentielles de novembre 2020 aux Etats-Unis


    • sur Cartographie d’un duel électoral NFP-ENS : le cas de la 10e circonscription des Français de l’étranger

      Publié: 5 July 2024, 12:48pm CEST par Françoise Bahoken

      Ce travail a été réalisé avec la collaboration de Kalliopi ANGO ELA, professeure de Géographie et ancienne sénatrice des Français à l’étranger pour Europe Écologie Les Verts, Directrice de Fondation Paul Ango Ela de géopolitique en Afrique centrale et de Muriel SAMÉ EKOBO, professeure de Géographie et chercheure à la Fondation Paul Ango Ela de géopolitique en Afrique centrale.

      Le Nouveau Front Populaire (NFP) représenté par Elsa DI MÉO (NFP-PS) est arrivé en tête du premier tour des élections législatives dans 34 des 48 pôles électoraux de la circonscription n°10 des Français établis hors de France. Ensemble (ENS) représenté par Amal Amélia LAKRAFI (ENS-Renaissance) arrive en seconde position, avec 12 de ces pôles. Les Républicains (LR) et les Divers-Gauche (DIV-G) n’arrivant en tête, chacun, que dans un seul bureau de vote.

      Cette circonscription n°10, qui enregistre environ 155 000 électeurs répartis sur 49 pays du Moyen-Orient et de l’Afrique, a montré un taux de participation beaucoup plus élevé qu’à l’habitude (32,06 %) même s’il peut sembler relativement faible au regard de la moyenne nationale (66,7 %).

      Les résultats du premier tour des élections législatives du 30 juin 2024 révèlent deux blocs politiques. Celui du NFP, correspondant à deux Afriques : la première couvre une large bande, depuis l’Afrique sub-saharienne jusqu’à l’Afrique Orientale,de N’Djaména à Maputo, en incluant la côtière (Cotonou, Lomé, Accra). La seconde bande s’étend de l’Afrique orientale au Proche Orient, depuis Djibouti et Alexandrie (en Égypte) jusqu’à Erbi au nord et Manama au nord-est. Le bloc d’ENS apparaît surtout dans les circonscriptions périphériques de ce territoire. Est-ce à dire que le NFP serait en passe de l’emporter au second tour de ces législatives ?

      – Carte n°1 –

       

      En regardant de plus près la distribution des votes, on observe que ce sont les pôles électoraux importants, en termes de nombre d’inscrit.es, par conséquent de votant.es, qui ont remporté la mise. Si les trois-quarts des circonscriptions consulaires ont mis en avant le NFP, il ne dispose cependant que de 253 voix d’écarts avec ENS, respectivement 11 651 et 11 398 voix pour chacune des deux candidates.

      – Carte n°2 –

      Les gros pôles électoraux tels Beyrouth au Liban, Dubaï, Abou-Dabi, Koweït et Mascate dans la péninsule arabique, Port-Louis à Maurice ou Tananarive à Madagascar ont donné plus de voix à ENS.

       

      L’effet de proximité du vote au 1er tour

      On peut observer trois anomalies dans la répartition générale des voix qui résulte d’un effet de proximité, ce qui signifie que les électeurs ont d’abord voté pour le ou la candidate la plus proche d’eux. Cet effet de proximité, que l’on peut interpréter sur la cartographie du nombre de voix d’écart entre les deux premiers canditat.es, se manifeste de deux manières : sur le plan politique et au niveau géographique.

      – Carte n°3 –

      La première anomalie résulte d’un effet de proximité politique au profit de LR à Beyrouth au Liban (voir Carte n°2). Ce gros pôle électoral (18 751 inscrit.es) a placé le LR en tête (avec 1415 voix), mais avec une très courte avance de 16 voix (voir Carte n°3) sur le NFP arrivé en seconde position (1399 voix). Les électeurs ont manifestement voté pour un Français du Liban, Lucas LAMAH, qui leur est proche ; la casquette LR devenant alors secondaire.

      La seconde anomalie concerne le pôle de Douala au Cameroun, qui bénéficie d’un effet de proximité géographique au profit du NFP (voir Carte n°2). Alors que ce fief électoral de la « Droite française à l’étranger » n’avait jamais voté majoritairement à gauche, il arrive en tête sous les couleurs du NFP et avec 48 voix d’avance. Douala a favorisé la proximité de Elsa DI MÉO, qui a rappelé au cours de sa campagne qu’elle est résidente à Yaoundé. Le NFP est aussi arrivé en tête à Yaoundé (43% des votes), avec 98 voix d’avance sur ENS (voir Carte n°3).

      Une anomalie similaire s’observe à Amman en Jordanie où le NFP est arrivé largement en tête (63% des votes) en obtenant 240 voix, soit 150 voix de plus que ENS arrivé en seconde position (voir Carte n°3). Ce pôle situé dans la capitale de la Jordanie a également bénéficié d’un effet de proximité géographique : Anne-Claire YAEESH, la suppléante de Elsa DI MÉO résidant sur place.

      Enfin une anomalie à Sanaa, au Yémen, plaçant Nathalie MAZOT (DIV-gauche) en tête, ne peut pas être considérée comme significative dans la mesure où il n’y a eut qu’une seule voix exprimée.

      L’enjeu du Liban dans la victoire du NFP

      L’enjeu électoral entre les deux blocs politiques en présence dans cette circonscription n°10 des Français établis hors de France est au Liban, où les deux candidates sont finalement assez proches en nombre de voix, avec une courte avance pour ENS dans un duel qui l’oppose au NFP.

      Deux éléments vont par ailleurs jouer dans le duel du second tour entre Elsa DI MÉO, la candidate la plus représentée et la plus représentative sur l’ensemble du territoire et Amal Amélia LAKRAFI, la candidate sortante en mandat depuis 2017.

      Le premier est le report des voix de l’extrême droite qui n’est arrivée en première ou en deuxième position dans aucune des circonscriptions des Français de l’étranger. Le second élément tient à la bascule des électeurs français du Liban pour ENS, alors qu’ils avaient placé LFI en tête aux élections européennes de 2024 (trois semaines auparavant). Majoritairement favorables à la cause palestinienne, leur vote au second tour traduira aussi leurs inquiétudes face à  une extension du conflit Gaza-Israël sur leur territoire.

      Ces élections législatives françaises étant très politiques, en raison de la position de l’extrême droite Française à la porte de Matignon, il serait vraiment dommage que les Français qui sont largement établis en Afrique et dans la péninsule arabique ne permettent pas au NFP, déjà en tête avec 48 circonscriptions et 253 voix d’avance, de l’emporter.

      Au-delà des résultats de ce premier tour des législatives anticipées dans la 10ème circonscription, la singularité du vote des Français de l’étranger paraît remarquable dans un contexte national qui semble porter l’extrême droite Française aux portes de Matignon. La remise en cause de la binationalité et de l’immigration rendent particulièrement vulnérables les 3,5 millions de concitoyens et leurs familles, tout en remettant en lumière les valeurs défendues par la gauche.

      À vos votes !

      Citation suggérée par les autrices :
      Françoise Bahoken, Kalliopi Ango Ela et Muriel Samé Ekobo (05 juillet 2024), Cartographie d’un duel électoral NFP-ENS : le cas de la 10e circonscription des Français de l’étranger, Carnet (neo)cartographique. Mis en ligne le 05 juillet 2024 à l’adresse [https:]

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur Déplacements dans Paris x JO et Para 2024

      Publié: 4 July 2024, 7:22am CEST par Caroline Chanlon

      L’organisation des Jeux Olympiques et Paralympiques à Paris cet été pose la question des déplacements parisiens. Chez Oslandia, le mot d’ordre est très clair : aucun déplacement dans Paris ! Et si la rencontre « physique » est indispensable, nous pouvons proposer à nos clients et partenaires d’utiliser des locaux dans d’autres villes, Lyon par exemple.

      Ensuite, il s’agit de bien cerner ce qui est indispensable ou pas … Pour rappel, Oslandia fonctionne en full remote et cela depuis près de 15 ans ! L’équipe est répartie dans la France entière, tout comme nos clients, et cela ne nous a jamais empêché de livrer de beaux projets ?

      En parlant d’ailleurs de beau projet et de JO, la plateforme JOPTIMIZ, composée de plusieurs applications, va prochainement permettre de fournir des services de calcul d’itinéraires adaptés aux contraintes réglementaires mises en place par la Préfecture pendant l’été et effervescence des JO et Para JO.

      Oslandia a plus spécifiquement collaboré sur l’outil Itineriz en partenariat avec ALLOHOUSTON, notre partenaire qui a également travaillé sur CirQliz, un outil qui permet aux entreprises de faire valider leurs véhicules avant les JO, délivrant un QR code par véhicule pour faciliter les contrôles de police en zone bleue.

      Itineriz permet de son côté d’adapter son trajet en fonction des restrictions et dérogations liées aux Jeux 2024 et à la ZFE de votre ville.

      Voilà des applications qui seront bien utiles cet été ?

    • sur Oslandia x Open Source Experts

      Publié: 2 July 2024, 6:43am CEST par Caroline Chanlon

      Open Source Experts est un guichet unique fédérant les acteurs de l’open source en France dans un objectif de développement de l’écosystème et d’accès à de nouveaux marchés.

      OSE centralise les experts open source, offrant ainsi un interlocuteur unique pour les donneurs d’ordres.

      Ce regroupement des acteurs open source a déjà montré ses capacités avant même l’officialisation OSE, par exemple pour le marché de support open source de la CNAM

      Oslandia est fière de faire partie des experts « partenaires qualifiés » open source avec OSE, pour accompagner toutes les organisations à leurs usages et migrations vers des SIG libres !

      Bravo pour cette initiative portée par nos confrères Arawa, BlueMind, FactorFX, Inno3 et Worteks

    • sur Neogeo est ravie d’annoncer la date de ...

      Publié: 27 June 2024, 4:45pm CEST par admin

      Neogeo est ravie d’annoncer la date de son tout premier séminaire dédié à OneGeo Suite, la solution web open source permettant de partager, diffuser et valoriser les données cartographiques d’un territoire.

      Il s’agit d’une opportunité unique aussi bien pour les utilisateurs, que pour ceux qui contribuent aux développements mais aussi les passionnés qui veulent découvrir la solution, les dernières fonctionnalités mises en œuvre, d’approfondir leurs connaissances, et de se connecter avec les différents membres de la communauté.

      Cet événement promet d’être un véritable catalyseur pour ceux qui souhaitent exploiter tout le potentiel OneGeo Suite.

      Ce séminaire a pour but de :
      • Présenter les nouvelles fonctionnalités : Découvrez les innovations et mises à jour récentes de OneGeo Suite,
      • Favoriser les échanges : Échangez avec les autres utilisateurs, les développeurs, et experts du domaine,
      • Inspirer et motiver : Bénéficier et partager de retours d’expériences des utilisateurs et des cas d’utilisation inspirants,
      • Fournir des échanges approfondis : Au travers d’ateliers sur les nouveaux usages, services, connecteurs, la visualisation des données, les performances et limites actuelles des plateformes OGS…
      Programme de la Journée Pourquoi Participer ?

      Participer à ce séminaire vous permettra de :

      • Accéder à des informations exclusives : Soyez parmi les premiers à découvrir les dernières fonctionnalités et la road map de la solution,
      • Améliorer vos connaissances : Grâce aux présentations et aux ateliers,
      • Réseauter avec les membres de la communauté du secteur : Élargissez votre réseau et partagez des idées avec d’autres utilisateurs et experts.
      • Obtenir des réponses à vos questions : Interagissez directement avec les développeurs et les formateurs de la solution.
      Inscription

      Pour participer à ce séminaire exceptionnel, inscrivez-vous dès maintenant –> lien.

      Les inscriptions sont gratuites et obligatoires, ne tardez pas à réserver votre place.

      En conclusion

      Ne manquez pas cette occasion, en amont des Géodatadays 2024, afin de consolider vos connaissances et de renforcer votre utilisation de OneGeo Suite. Rejoignez-nous pour une journée riche en apprentissage, en échanges et en inspiration.

      Nous sommes impatients de vous accueillir et de partager ce premier séminaire OneGeo Suite à vos côtés.

      L’équipe OneGeo Suite

    • sur Comparaison des solutions de collecte de terrain : QField et LandSurveyCodesImport (LSCI)

      Publié: 27 June 2024, 7:11am CEST par Loïc Bartoletti
      Introduction

      Chez Oslandia, nous offrons des services pour la gestion des réseaux, les collectivités et la production de plans de corps de rue simplifiés (PCRS). Parmi ceux-ci, nous proposons des assistances et développements pour les solutions de collecte de terrain. Dans le billet précédent, nous faisions état de ces solutions. Cet article explique les différences entre deux solutions de collecte : QFIELD et LandSurveyCodesImport (LSCI). Nous sommes, en même temps, partenaires d’OpenGIS.ch, éditeur de QField, et les développeurs de LandSurveyCodesImport (LSCI). Pourquoi proposer deux outils ?

      QField : Modification directe des données

      QField est une application mobile développée autour de QGIS. Conçue pour une utilisation intuitive sur le terrain, elle permet aux utilisateurs de :

      • Modifier les données SIG en temps réel : les relevés et modifications peuvent être effectués directement sur le terrain et synchronisés immédiatement avec la base de données principale.
      • Accès facile aux informations : les utilisateurs ont un accès direct aux cartes et aux données géospatiales, ce qui permet une prise de décision rapide et informée.
      Cas d’utilisation de QField
      • Cartographie environnementale : des naturalistes peuvent utiliser QField pour relever des données sur la faune et la flore, mettant à jour instantanément la base de données.
      • Gestion des infrastructures : les techniciens des services publics peuvent enregistrer et modifier les informations sur les infrastructures directement sur le terrain.
      LandSurveyCodesImport (LSCI) : Saisie de points et codes pour topographes

      LandSurveyCodesImport (LSCI) est un plugin QGIS destiné principalement aux topographes. Il permet la saisie de points et de codes à partir de carnets de terrain, suivi d’un traitement et d’une intégration dans QGIS. Ce processus est particulièrement utile pour :

      • La saisie structurée des données : les topographes peuvent enregistrer des points précis et des codes descriptifs, facilitant ainsi le traitement ultérieur des données.
      • Intégration avec les outils de topographie traditionnels : compatible avec les stations totales et les appareils GNSS, LSCI facilite la transition des données de terrain vers le SIG.
      Cas d’utilisation de LSCI
      • Topographie urbaine : les équipes de topographie peuvent collecter des données détaillées sur les structures urbaines et les intégrer facilement dans QGIS pour une analyse approfondie.
      • Géodésie et levés cadastraux : les géomètres et topographes peuvent utiliser LSCI pour traiter les relevés topographiques et produire des cartes précises 3D.
      Intégration avec d’autres outils

      LSCI s’intègre dans une suite d’outils spécialisés :

      • TotalOpenStation : Utilisé pour la conversion des carnets de terrain en données numériques.
      • Topaze : Outil de calcul topométrique pour une analyse détaillée des relevés.

      Leurs utilisations conjointes permettent de créer une chaîne de traitement des données efficaces pour intégrer les données capteur GPS à la base de données.

      Complémentarité des outils

      Bien que QField et LSCI semblent répondre à des besoins différents, ils peuvent être utilisés dans le même service pour une gestion complète des données de terrain. QField permet une mise à jour immédiate et directe des données, tandis que LSCI offre une solution structurée pour les relevés topographiques.

      Contrôle qualité avec QompliGIS

      Enfin, n’oublions pas de vérifier la donnée ! Pour cela, nous poussons QompliGIS qui est un outil pour le contrôle qualité des données SIG. Il permet de s’assurer que les plans produits sont conformes aux normes requises, garantissant ainsi la fiabilité et la précision des informations géospatiales.

      Conclusion

      QField et LandSurveyCodesImport (LSCI) répondent à des besoins spécifiques pour la saisie terrain. Chez Oslandia, nous proposons notre expertise et nos services de développement pour intégrer ces solutions dans vos processus et répondre à vos exigences spécifiques.

      Vous avez envie d’intégrer ces outils à vos SI ? Vous souhaitez co-développer de nouvelles fonctionnalités ? Contactez-nous !

    • sur Méfiez-vous des cartes … électorales

      Publié: 26 June 2024, 3:48pm CEST par Françoise Bahoken et Nicolas Lambert

      Billet à retrouver également sur l’humanité.fr.

      Au lendemain des élections européennes de 2024 et de l’annonce de la dissolution de l’Assemblée Nationale par le président de la République française, le pays fut plongé dans une période d’instabilité politique profonde. Le Rassemblement National (RN) est en effet arrivé en tête dans plus de 32 000 communes sur 35 000. C’est le fameux chiffre de 93 % qui n’a cessé d’être martelé dans de nombreux média pour illustrer la victoire objective et éclatante du RN aux européennes, ainsi que son ancrage dans la population française. Les cartes produites furent, elles aussi, explicites : des images teintées de bleu ou de brun1 qui semblent démontrer que l’arrivée de Jordan Bardella à Matignon n’est plus qu’une question de temps.

      Ces images cartographiques reflètent-elles vraiment le rapport de force qui s’instaura entre les formations politiques françaises, dans la perspective des élections législatives ?

      Pour analyser cela, nous proposons d’examiner la répartition des voies obtenues par le Rassemblement National à ces élections européennes, en les projetant dans les 577 circonscriptions électorales. Nous les mettons ensuite en regard des forces de gauche rassemblées aujourd’hui dans le Nouveau Front Populaire (NFP).

      Les données
      Les données consultées correspondent aux résultats électoraux finalisés de la France aux élections européennes de 2024. Communiquées par le Ministère de l’Intérieur français, le détail de ces résultats est librement accessible sur le site data.gouv.fr2. Les variables que nous avons mobilisées sont celles qui portent sur le nombre d’inscrits et sur le nombre de votants par circonscription électorale, à l’échelle géographique des circonscriptions.

      Souhaitant par ailleurs cartographier les votes obtenus par le RN en les mettant en regard avec cette nouvelle construction politique qu’est le Nouveau Front Populaire (NFP), qui n’existait certes pas au moment des élections européennes, nous avons construit une nouvelle variable (NFP) à l’échelle des circonscriptions. Cette variable NFP correspond logiquement à la somme du nombre d’inscrits et du nombre de voix obtenus par les partis Europe Écologie les verts (EELV), Parti communiste français (PCF), Parti socialiste (PS) et La France insoumise (LFI).

      À noter que le même regroupement n’a pas été fait entre les partis de l’extrême droite française, car ces derniers n’ont pas fait l’objet, à notre connaissance, d’une alliance générale et au niveau national comparable à celle mise en place par la gauche, pour former le NFP. Compte tenu de ces choix, l’analyse cartographique proposée focalise l’attention sur le vote RN appréhendée comme l’une des deux grosses forces politiques actuellement en présence, la seconde étant le NFP ; les autres partis, formations et groupements politiques français étant regroupées dans une catégorie « Autres ».

      Sur la première carte, nous colorons en bleu marine les circonscriptions dans lesquelles le RN est arrivé en tête. Cette image décrit factuellement la large victoire du RN, effectivement arrivé en première position dans 457 circonscriptions (soit 79 % de l’ensemble), contre 120 circonscriptions (soit 21%) pour l’ensemble des autres forces politiques. Si l’on considère la surface des territoires ainsi représentés, le RN est arrivé en tête dans 85 % du territoire national. Un véritable raz de marée…

      Cette carte n’est pas sans rappeler une autre carte célèbre brandie par Donald Trump le 1er octobre 2019 sur le réseau social Twitter. Alors en plein procédure d’impeachment suite à l’affaire ukrainienne, Trump brandit cet argument cartographique pour revendiquer une légitimité populaire, celle de l’Amérique profonde et des arrière-pays. Mais il y a un hic.

      Si la carte était recouverte de rouge, la couleur du parti Républicain de Donald Trump, les grandes villes, elles, ne votèrent pas pour lui. Trump fut en réalité élu avec 3 millions de voix de moins qu’Hillary Clinton et cela, malgré une carte totalement bardée de rouge. Cette carte représenta donc l’illusion d’une victoire. Qu’en est-t-il de celle présentée ci-dessus ?

      Depuis les élections européennes, la situation politique en France a changé. Les forces de gauche se sont unies dans le Nouveau Front Populaire (NFP), seul moyen de contester la suprématie du RN dans nombre de circonscriptions électorales.

      C’est pourquoi nous proposons une seconde carte considérant cette nouvelle force politique inédite, élaborée au lendemain des élections européennes. Comme sur la carte précédente, les circonscriptions où le RN est arrivé en tête sont teintées de bleu marine ; les circonscriptions gagnées par le NFP sont maintenant représentées en rouge, tandis que celles des autres forces politiques françaises sont toujours représentées en gris.

      Il est intéressant de pouvoir visualiser la manière dont les résultats cartographiques se contrastent lorsque la gauche est unie au sein du NFP. Si la victoire du RN demeure indéniable, celui-ci arrive en tête dans (seulement) 313 circonscriptions (55 % de l’ensemble), comme indiqué sur le diagramme. Le NFP remporte, quant à lui, et à lui seul, 259 circonscriptions (45 % de l’ensemble) ; les autres formations politiques sont arrivées en tête dans seulement 8 circonscriptions. L’union fait la force. Deux blocs se font face.

      Mais, parce qu’il y a un mais, cette représentation cartographique n’est pas non plus sans poser quelques problèmes de perception. En effet, le découpage des circonscriptions électorales est réalisé de telle sorte que chacune d’elles rassemble un nombre comparable de votants. Ainsi, en zone urbaine dense, les circonscriptions présentent de très petites tailles à l’inverse des zones rurales où elles peuvent s’étendre sur des kilomètres. Leurs formes géographiques et leurs surfaces sont donc nécessairement hétérogènes. En utilisant ce découpage électoral comme support de la représentation cartographique, la carte survalorise donc, par construction, la perception des résultats obtenus dans les territoires peu denses qui sont caractérisés par leur grande taille, créant un effet d’absorption visuelle. Autrement dit, on ne voit qu’elles.

      Pour y remédier, nous proposons d’assimiler chaque circonscription à un cercle dont la surface est proportionnelle au nombre d’inscrits. Pour des questions de lisibilité, les cercles sont écartés les uns des autres afin d’éviter leurs superpositions puis sont teintés, comme précédemment, en fonction du bloc politique arrivé en tête. Le résultat obtenu s’éloigne nettement de la carte de départ, puisqu’on obtient ici une carte beaucoup plus réaliste où la perception des couleurs de chacune des circonscriptions exprime fidèlement le rapport des forces RN et NFP.

      Si le RN reste malgré tout en tête dans 55 % des circonscriptions et semble bien placé pour remporter les élections législatives qui se profilent, c’est sans compter sur le fait que les résultats électoraux sont le reflet de dynamiques politiques et sociales et non un simple bilan comptable.

      Aussi proposons-nous une variante de la carte précédente où nous représentons en jaune les circonscriptions dans lesquelles l’écart de voix entre le NFP et son principal adversaire est de moins de 5 %. En d’autres termes, les circonscriptions électorales où rien n’est joué.

       

      Dans cette configuration, 18 % des circonscriptions semblent très indécises et le RN ne semble plus en position de force que dans 45 % des cas – ce qui est déjà beaucoup trop. Rien n’est cependant joué. S’il ne nous est pas possible de prévoir à ce stade la manière dont vont se dérouler les élections législatives, dans ce contexte politique inédit, nous pouvons cependant affirmer que le combat n’est pas perdu, comme le laissait envisager la carte initiale qui était, disons-le, désespérante. La participation au scrutin tout comme le jeu complexe des reports de voix au second tour seront en effet déterminants.

      Alors méfiez-vous des représentations cartographiques qui vous plongent dans l’apathie et rappelez-vous que les cartes ne sont jamais neutres. Mobilisons-nous, toutes et tous ensemble les 30 juin et 7 juillet prochain, pour faire gagner le Nouveau Front Populaire.

      1 [https:]

      2 [https:]

      Données et code source : [https:]]

      Ils en parlent …

      Géoconfluence (5 juillet 2024) Quelles cartes pour comprendre les élections de 2024 en France ?

      Maps Mania (8 juillet 2024) France Defeats the Far-Right

      Françoise Bahoken et Nicolas Lambert

      More Posts - Website

      Follow Me:
      Twitter

    • sur [Témoignage client] Sylvain Petiteau, géologue expert en contrôle géologique chez Orano

      Publié: 25 June 2024, 7:07am CEST par Caroline Chanlon

      Sylvain Petiteau est géologue de formation et géologue expert en contrôle géologique chez Orano. Après des missions au Kazakhstan, en Mongolie et au Niger, il travaille aujourd’hui sur l’estimation des ressources géologiques et le contrôle qualité des mineurs. Dans ce contexte Sylvain Petiteau collabore avec Oslandia sur le projet CanOP permettant d’identifier la teneur en uranium des minerais sur un site d’extraction au Niger.

      Retour sur la collaboration :

      Il y a quelques années, nous avons initié un projet d’innovation CanOP  qui s’est converti en projet d’industrialisation. Il s’agissait de remplacer une technologie ancienne sur un site minier de plus de 50 ans d’existence par un nouveau concept technologique. L’objectif était de nous aider à améliorer la sélectivité minière (notre capacité à séparer les roches minéralisées chargées en Uranium des roches stériles) notamment en ajoutant la géolocalisation aux mesures.

      Le dispositif technique consiste en une perche métallique équipée de trois composants : deux cristaux qui effectuent des mesures de la radioactivité et un GPS différentiel avec une précision de l’ordre du millimètre.

      Cette canne est connectée à une tablette en bluetooth qui envoie des informations géolocalisées de la mesure de la radioactivité. Les informations reçues par la tablette sont traitées par l’application CtrlCraft développée par Oslandia. Plusieurs cannes peuvent opérer en parallèle à différents endroits. Les données acquises sont ensuite regroupées et enregistrées dans une base de données centrale afin de suivre la production. Le croisement de ces données avec nos prévisions de production nous permet également d’améliorer nos modèles 3D de la teneur.

      CanOP participe à la diminution de la co-activité. Une fois les mesures réalisées par les aides prospecteurs, ils peuvent se mettre en retrait de l’activité d’extraction pour guider à distance le travail de la pelle en suivant l’exploitation sur l’application CtrlCraft. On gagne énormément en sécurité.

      Oslandia est disponible, à l’écoute et s’est bien adapté à nos demandes en conciliant les possibilités de développement, notamment de l’outil QGIS, aux besoins qu’on leur décrit. Le projet s’est monté en mode agile, la solution évoluant avec nos besoins. Nous avons de bonnes interactions avec Jacky notre interlocuteur principal sur le développement.

    • sur Corpo d’été !

      Publié: 24 June 2024, 11:35am CEST par Caroline Chanlon

      Oslandia se veut une structure atypique, avec des valeurs affirmées basées sur l’autonomie, la confiance et l’ouverture.

      Nous avons misé depuis la création d’Oslandia sur un fonctionnement en 100% télétravail avec des collaborateurs répartis dans la France entière. Pour une organisation libre des missions et de la journée de travail !
      On a d’ailleurs évoqué le sujet du télétravail récemment dans un billet.

      Mais nous avons aussi grand plaisir à nous retrouver, c’était le cas en juin pour notre Corpo d’été :

      Les Corpos sont l’occasion de partager des moments privilégiés et d’échanger sur des sujets de fonds. Pendant ces journées où nous avons de nouveau été magnifiquement accueillis à la Tour d’Oncin, nous avons plus spécialement travaillé sur notre offre de formation, fait des ateliers DuckDB, Dagster, PostGIS 3D, discuté de notre utilisation de l’IA ou des participations aux conférences …

      Sans oublier les moments de partage autour d’une dégustation de vin AOC Bugey, une activité Escape Game ou encore le sauna du lieu !

    • sur Latitudes et longitudes géographiques dans l’Encyclopédie de Diderot et d'Alembert

      Publié: 23 June 2024, 6:24pm CEST


      Le dossier de Colette Le Lay sur le site ENCCRE se propose d'étudier les latitudes et longitudes fournies par les articles de géographie de l’Encyclopédie de Diderot et d'Alembert. Il s'agit d'en déterminer les contributeurs et les sources à partir d'un important corpus. Librement accessible, l’Édition Numérique, Collaborative et CRitique de l’Encyclopédie (ENCCRE) met à disposition les connaissances des chercheurs d’hier et d’aujourd’hui sur l’Encyclopédie, en s’appuyant sur un exemplaire original et complet de l’ouvrage conservé à la Bibliothèque Mazarine, intégralement numérisé pour l’occasion (soit 17 volumes de textes et 11 volumes de planches). Le dossier s'ouvre par une très belle projection de Jacques Cassini (1696) figurant la Terre vue du pôle Nord avec l'ensemble des méridiens disposés tout autour.

      Planisphère Terrestre où sont marquées les Longitudes de divers Lieux de la Terre par Mr. de Cassini  (1696)
      Source : Gallica


      Le choix de cette projection azimuthale polaire de Jacques Cassini est l'occasion d'aller découvrir la très belle représentation du périple de Magellan autour du monde par le cartographe Scherer (1702). Heinrich Scherer (1628-1704), à la fois mathématicien et cartographe, a développé une œuvre colossale qui a influencé la cartographie européenne du XVIIIe siècle. Plusieurs de ses atlas sont à découvrir sur le site de la Bibliothèque numérique de Munich. Au XVIIe siècle, les parallèles et les méridiens apparaissent comme les lignes remarquables pour se repérer à la surface du globe. Mais les coordonnées géographiques restent encore assez imprécises. Déterminer la longitude va devenir un grand enjeu au XVIIIe siècle.

      Heinrich Scherer, Geographia Artificialis Sive Globi Terraquei Geographice Repraesentandi Artificium, 1703(source : Bibliothèque numérique de Munich)


      La longitude et la latitude tendent à s’imposer de plus en plus fréquemment dans les dictionnaires et encyclopédies à partir de la seconde moitié du XVIIIe siècle comme en atteste l'étude conduite par Denis Vigier, Ludovic Moncla, Isabelle Lefort, Thierry Joliveau et Katherine McDonough : « Les articles de géographie dans le Dictionnaire Universel de Trévoux et l’Encyclopédie de Diderot et d’Alembert » (Revue Langue française, 2022/2, n° 214). Selon les auteurs, c'est avec F. L. Vosgien (1747 et éditions suivantes) que l’on trouve la mention quasi-systématique de longitude et de latitude, modèle que réutilise D. Diderot dans l’Encyclopédie.

      Dictionnaire géographique portatif ou Description de tous les royaumes, provinces, villes, patriarchats, éveschés, duchés, comtés, marquisats des quatre parties du monde par M. Vosgien (1757). Source : Gallica



      Pour Paris par exemple, l'Encyclopédie de Diderot et d'Alembert indique une latitude de 48° 51' 20''. On y voit la mention de deux longitudes différentes, l'une notée Long. orient. 20° 21' 30", l'autre dite Long. de Paris à l'observatoire de Paris suivant Cassini 19° 51' 30'' : preuve qu'il y avait plusieurs manières d'indiquer la longitude à l'époque. Dans les deux cas, on observe que le point d'origine reste l'île de Fer qui servait encore de référence au cours du XVIIIe siècle.


      Comme l'explique le dossier de Colette Le Lay sur le site de l'ENCCRE, déterminer la longitude constitue un enjeu considérable au XVIIIe siècle. Le méridien de Paris comme méridien d'origine va s'imposer progressivement en France à partir des Cassini, sans qu'il s'agisse d'une référence unique. Pour la longitude, l'Encyclopédie prend comme origine l'île de Fer dans l'Atlantique (estimée à l'époque à environ 20° ouest de Paris) sans pour autant mentionner explicitement un méridien origine.

      Méridien de l'île de Fer dans l'Atlantique


      Outre le Dictionnaire géographique portatif de Vosgien, Jaucourt qui a rédigé avec Diderot les articles de géographie de l'Encyclopédie s'est inspiré vraisemblablement du Dictionnaire de Trévoux (1752). Celui-ci comporte à la fin de l'ouvrage un tableau des coordonnées géographiques de tous les lieux et auteurs cités. La longitude y est indiquée en degrés, minutes, secondes (D. M. S.) par rapport à l'île de Fer ainsi que par rapport au méridien de Paris en heures, minutes, secondes (H.M.S.).

      Tableau des coordonnées géographiques des noms de lieux (source : Dictionnaire de Trévoux, 1752)


      Il fallut attendre la fin du XVIIIe siècle pour stabiliser les mesures de longitude. En 1789, l'expédition de Verdun, Borda et Pingré plaça définitivement l'île de Fer à 20°2’31" de Paris. Au XIXème siècle, la carte d'état major ne se réfère plus qu'au méridien de Paris et les cartes topographiques des autres États à leur observatoire national. C'est le développement des transports et la nécessité d'adopter une heure universelle et des fuseaux horaires avec des décalages d'heures rondes pour les heures locales qui vont aboutir au choix du méridien international de Greenwich en 1884. La France résistera jusqu'en 1911 (source : « Quelle est la différence entre le méridien de Greenwich et le méridien de Paris ? », IGN)

      Articles connexes

      L'histoire par les cartes : il a fallu plus de 25 ans à la France pour fixer les coordonnées géographiques et relever les premières cartes des Seychelles au XVIIIe siècle
      Derrière chaque carte, une histoire. La cartographie du détroit de Magellan entre science et imaginaire

      La projection Equal Earth, un bon compromis ?

      Projections cartographiques
      Cartes et atlas historiques


    • sur Question du mois chez Oslandia : Quel est mon intérêt à financer de l’open source ?

      Publié: 21 June 2024, 6:24am CEST par Caroline Chanlon

      Chez Oslandia, nous croyons fermement aux multiples avantages du financement de l’open source. Voici quelques éléments clés qui mettent en lumière les raisons pour lesquelles cela constitue une stratégie judicieuse pour toute organisation :

      Orienter la roadmap

      En finançant des projets open source (développement de fonctionnalités, corrections de bugs…), vous avez la possibilité d’influencer la feuille de route du développement. Vos besoins spécifiques sont mieux pris en compte, assurant ainsi que les évolutions du projet répondent à vos attentes.

      Maintenance optimisée

      L’un des grands avantages de l’open source est que la maintenance et les améliorations futures sont prises en charge par l’ensemble des contributeurs de façon mutualisée. Cela réduit la charge de travail globale, et particulièrement la charge de maintenance interne du code produit par votre financement, et assure ainsi une évolution continue du logiciel en respectant le niveau de qualité attendu.

      Visibilité et communication

      En contribuant financièrement à l’open source, vous bénéficiez d’une visibilité accrue. Les contributions sont relayées au sein des communautés, offrant ainsi une publicité positive et renforçant votre image de marque, tant auprès de la communauté qu’auprès des autres organisations utilisatrices. Cette communication produit également un effet « boule de neige » où d’autres organisations suivront votre exemple, et vous bénéficierez de leurs financements dans le futur.

      Reconnaissance communautaire

      La reconnaissance par la communauté open source est un atout majeur. Être perçu comme un acteur clé et un soutien de l’open source peut renforcer votre crédibilité et votre influence, solidifiant l’écosystème de votre socle technologique. Cette reconnaissance facilite par la suite les échanges avec la communauté et les réponses que celle-ci pourra apporter à vos problématiques.

      Avantages RH

      Enfin, investir dans l’open source est un levier important pour attirer et retenir les talents. Les développeurs sont attirés par des entreprises engagées dans l’open source, perçues comme innovantes, tournées vers l’avenir et porteuses de sens dans le travail.

      En conclusion, financer l’open source n’est pas seulement une question de philanthropie technologique, c’est aussi une stratégie d’entreprise solide qui apporte de nombreux bénéfices tangibles. Chez Oslandia, nous sommes fiers de promouvoir et de soutenir l’open source, car nous croyons en son potentiel à transformer positivement les pratiques et les technologies. C’est aussi le cas de nos clients et partenaires, et ensemble nous faisons progresser les technologies du libre, le bien commun, le tout avec une raison d’être au travail que nous fournissons.

    • sur Le programme CHOROS de Tobler (1973)

      Publié: 20 June 2024, 1:17pm CEST par Françoise Bahoken

      Préambule : L’un des objectifs du programme Tribute to Tobler (TTT) consiste à permettre de remobiliser des méthodes d’analyse spatiale et de cartographie proposées par Waldo Tobler, en s’appuyant sur ses textes, ses notes, ses programmes informatiques et ses images.

      Les différentes propositions théoriques, méthodologiques, algorithmiques et j’en passe que Tobler a légué à la communauté ont souvent été illustrés par des données analysées et illustrées à l’aide d’outils et de programmes confectionnés par l’auteur lui-même.

      Tobler a par ailleurs mis à notre disposition dans une extraordinaire démarche d’ouverture de ses programmes, ses données et ses images, qu’il est dès lors possible de remobiliser aujourd’hui.

      Atteindre cet objectif de reproductibilité d’analyses spatiales anciennes parfois enterrées, souvent complexes dans leur exposé et dans leur mise en œuvre suppose, d’une part, une relecture des textes (articles, notes de recherches …) concernés et d’autre part, une reprise en main (une refactorisation) ou plutôt le re développement des programmes et outils mobilisés dans le ou les textes en question, dans les langages contemporains les plus usuels. Sans cela, il ne sera pas possible de diffuser son travail ni de progresser dans le développement de méthodes de l’analyse géographique pourtant très utiles à d’autres pans de la connaissance qui utilisent des données localisées.

      Tobler m’avait dit qu’en appui de propositions théoriques ou méthodologiques que l’on pouvait faire (c’était à l’époque dans le cadre de ma thèse), il était nécessaire d’une part, de les formaliser mathématiquement et d’autre part, de proposer des programmes permettant de les mettre en œuvre. En l’absence de compétences dans l’un ou l’autre domaine de son champs de compétences, il fallait collaborer avec ceux qui savent, ceux qui possèdent les dites compétences. Je m’égare. Revenons à nos moutons.

      Pour pouvoir (re)mobiliser des méthodes et outils d’analyse qui nous apparaissent fondaentaux, il convient au préalable de comprendre de quoi il en retourne, en commençant par les déconstruire pour pouvoir mieux les reconstruire ailleurs, j’entends dans d’autres contextes.

      C’est le cas du programme CHOROS de Tobler, un outil permettant de réaliser des cartes chroplèthes sans intervalles – dont il a déjà été question.

      CHOROS

      Tobler a en effet proposé en 1973 – lire la traduction française réalisée par Laurent Jégou dans le cadre de TTT – de construire des cartes choroplètes sans partitions des données numériques (selon les quantiles, standardisation, etc.). Attention : cela ne signifie pas pour autant qu’il ne fallait pas discrétiser les données avant de les représenter – puisqu’elles sont continues -, mais plutôt que la discrétisation devrait s’appuyer non pas sur des paramètres de la série (moyenne, médiane, …), mais sur une valeur unique d’intensité de teinte pour chaque valeur numérique, sur un “ombrage” unique comme l’indique Peterson (1999). C’est ce que l’on fait aujourd’hui intuitivement lorsqu’on nuance une teinte en fonction de la quantité de noir qu’on ajuste en fonction de l’intervalle de classe.

      Le résultat produit des motifs spatiaux qui apparaissent plus ou moins perceptibles en fonction du nombre de valeurs, mais malgré son intérêt opérationnel, ils n’ont pas d’emblée convaincue la communauté de l’époque.
      Dobson est arrivé à la conclusion selon laquelle le résultat d’une choroplèthe sans classe était trop chargé, et donc peu lisible. Peterson et Müller ont quant à eux testé cette méthode en 1979, après son introduction par Tobler, avant d’en développer des versions adaptées pour d’autres environnement.

      Comment ça marche ?

      Le programme CHOROS mobilise un opérateur linéaire de voisinage pour créer des cartes choroplèthes (Application of linear Neighborhood Operator to Choropleth Maps), en utilisant la méthode de réagrégation définie par Tobler. Le lissage des contours dépend des masses utilisées dans un autre outil : le programme HAVE (je n’en sais pas plus à ce stade).

      Le programme a été développé en Fortran par Tobler lui-même, alors qu’il était à l’Université du Michigan (Ann Arbor). Il a ensuite été redéveloppé à partir de l’automne 1985 par Michael P. Peterson, bien connu pour ses travaux sur la cartographie animée, pour l’adapter à l’environnement Macintosh.

      MacCHORO

      La première version du MacChoro de Peterson est publiée en 1986 et apparaît être le tout premier programme de cartographie thématique pour Mac.

      L’outil permettait de réaliser des cartes choroplèthes fondées sur les discrétisations usuelles ainsi que des non classées (numériquement) en seize classes ou nuances de teintes (de niveaux de gris, faut-il le préciser ?), là ou les autres méthodes de discrétisation plus classiques – également proposées dans l’outil – autorisaient une partition de deux à seize classes (à des fins de comparaison).

      A partir de 1989, MacChoro II v1, proposée sur un “Big Mac” (512 K avec deux lecteurs de disquettes et aucun disque dur), fut doté d’une partie animée, suivant la proposition de Tobler. Rappelons que  l’animation était à l’époque l’un des trois paradigmes de la cartographie définis par l’auteur, aux côtés des approches discrètes et continues. A noter que cette v.1 fut fournie avec des données et le fond de carte des États-Unis d’Amérique pour une cartographie à réaliser en noir et blanc.

      L’outil innove en plusieurs aspects. L’environnement propose huit menus (voir figure 1), quatre sous menus : Map file, Convert, poly Extract et Classify (écart-type, intervalles égaux, quantiles et seuils naturels) et quatre fenêtres utiles : une fenêtre graphique principale et une autre proposant une vue globale et réduite ; une troisième fenêtre  pour visualiser les données et une quatrième fenêtre de sortie des statistiques sous la forme de texte

      Figure 1. Interface utilisateur de MacChoro II.

      Source : MacChoro II overview.

      MacChoro II v.2 créa une nouvelle surprise en ajoutant des icônes à son interface, pour :
      – symboliser les méthodes de discrétisation proposées qui passent au nombre de cinq, auxquelles s’ajoutent la “discrétisation non classée” ;
      – choisir un nombre de classe entre 2 et 16 ;
      – dessiner la carte

      Figure 2. Interface de discrétisation de MacChoro II v2.

      Source : wikipédia.

      D’après Peterson (1999), l’interface de Mac Choro II se distingua en outre à l’époque pour les aspects liés à l’interactivité de la cartographie ou de l’utilisateur avec la carte : la présence de “légendes actives permettait” à l’utilisateur de “contrôler la méthode de classification” utilisée pour discrétiser non seulement une mais plusieurs variables.

      Figure 3. Interfaces de,discrétisation et de sélection des variables d’intérêt

      Source : Michael Peterson (1999)

      La carte réalisé est ensuite transférable via le Presse papier (Clipboard) à d’autres programmes pour Macinstosh de l’époque (MacDraw II, Super Paint II, MacWrite II, Word and PageMager) pour voir sa conception  finalisée avant d’être diffusée.

      Si vous êtes intéressé.e d’en savoir plus sur MacChoro, une review fut proposée par Gene Turner dans Cartographica en 1991.

      Enfin, last but not least, Laurent Jégou a porté en 2022, dans un carnet Observable intitulé Quantiles vs continuous choropleths maps, la méthode des choroplèthes sans classe de Tobler (1993), en la comparant au passage avec la méthode des quantiles – c’est d’ailleurs la seule application de ces cartographies choroplèthes non classées que je connaisse à ce jour. A suivre ?

      Ce billet est dédié à mon collègue Robin Cura, pour les discussions parfois un peu vives que nous avons pu avoir sur le sujet. Mais nul n’est parfait hein :-).

      Références :

      Tobler, W. (1973) “Choropleth Maps Without Class Intervals?.” Geographical Analysis 3: 262-265.

      Tobler W, Jégou L (1973), Choropleth Maps Without Intervals?. 2022.

      Turner Gene (1991), Two mapping software packages for  for Macintosh Computers, Cartographica, n° 10. pp. 17-21.

      MacChoro Il with Map Animation. Image Mapping Systems, Overview.

      Peterson P. (1999), Active legends for interactive cartographic animation, International Journal of Geographical Science, DOI: 10.1080/136588199241256 ·

      Billets liés :

      Laurent Jégou (2022), Des cartes choroplèthes sans classes ?

      Voir aussi :

      Laurent Jégou, Quantiles vs continuous choropleths maps, Notebook Observable.
      Philippe Rivière (2021), Pycno what ? Interpolation pycnophylactique.
      La collection TTT des travaux en français de et après Tobler : hal.archives-ouvertes.fr/TTT/
      L’espace de travail collaboratif sur les travaux de Tobler : ./tributetotobler

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur [Equipe Oslandia] Gwendoline, développeur QGIS web

      Publié: 20 June 2024, 6:59am CEST par Caroline Chanlon

      Ingénieur à l’INSA de Lyon en bio-informatique, Gwendoline ne souhaite pas aller vers une thèse et s’oriente dans le domaine du séquençage ADN. Une spécialité qui l’amène vers sa première expérience professionnelle au CNRS dans une station marine à Roscoff en Bretagne.

      Elle travaille au service informatique, en appui aux chercheurs et participe au développement d’un logiciel d’interfaçage « clic – bouton » avec les outils lignes de commande, pour proposer un outil aux chercheurs leur permettant de répéter les workflows rapidement sur un autre jeu de données et les rendre accessibles dans le cadre des publications scientifiques.

      « Je devais comprendre les biologistes pour transmettre les besoins aux informaticiens, mes compétences en bio-informatique et en informatique m’ont bien aidées ! « 

      Après 3 ans et demi au CNRS, direction la région PACA et la Société du Canal de Provence au service informatique !

      Pendant 5 ans, Gwendoline travaille sur de nombreux projets : évolution d’un plugin QGIS en Python pour générer des cahiers parcellaires, mise en place d’IDG, de requêtes PostGIS, d’applications de relevés sur le terrain et de plein d’autres plugins !

      « En cherchant des informations sur un logiciel, je suis tombée sur un article d’Oslandia, je me suis plus renseignée et vu que des postes étaient ouverts ! « 

      Gwendoline est développeur QGIS web chez Oslandia depuis 2021. Elle a pour mission le développement de projets autour de QWC comme pour WKN, mais aussi dans le cœur QWC, dans le cadre de missions open source, ainsi que la formation QGIS / PostGIS et QWC.

      Projet emblématique

      La traduction de l’interface d’administration de QWC ! C’est quelquechose que je ne fais jamais ! C’était un travail de fourmi qui apporte une grande satisfaction quand c’est finalisé !
      A retrouver sur : [https:]]
      et la documentation pour l’activer : [https:]]

      Technologie de prédilection

      Python !

      Sa philosophie

      D’un bout à l’autre ! J’aime maîtriser toute la chaîne : du besoin client jusqu’à la documentation !

      Oslandia en 1 mot

      Bienveillance entre collègues et aussi au niveau des clients, on fait toujours au plus juste, avec une volonté de les former, pour les rendre autonomes.

    • sur Bruxelles Environnement / Accompagnement technique pour la mise en œuvre des politiques régionales liées à l’environnement

      Publié: 18 June 2024, 7:05am CEST par Caroline Chanlon

      Bruxelles Environnement est un organisme public de la région de Bruxelles-Capitale chargé de concevoir et de mettre en œuvre les politiques régionales dans toutes les matières liées à l’environnement.

      À ce titre, Bruxelles Environnement publie un certain nombre de données en opendata, notamment en exposant des flux OGC sur sa plateforme.

      Oslandia l’accompagne sur :
      • l’administration et le maintien en condition opérationnelle des bases de données PostGIS. Cela implique notamment les migrations de versions majeures de PostgreSQL et PostGIS
      • la configuration, le déploiement, l’administration et le MCO des serveurs de cartographie : MapServer, QGIS Server, via Docker, GitLab CI/CD et Ansible.

      Oslandia accompagne également Bruxelles Environnement en proposant des sessions de formations sur PostgreSQL / PostGIS depuis plus de 10 ans. Avoir les compétences en interne a toujours été un choix de l’organisme pour garder de l’expertise au sein de l’équipe SIG.

      Les sessions de formations ont lieu annuellement et se divisent en 2 parties.

      La première pour des débutants ayant peu ou jamais touché aux notions de bases de données spatiales. L’enjeu est important ici, comme pour toutes formations débutants, en plus de donner les bases de compréhension, il faut arriver à motiver les utilisateurs et leur démontrer l’intérêt de la chose.
      La seconde, pour des utilisateurs déjà expérimentés, permet d’approfondir leurs connaissances et elle est souvent données à la carte: les participants choisissent le programme et viennent souvent avec des questions très précises.

      Avoir la compétence en interne permet le lien avec notre assistance en parallèle. La bonne communication est primordiale, et parler le même langage est forcément un atout. L’assistance permet aussi à Bruxelles Environnement d’être aidé pour la mise en place en production de points abordés en formation et d’approfondir des utilisations avancées.

    • sur Mon premier réseau de neurones

      Publié: 17 June 2024, 10:17am CEST par admin

      Pour mieux comprendre l’article sur les réseaux de neurones, cette semaine nous vous proposons de coder un petit réseau de neurones de façon à mieux comprendre ce que sont les poids, le feed forward et les autres notions introduites dans l’article précédent.

      Nous allons réaliser un réseau de neurones à 1 neurone et essayer de lui faire prédire des données placées sur une droite. Cet exercice est trivial, on peut le résoudre sans utiliser d’IA mais restons un peu humble pour commencer.

      Préparation du projet

      Utilisons Jupyter qui reste l’outil de prédilection pour tester et développer une IA.

      # On crée un environnement virtuelle python, et on l'active
      python3 -m venv test_ia
      cd test_ia
      . bin/activate
      
      # On installe jupyter et on le lance
      pip install jupyter
      jupyter notebook

      Cette dernière commande ouvrira Jupyter dans votre navigateur.

       

       

       

       

       

       

      Vous pourrez aller dans “File” -> “New” -> “Notebook” pour créer un nouveau fichier et copier/tester notre programme.

      De quoi avons-nous besoin ?

      Numpy, c’est une bibliothèque Python optimisée pour la gestion de listes.

      NB : il y a un point d’exclamation en début de ligne, ce qui signifie que la commande sera lancée dans le shell. Ici elle permettra d’installer les dépendances dans notre environnement virtuel.

      !pip install numpy
      import numpy as np
      
      Requirement already satisfied: numpy in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (1.26.4)

      Pandas, la bibliothèque Python star de la data-science, basée elle-même sur Numpy.

      !pip install pandas
      import pandas as pd
      Requirement already satisfied: pandas in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (2.2.2)
      Requirement already satisfied: numpy>=1.23.2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (1.26.4)
      Requirement already satisfied: python-dateutil>=2.8.2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2.9.0.post0)
      Requirement already satisfied: pytz>=2020.1 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2024.1)
      Requirement already satisfied: tzdata>=2022.7 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from pandas) (2024.1)
      Requirement already satisfied: six>=1.5 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from python-dateutil>=2.8.2->pandas) (1.16.0)
      

      Pytorch, une des principales bibliothèques Python pour faire des réseaux de neurones. Ici on n’installe que la version CPU, la version de base fonctionne avec CUDA, la bibliothèque de calcul scientifique de Nvidia, mais celle-ci prend beaucoup de place sur le disque dur, restons frugaux.

      !pip3 install torch --index-url [https:] 
      import torch
      import torch.nn.functional as F
      Looking in indexes: [https:] 
      Collecting torch
        Downloading [https:] (190.4 MB)
      [2K     [38;2;114;156;31m??????????????????????????????????????[0m [32m190.4/190.4 MB[0m [31m26.4 MB/s[0m eta [36m0:00:00[0mm eta [36m0:00:01[0m[36m0:00:01[0m
      [?25hCollecting filelock
        Downloading [https:] (11 kB)
      Requirement already satisfied: typing-extensions>=4.8.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from torch) (4.12.2)
      Collecting sympy
        Downloading [https:] (5.7 MB)
      [2K     [38;2;114;156;31m????????????????????????????????????????[0m [32m5.7/5.7 MB[0m [31m57.2 MB/s[0m eta [36m0:00:00[0m MB/s[0m eta [36m0:00:01[0m
      [?25hCollecting networkx
        Downloading [https:] (1.6 MB)
      [2K     [38;2;114;156;31m????????????????????????????????????????[0m [32m1.6/1.6 MB[0m [31m58.6 MB/s[0m eta [36m0:00:00[0m
      [?25hRequirement already satisfied: jinja2 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from torch) (3.1.4)
      Collecting fsspec
        Downloading [https:] (170 kB)
      [2K     [38;2;114;156;31m??????????????????????????????????????[0m [32m170.9/170.9 kB[0m [31m18.5 MB/s[0m eta [36m0:00:00[0m
      [?25hRequirement already satisfied: MarkupSafe>=2.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from jinja2->torch) (2.1.5)
      Collecting mpmath>=0.19
        Downloading [https:] (536 kB)
      [2K     [38;2;114;156;31m??????????????????????????????????????[0m [32m536.2/536.2 kB[0m [31m42.9 MB/s[0m eta [36m0:00:00[0m
      [?25hInstalling collected packages: mpmath, sympy, networkx, fsspec, filelock, torch
      Successfully installed filelock-3.13.1 fsspec-2024.2.0 mpmath-1.3.0 networkx-3.2.1 sympy-1.12 torch-2.3.1+cpu
      

      Matplotlib, pour faire de jolis graphiques.

      !pip install matplotlib
      from matplotlib import pyplot as plt
      %matplotlib inline
      Collecting matplotlib
        Downloading matplotlib-3.9.0-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (8.3 MB)
      [2K     [38;2;114;156;31m????????????????????????????????????????[0m [32m8.3/8.3 MB[0m [31m44.0 MB/s[0m eta [36m0:00:00[0mm eta [36m0:00:01[0m0:01[0m:01[0m
      [?25hCollecting contourpy>=1.0.1
        Using cached contourpy-1.2.1-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (306 kB)
      Collecting cycler>=0.10
        Using cached cycler-0.12.1-py3-none-any.whl (8.3 kB)
      Collecting fonttools>=4.22.0
        Downloading fonttools-4.53.0-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (4.9 MB)
      [2K     [38;2;114;156;31m????????????????????????????????????????[0m [32m4.9/4.9 MB[0m [31m57.3 MB/s[0m eta [36m0:00:00[0m31m72.7 MB/s[0m eta [36m0:00:01[0m
      [?25hCollecting kiwisolver>=1.3.1
        Using cached kiwisolver-1.4.5-cp311-cp311-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (1.4 MB)
      Requirement already satisfied: numpy>=1.23 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (1.26.4)
      Requirement already satisfied: packaging>=20.0 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (24.1)
      Collecting pillow>=8
        Using cached pillow-10.3.0-cp311-cp311-manylinux_2_28_x86_64.whl (4.5 MB)
      Collecting pyparsing>=2.3.1
        Using cached pyparsing-3.1.2-py3-none-any.whl (103 kB)
      Requirement already satisfied: python-dateutil>=2.7 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from matplotlib) (2.9.0.post0)
      Requirement already satisfied: six>=1.5 in /home/seba/.local/share/virtualenvs/blog-simple-neural-network-F0Tscko_/lib/python3.11/site-packages (from python-dateutil>=2.7->matplotlib) (1.16.0)
      Installing collected packages: pyparsing, pillow, kiwisolver, fonttools, cycler, contourpy, matplotlib
      Successfully installed contourpy-1.2.1 cycler-0.12.1 fonttools-4.53.0 kiwisolver-1.4.5 matplotlib-3.9.0 pillow-10.3.0 pyparsing-3.1.2
      from random import randint, seed
      
      Création d’un jeu de données simple

      Pour le principe de la démonstration, on va créer un jeu de données parfaitement linéaire f(x) = 2*x

      On pourra contrôler facilement que les prévisions du réseau sont bien sur cette droite.

      data = pd.DataFrame(columns=["x", "y"],
                          data=[(x, x*2) for x in range(10)],
                         )
      data["x"] = data["x"].astype(float)
      data["y"] = data["y"].astype(float)
      
      data.plot.scatter(x="x", y="y")
      <Axes: xlabel='x', ylabel='y'>
      
      data
      Démarrage

      Préparons quelques variables pour le projet. Nous initions aussi le modèle M, si vous voulez tester des évolutions dans le code, relancez cette cellule pour réinitialiser le modèle.

      # On fait en sorte que pytorch tire toujours la même suite de nombres aléatoires
      # Comme ça vous devriez avoir les mêmes résultats que moi.
      torch.manual_seed(1337)
      seed(1337)
      
      # Je crée mon réseau d’un neurone avec une valeur aléatoire
      M = torch.randn((1,1))
      
      # On active le calcul du gradient dans le réseau
      M.requires_grad = True
      print(M)
      
      # On garde une liste de pertes pour plus tard
      losses = list()
      tensor([[-2.0260]], requires_grad=True)
      
      Algorithme général

      Pour que notre réseau apprenne des données, il nous faut une phase de feed forward et une back propagation.

      En quoi ça consiste ?

      Prenons un exemple dans notre jeu de données, la ligne x=9 et y=18.

      # on prend un échantillon
      ix = randint(0, len(data)-1)  # Indice de X
      
      x = data.iloc[ix]["x"]
      y = data.iloc[ix]["y"]
      print(f"{x=},{y=}")
      x=9.0,y=18.0
      

      La phase de feed forward consiste à demander au modèle ce qu’il prévoit comme donnée pour x=9. On utilise l’opérateur “@” qui multiplie des tenseurs.

      X = torch.tensor([x])
      y_prevision = M @ X
      ---------------------------------------------------------------------------
      
      RuntimeError                              Traceback (most recent call last)
      
      Cell In[10], line 2
            1 X = torch.tensor([x])
      ----> 2 y_prevision = M @ X
      
      
      RuntimeError: expected scalar type Float but found Double
      

      Ah oui, Numpy convertit notre Float (32bits) en Double (64 bits) en interne. Transformons notre tenseur en Float dans ce cas.

      X = torch.tensor([x]).float()
      y_prevision = M @ X
      print(f"{y_prevision=}")
      y_prevision=tensor([-18.2339], grad_fn=<MvBackward0>)
      

      Notre modèle prédit donc “-18.2339”, alors que notre y vaut 18.

      C’est normal puisque l’on a initialisé notre modèle avec des valeurs complètement aléatoires.

      Il nous faut donc corriger notre modèle, mais d’abord nous allons utiliser une fonction de perte, ici l1_loss pour voir à quel point on se trompe.

      Y = torch.Tensor([y])
      loss = F.l1_loss(y_prevision, Y)
      print("loss", loss.item())
      loss 36.23392868041992
      

      On se trompe de 36 (c’est à dire 18 – 18,23), c’est beaucoup.

      Pour corriger le modèle nous allons faire la phase de back propagation (ou rétro-propagation ou backward pass).

      Nous allons demander à Pytorch de calculer l’impact des poids du modèle dans cette décision. C’est le calcul du gradient. Cette opération, sans être très compliqué car il s’agit de dériver toutes les opérations effectuées, mérite un article à part entière et ne sera pas traitée dans celui-ci.

      # backward pass
      M.grad = None
      loss.backward()
      

      Attention, il faut toujours réinitialiser le gradient avant de lancer le back propagation.

      Maintenant que nous avons un gradient, nous allons mettre à jour notre modèle en y appliquant une fraction de ce tenseur.

      Pourquoi qu’une fraction ? Ici nous avons une fonction linéaire très simple à modéliser. En appliquant le gradient, on corrigerait tout de suite le modèle. Le problème est que, dans la vraie vie, la situation n’est jamais aussi simple. En réalité, les données sont hétérogènes et donc, appliquer le gradient à une donnée améliore le résultat pour celle-ci mais donnerait un très mauvais gradient pour les autres données.

      Nous allons donc appliquer une fraction du gradient et essayer de trouver le meilleur compromis. On pourra déterminer celui-ci grâce à la fonction de perte.

      Nous allons donc appliquer une modification de 0,1 fois le gradient sur notre modèle, ce 0.1 s’appelle le learning rate.

      # update
      lr = 0.1
      M.data += -lr * M.grad
      print(f"{M.grad=}, {M.data=}")
      M.grad=tensor([[-9.]]), M.data=tensor([[-1.1260]])
      

      Nous verrons lors d’un autre article comment choisir le learning rate.

      Voyons ce que ça donne :

      # forward pass
      y_prevision = M @ X
      print(f"{y_prevision=}")
      y_prevision=tensor([-10.1339], grad_fn=<MvBackward0>)
      

      Pas si mal, on passe de -18 à -10. Ça reste très mauvais mais on n’a exécuté qu’une seule fois notre cycle feed forward / back propagation.

      Faisons en sorte d’appeler plusieurs fois notre algorithme.

      for i in range(1000):
          # on prend un échantillon
          ix = randint(0, len(data)-1)
          
          x = data.iloc[ix]["x"]
          y = data.iloc[ix]["y"]
          
          # forward pass
          y_prevision = M @ torch.tensor([x]).float()
          loss = F.l1_loss(y_prevision, torch.Tensor([y]))
      
          # backward pass
          M.grad = None
          loss.backward()
      
          # update
          lr = 0.01
          M.data += -lr * M.grad
      
          # stats
          losses.append(loss.item())
      

      Voyons ce que donne notre prévision dans un graphique. En rouge les points de données, en bleu la courbe de prévision.

      ax = data.plot.scatter(x="x", y="y", color="red")
      prevision = pd.DataFrame(np.arange(10), columns=["x"])
      m = M.detach()
      prevision["y_prevision"] = prevision["x"].apply(lambda x: (m @ torch.tensor([float(x)]))[0].numpy()) #torch.tensor([4.])
      prevision.plot(y="y_prevision", ax=ax, x="x")
      <Axes: xlabel='x', ylabel='y'>
      

      Et si nous sortons du cadre des données avec un X de 2000 ?

      m @ torch.tensor([float(2000)])
      tensor([4028.0156])
      

      Pas mal, on devrait avoir 4000 mais c’est déjà mieux.

      Et par rapport à nos données de base ?

      prevision

      Bon, que ce passe-t-il ? Regardons un peu l’évolution de notre perte en fonction des itérations ?

      pd.DataFrame(losses, columns=["loss"]).plot()
      <Axes: >

      On voit que les pertes sont importantes pendant 100 itérations et ensuite elles se stabilisent un peu entre 0 et 0.8.

      Est-ce qu’on peut améliorer ça ? Oui très facilement, nous verrons cela ensemble lors d’un prochain article.

      Conclusion

      Nous avons appris comment créer un modèle et faire un apprentissage avec les phases de feed forward et back propagation. Ensuite nous avons vu que le learning rate et gradient permettent de corriger le modèle petit à petit. En faisant quelques centaines d’itérations nous avons un bon modèle de régression.

      J’espère que cette petite introduction vous a donné envie d’aller plus loin.

      Rédacteur : Sébastien Da Rocha

    • sur 24×36.art : Plan de lutte contre les discriminations

      Publié: 17 June 2024, 12:08am CEST par Françoise Bahoken

      Cette affiche a été créée et postée sur le site 24×36.art en réponse à l’appel de soutien du Nouveau Front Populaire 2024, pour illustrer une section du programme.

       

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur 24×36.art : Liberté, circulation, migrations internationales

      Publié: 16 June 2024, 4:44pm CEST par Françoise Bahoken

      Cette affiche a été créée et postée sur le site 24×36.art en réponse à l’appel de Geoffrey Dorne et mathias_rabiot pour soutenir le Nouveau Front Populaire 2024.

      Données utilisées pour la cartographie des routes internationales mondiales.
      – fond de carte : naturalearthdata.com
      – projection : projection stéréographique de Gall (adaptée par mes soins).
      – routes : openflights.org/data

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur Soutien cartographique au Nouveau Front populaire

      Publié: 15 June 2024, 7:59pm CEST par Cedric Rossi

      Je ne redirai pas ici pourquoi il est important de se mobiliser contre la montée de l’extrême droite et le risque très réel de sa prise de pouvoir dans quelques semaines. Ni comment, une fois qu’elle est au pouvoir, elle ne le lâche plus.

       

      La carte en densité de points ci-dessus représente un point pour chaque vote (version haute résolution) aux élections européennes de 2024. Si elle est moins anxiogène que la plupart de celles qu’on a pu voir au soir des élections, elle montre quand même la prédominance du bleu choisi pour représenter l’extrême droite. Mais tout n’est pas perdu : la carte présente également des points rouges pour les votes de la gauche, elle symbolise l’espoir d’une victoire du Nouveau Front populaire. Elle suggère aussi clairement qu’il est temps que les gauches réinvestissent les espaces ruraux, très monochromes ici.

      Il reste peu de temps pour agir. En tant que cartographe, je pense que c’est à travers les cartes que je peux apporter le plus à cette campagne. J’ai donc décidé d’offrir mes services gratuitement à tous les syndicats, associations, partis, médias de gauche, ou autres, qui soutiennent ou appellent à voter pour le Nouveau Front populaire et qui pourraient avoir besoin de cartographies dans ce contexte.

      Contactez-moi?!

       

      Affiche du Nouveau Front populaire montrant des barbelés avec le message « faire front face aux frontières?»

      Cedric Rossi

      More Posts

      Follow Me:
      TwitterLinkedIn

    • sur Sortie de QField 3.3 « Darién »

      Publié: 14 June 2024, 3:05pm CEST par Vincent Picavet

      Oslandia est le partenaire principal d’OPENGIS.ch pour QField. Nous sommes fiers aujourd’hui de relayer l’annonce de la nouvelle version 3.3 « Darién » de QField. Cette version introduit un tout nouveau framework de plugins qui permet aux utilisateurs de personnaliser et d’ajouter des fonctionnalités complètement nouvelles à leur application de terrain préférée.

       

      Le framework de plugins est accompagné d’autres nouvelles fonctionnalités et améliorations pour cette version, détaillées ci-dessous.

      Les points marquants

      L’une des plus grandes nouveautés de cette version est un tout nouvel outil de dessin qui permet aux utilisateurs d’annoter des détails importants sur des photos capturées ou de prendre des notes sur des modèles de dessin. Cette fonctionnalité, très demandée, est désormais disponible sur toutes les plateformes prises en charge (Android, iOS, Windows, macOS et, bien sûr, Linux) grâce au soutien financier du groupe d’utilisateurs QGIS suisse.

      Cette version inclut également la prise en charge du copier-coller de features vectorielles dans et depuis le presse-papiers. Cela est utile de plusieurs manières, offrant un moyen rapide et facile de transférer des attributs d’une fonctionnalité à une autre via des noms de champs correspondants ou de coller les détails d’une fonctionnalité capturée sur le terrain dans une application de messagerie tierce, de traitement de texte ou de courrier électronique. Le copier-coller de features peuvent se faire via le menu du formulaire des features, ainsi que par un appui long sur la carte. De plus, un nouveau raccourci de transfert d’attributs de feature à feature a également été ajouté au menu du formulaire de feature. Remerciements au canton Suisse de Lucerne, Environnement et Énergie pour le financement de cette fonctionnalité.

      Also landing in this version is support for copying and pasting vector features into and from the clipboard. This comes in handy in multiple ways, from providing a quick and easy way to transfer attributes from one feature to another through matching field names to pasting the details of a captured feature in the field into a third-party messenger, word editing, or email application. Copying and pasting features can be done through the feature form’s menu as well as long pressed over the map canvas. Moreover, a new feature-to-feature attributes transfer shortcut has also been added to the feature form’s menu. Appreciation to Switzerland, Canton of Lucerne, Environment and Energy for providing the funds for this feature.

      Le formulaire de feature continue de gagner en fonctionnalités ; dans cette version, le widget de l’éditeur de carte de valeurs du formulaire de features a gagné une nouvelle interface de bouton qui peut accélère la saisie des données. L’interface remplace la boîte combo traditionnelle par une série de boutons-bascule, réduisant le nombre de clics nécessaires pour choisir une valeur. L’Institut archéologique allemand – KulturGutRetter a parrainé cette fonctionnalité.

      D’autres améliorations du formulaire de fonctionnalité incluent la prise en charge du regroupement des éléments de relation de valeurs et le respect du paramètre « réutiliser la dernière valeur entrée » des attributs de la couche vectorielle.

       

      Enfin, des fonctionnalités supplémentaires incluent la prise en charge de la superposition de décorations d’images, une nouvelle interface pour basculer entre les caméras (avant, arrière et dispositifs externes) pour la caméra « non native », la possibilité de désactiver le geste de rotation de la carte à trois doigts, et bien plus encore.

      Améliorations d’interface utilisateur

      Les utilisateurs de longue date de QField remarqueront le nouveau style des panneaux d’information tels que le positionnement GNSS, la navigation, le profil d’élévation et les données des capteurs. Les informations sont désormais présentées sous forme de superposition sur la carte, ce qui augmente la visibilité de la carte tout en améliorant la mise en avant et la clarté des détails fournis. Avec cette nouvelle version, tous les détails, y compris l’altitude et la distance jusqu’à la destination, respectent le type d’unité de distance configuré par l’utilisateur dans le projet.

      La légende du tableau de bord a également reçu de l’attention. Vous pouvez désormais basculer la visibilité de n’importe quelle couche via un simple clic sur une nouvelle icône en forme d’œil située dans l’arbre de la légende. De même, les groupes de légendes peuvent être développés et réduits directement dans l’arbre. Cela vous permet également de montrer ou de masquer des couches tout en numérisant une fonctionnalité, ce qui n’était pas possible jusqu’à présent. Le développement de ces améliorations a été soutenu par Gispo et parrainé par le Service national du cadastre de Finlande.

      The dashboard’s legend has also received some attention. You can now toggle the visibility of any layer via a quick tap on a new eye icon sitting in the legend tree itself. Similarly, legend groups can be expanded and collapsed directly for the tree. This also permits you to show or hide layers while digitizing a feature, something which was not possible until now. The development of these improvements was supported by Gispo and sponsored by the National Land Survey of Finland.

      Framework de plugins

      QField 3.3 introduit un tout nouveau framework de plugins utilisant le puissant moteur QML et JavaScript de Qt. Avec quelques lignes de code, des plugins peuvent être écrits pour ajuster le comportement de QField et ajouter de nouvelles fonctionnalités. Deux types de plugins sont possibles : des plugins au niveau de l’application ainsi que des plugins spécifiques au  projet. Pour assurer une facilité maximale de déploiement, la distribution des plugins a été rendue possible via QFieldCloud ! Amsa a fourni la contribution financière qui a permis de réaliser ce projet.

      Notre partenaire OPENGIS.ch proposera bientôt un webinaire pour découvrir comment les plugins QField peuvent améliorer vos workflows de terrain (et votre activité au sens large) en vous permettant d’être encore plus efficace sur le terrain.

      Les utilisateurs intéressés par la création de plugins ou une meilleure compréhension du framework peuvent déjà visiter la page de documentation dédiée et un exemple d’implémentation de plugin intégrant une prévision météorologique.

      Vous avez des questions sur QField ? Intéressés par sa mise en œuvre, n’hésitez pas à contacter Oslandia !

       

    • sur [1’Tech by Oslandia] télétravail

      Publié: 14 June 2024, 6:48am CEST par Caroline Chanlon

      On sort un peu de la minute Tech pour évoquer un « mot » qui nous implique particulièrement chez Oslandia. Alors essayons de donner notre meilleure définition du télétravail !

      Le télétravail est une méthode de travail s’affranchissant de la proximité géographique des collaborateurs.

      Quels avantages au télétravail ?
      • la fin des temps de trajet domicile-travail : un meilleur confort personnel, un bilan carbone fortement réduit
      • une flexibilité accrue dans la gestion de son temps et l’organisation au quotidien
      • des recrutements plus libres et plus faciles
      • une communication et des process organisationnels nécessairement structurés
      • l’efficience du travail asynchrone

      Le télétravail n’est pas un problème en soi, mais c’est souvent un catalyseur de problèmes : chaque difficulté rencontrée peut prendre beaucoup plus d’importance et de criticité en distanciel. Cela oblige à traiter les problèmes à la racine, et ne pas les mettre « sous le tapis » en se disant qu’on les résoudra à la machine à café ! Cela crée un environnement d’entreprise plus sain et plus égalitaire.

      Oslandia baigne dans la culture OpenSource, où le développement logiciel s’effectue par nature de façon distribuée, mondiale, et à distance. Nous avons donc ainsi un fonctionnement interne cohérent avec l’objet de notre activité, et nous nous inspirons des fonctionnements des communautés opensource pour le fonctionnement de l’entreprise.

      Les ingrédients clé d’un télétravail durable, efficient et agréable :
      • un travail qui a du sens, facteur de motivation
      • des postes de travail au domicile adaptés et confortables
      • l’accompagnement RH et psychosocial des collaborateurs
      • des process de fonctionnement et de communication clairs et partagés
      • la culture de l’écrit, et les outils adaptés
      • des rendez-vous réguliers pour se rencontrer de visu

      Oslandia fonctionne en 100% télétravail, et cela depuis sa création il y a 15 ans ! L’équipe est répartie dans la France entière, nos clients aussi, et même à l’international. Nous livrons de beaux projets par nos compétences techniques, mais aussi grâce à notre structure organisationnelle.

    • sur Eurométropole de Strasbourg : une plateforme facilitant le partage et la diffusion interne des données géographiques

      Publié: 13 June 2024, 7:16am CEST par Caroline Chanlon

      L’Eurométropole de Strasbourg a fait appel à Oslandia pour se doter d’une plateforme intranet de nouvelle génération facilitant le partage et la diffusion interne des données géographiques.

      Ce projet bien que porté par un seul service est à destination de l’ensemble de la collectivité.

      De nombreuses données géographiques produites par les géomaticiens n’étaient accessibles que par des clients lourds ayant une interface relativement complexe qui bridait leur utilisation aux personnes initiées.
      De plus la publication des projets QGIS sur la plateforme web nécessitait plusieurs étapes de conversion et vérification.

      Le projet avait donc pour but de simplifier la publication et de populariser l’accès aux données géographiques du SIG au travers de la mise en œuvre d’outils simples d’utilisation, intuitifs, performants et Open Source.

      De plus afin de respecter les normes de sécurité de l’Eurométropole et d’être transparent pour les utilisateurs, la solution recherchée doit être compatible avec le système d’authentification et de gestion de droits de la collectivité.

      Nous avons répondu à cette demande en utilisant et interfaçant plusieurs briques Open Source : QGIS Server, QGIS Web Client 2 (QWC2), Geonetwork, Map proxy et Keycloak.

      Interfaçage des différentes briques OpenSource : QGUS Server, QWC, Geonetwork, Keycloak et PostgreSQL

      Cyle de vie de la donnée

      Le besoin initial de l’Eurométropole était d’avoir un cycle de vie complet allant de la création à la diffusion en passant par le référencement de leurs données géographiques.

      Tout d’abord, les données sont créées depuis le logiciel QGIS Desktop dans une base de données PostgreSQL/PostGIS.

      Pour chaque groupe de données thématique, il est nécessaire de produire une fiche de métadonnée dans le géocataloque de l’EMS (Geonetwork), un fichier .qlr afin de pouvoir charger ces données de manière simple dans QGIS Desktop, un projet qgis pour la diffusion dans la plateforme web (QGIS Server/QWC2).

      creation -> Metadonnée -> publication

      Connexion et sécurité

      Afin de gérer les droits d’accès aux données ainsi qu’aux applications, l’EMS possède un SSO Kerberos basé sur un annuaire AD.

      Durant l’ensemble du projet, la sécurité a été un point majeur afin que ce SSO puisse être intégré dans chaque étapes du cycle de vie de la donnée.

      Tout d’abord l’ensemble des groupes de la base PostgreSQL sont synchronisés avec l’annuaire AD, afin de sécuriser l’accès direct à la donnée.

      Ensuite, pour sécuriser la diffusion, un plugin QGIS Server initialement développé par l’EMS a été repris dans le cadre de ce projet. Les droits définis en base de données (et donc dans l’AD) sont pris en compte pour autoriser ou non la lecture des données et leur affichage sur la plateforme Web selon l’utilisateur connecté.

      Finalement, pour l’accès aux applications, une brique KeyCloak a été installée, elle est moins visuelle mais essentielle. Elle permet de ce connecter au SSO Kerberos et de fournir un protocole OpenIDC compatible nativement avec Geonetwork. Pour la plateforme QWC2, un micro-service spécifique a été développé afin de pouvoir récupérer l’authentification fournie par le module OpenIDC d’Apache.

      La diffusion des projets : QGIS Server / Mapproxy

      Qgis Server permet de diffuser sous forme de flux OGC les projets préalablement créés dans QGIS. Il peut en effet servir les projets avec un rendu de style identique à celui paramétré dans QGIS, ces deux logiciels utilisant le même moteur cartographique. Les projets QGIS déjà existants n’ont eu besoin que de changements mineurs pour pouvoir être servis par QGIS Server et obtenir le même rendu que celui obtenu dans QGIS Desktop.

      Certains fonds de plan sont très utilisés et par définition assez lourd au chargement. Pour une meilleure expérience utilisateur, surtout sur un navigateur web, il ne faut pas que la carte mette trop longtemps à charger. C’est pour cela que MapProxy a été mis en place, pour optimiser le chargement de ces fonds de plan en créant un cache paramétré sur plusieurs niveaux de zoom.

      Le visualisateur cartographique web : QGIS Web Client 2

      QGIS Web Client 2 ou QWC2 est le visualisateur web officiel de QGIS. Il est Open Source et maintenu par la communauté QGIS.

      QWC2 a été installé et personnalisé pour correspondre aux besoins du projet. Plusieurs micro-services ont été utilisés et adaptées, notamment l’extension d’administration permettant ainsi à l’EMS d’être autonome dans la publication de nouveaux thèmes (projet QGIS) ou la modification d’existant en les paramétrant à souhait. En effet on peut pour un thème choisir le nom, la vignette miniature pour repésenter le thème, les fonds de plans disponibles mais également les échelles de zoom ou les échelles d’impression de carte ou le type de recherche qui s’active dans la barre de recherche.

      En effet pour l’EMS nous avons configuré plusieurs recherches :

      • Recherche dans la BAN (Base Nationale Adresse) personnalisée de l’EMS
      • Recherche Cadastral (commune, section, parcelle)
      • Recherche dans le géocatalogue GéoNetwork (pour charger les couches ou consulter le catalogue)

      Cette interface d’administration permet également à l’EMS d’organiser les différents thèmes en groupes pour correspondre aux thématiques des données ou à un classement par équipe de travail; et de rendre accessible de nouveaux fonds de plan.

      Dans certains projets QGIS, des composeurs d’impression sont disponibles. Ces composeurs sont également disponibles dans l’interface Web QWC2 avec des champs personnalisables au moment de l’impression, comme le titre de la carte par exemple.

      Les cartes chargées dans QWC2 ne sont pas figées. En effet l’utilisateur peut personnaliser son visuel de plusieurs manières :

      • Modifier le fond de plan chargé par défaut
      • Cocher et décocher des couches comme dans QGIS
      • Charger quelques couches ou la totalité des couches en provenance d’un autre projet
      • Ajouter des couches en provenance du GeoNetwork EMS grâce à un développement spécifique Oslandia
      • Ajouter des couches en provenance d’un web service externe ou un fichier local de son ordinateur

      Les utilisateurs ont également la possibilité de “dessiner” sur la carte ou d’ajouter des étiquettes pour compléter les informations ou prendre des notes rapidement.

      Toutes ces annotations sont enregistrables via un marque-page et partageables en générant et conservant un permalien.

      Le catalogue de données géographiques : Geonetwork

      Le géocatalogue de l’EMS a été paramétré et modifié afin de répondre à leur besoin. En effet, Geonetwork possède une interface cartographique par défaut. Afin d’intégrer complètement le géocataloque dans le projet, cette interface à été remplacé par la plateforme web QWC2.

      Ce couplage avec QWC2 permet également de faciliter l’ajout des couches du Géocatalogue à une carte déjà ouverte dans la visionneuse.

      Contributions

      Durant cette prestation toutes les évolutions/correctifs qui n’étaient pas spécifiques à l’EMS ont été reversées à la communauté (25 Pull Request et 6 composants modifiés). Travailler avec nous c’est également travailler pour la communauté QGIS.

      L’EMS a même eu envie de participer à l’effort collectif en se lançant dans la contribution opensource et réalisé certaines contributions pendant le projet :

      • Ajout du support XYZ dans l’interface d’admin
      • Ajout de l’option pour paramétrer l’infobulle activé par défaut dans l’ajout de projet depuis l’interface d’administrace.
      • Ajout de l’option dans l’interface d’administration pour choisir si l’on veut que le rendu sur notre projet s’effectue de manière tuilé ou non.
      • Ajout du support de la gestion du type Enum de postgres dans la génération des formulaires

      Si la description de ce projet vous a donné des idées, n’hésitez pas à nous contacter, nous pourrons parler avec vous de vos projets.

    • sur NEOGEO et SOGEFI allient leur catalogue de données et leur SIG pour les besoins de leurs utilisateurs

      Publié: 11 June 2024, 9:41am CEST par Géraldine FAYOLLE

      Une solution mutualisée donnant une gamme complète d’outils pour répondre aux besoins cartographiques des acteurs publics.

      Chez NEOGEO, nous avons décidé de nous associer à SOGEFI pour offrir à nos utilisateurs toute la puissance des données. Grâce à cette collaboration, la plateforme OneGeo Suite de NEOGEO est enrichie par les applications métier Mon Territoire de SOGEFI.

      Ensemble, nous proposons une solution mutualisée qui fournit une gamme complète d’outils adaptés aux besoins des administrateurs, des gestionnaires de données, des services techniques, des élus et du grand public.

       

       

      Une réponse adaptée à chaque usage cartographique !

       

       

      La combinaison de nos deux solutions offre une réponse précise et adaptée aux divers acteurs d’un territoire. Elle repose sur un socle commun robuste solide, structuré et évolutif centré sur les données, ce qui permet de créer un cycle vertueux de gestion de la donnée pour l’ensemble des acteurs de la structure, au bénéfice de leur territoire. Le développement de nos solutions respectives est axé sur l’expérience utilisateur, chaque outil étant conçu pour répondre aux besoins spécifiques des différents profils d’acteurs impliqués.

      OneGeo Suite propose aux administrateurs une gamme de modules pour gérer les référentiels métiers et satisfaire aux exigences de publication et de partage des données Open Data. OGS valorise ces données grâce à des modes de publication et de reporting (Dataviz) adaptés aux besoins des utilisateurs et de leurs publics, qu’il s’agisse de partenaires ou du grand public. Avec son module Explorer pour la recherche et la consultation intuitive des jeux de données, son module Maps pour les fonctionnalités cartographiques avancées, et son module Portal pour un portail collaboratif, OneGeo Suite offre une solution complète et innovante. Cette suite est fondée sur des principes de mutualisation et de co-construction d’outils open source.

      Mon Territoire propose une gamme complète d’outils métiers prêts à l’emploi pour les services techniques et les collectivités. Couvrant de nombreuses compétences, la gamme Mon Territoire utilise une sélection de données Open Data pour assister les agents responsables de l’urbanisme, de l’habitat, des réseaux, de la voirie et du développement économique.

       

      Schéma décrivant les usages et les rôles au travers des applications fusionnées OneGeo Suite et Mon Territoire

       

       

       

      Un choix stratégique pour nos entreprises, une décision évidente pour nos clients

       

       

      Laurent Mer – directeur général de NEOGEO

       

      « La gamme d’outils clé en main proposée par SOGEFI permet de compléter notre solution OneGeo Suite de catalogage et de diffusion de données par des modules métiers opérationnels directement accessibles aux utilisateurs de la plateforme.L’interopérabilité des deux solutions permet de mutualiser l’accès aux référentiels cartographiques et aux bases de données métier et le partage des droits sur les différents jeux de données offre la possibilité de définir une véritable stratégie de gouvernance des données. Enfin l’accès aux API Opendata proposées par SOGEFI et alimentées en temps réel permet d’enrichir l’offre de référentiels proposés dans le catalogue de données mis à disposition ».

       

       

      Mathilde de Sulzer Wart – directrice générale de SOGEFI

       

       

       

      « OneGeo Suite est la réponse idéale pour les structures départementales et régionales qui disposent d’un socle important de données. Les administrateurs de ces dernières disposent alors de tous les outils pour gérer ces importants volumes de données du catalogage à sa publication pour ses adhérents. OneGeo Suite, plateforme complètement Open Source, est totalement interopérable avec notre gamme Mon Territoire, elle apporte une vraie valeur ajoutée pour la diffusion et la valorisation de l’ensemble des données ainsi consolidées au fil du temps par les services et permet à l’IDG la mise en place d’un cycle vertueux de l’information pour l’ensemble de ces acteurs. »

      L’un des avantages de notre collaboration est de pouvoir déployer rapidement des solutions prêtes à l’emploi grâce à un accompagnement spécifique par métiers et compétences. Une équipe pluridisciplinaire est mobilisée pour le déploiement de notre offre commune et le planning établi peut mobiliser différentes équipes en parallèle pour le bon avancement du projet. Chacun sur son métier, NEOGEO et SOGEFI ont à cœur de vous accompagner et de vous conseiller sur vos problématiques. Chacun mène une veille permanente sur l’Opendata ainsi que sur les technologies du domaine et vous propose de vous en faire bénéficier au travers des solutions et des services que nous mettons en place depuis plusieurs années. Construit autour de communautés d’utilisateurs, nos deux solutions sont reconnues sur le marché depuis de nombreuses années, elles sont au service de nombreux usagers qui nous font part de leurs besoins d’évolution et idées pour les versions à venir notamment au travers d’espace d’échanges dédiés (forum, page web dédié…). Ces remontées d’informations sont précieuses pour nos équipes afin de définir les feuilles de route de nos produits.

       

       

      Ce sont bien les produits qui s’adaptent aux besoins des utilisateurs et non les utilisateurs qui s’adaptent au produit.

       

       

       

      Le meilleur des arguments, le témoignage de nos clients

       

       

      « Les outils métiers de SOGEFI sont tout à fait en adéquation avec les besoins et les usages des collectivités de toutes tailles dans leurs tâches du quotidien. Les partenariats existants avec Géofoncier sont un vrai plus pour les secrétaires de mairie. Nous pouvons également répondre aux besoins des services techniques des collectivités, des syndicats des eaux, d’assainissement. Les solution OneGeo Suite va nous permettre de maitriser nos données et de les mettre à disposition de nos utilisateurs et partenaires de manière simple et structurée (flux, datavisualisation, carte Web).? Le tout parfaitement intégré à notre SI et répondant à nos exigences en termes d’administration des comptes utilisateurs et des droits sur les données. »

      Guillaume MALATERRE, directeur Adjoint à l’Informatique et responsable du pôle Gouvernance et Exploitation des Données du SIDEC

       

       

      « Depuis une douzaine d’année, la plateforme territoriale Guyane-SIG favorise l’accessibilité des données spatiales et la démocratisation de leurs usages sur la Guyane. En 2020, la Collectivité Territoriale de Guyane a initié un travail de modernisation de l’ensemble des composants fonctionnels en deux étapes :

          • Nous avions besoins d’un outil performant pour proposer une lecture facilitée de l’information foncière pour l’ensemble de nos partenaires. Les attentes étaient fortes et avec Mon Territoire Carto, nous avons pu bénéficier rapidement d’un outil ergonomique mobilisant de nombreuses données en Opendata que nous avons pu compléter par des productions endogènes.

         

        • Puis les efforts se sont portés sur les outils collaboratifs de partage et de valorisation des données dans le respect des standards. Avec la suite OneGeo, nos partenaires peuvent désormais publier en quelques clics leurs données.

      L’accompagnement nous permet également de proposer régulièrement à nos partenaires des webinaires de présentation des évolutions fonctionnelles. 

      Boris RUELLE, responsable Service de l’Information Géographique de la collectivité territoriale de Guyane

       

       

       

      Le partenariat Neogeo et Sogefi qui a commencé avec le projet Géofoncier, le portail de l’Ordre des Géomètres-Experts

       

       

       

      NEOGEO et SOGEFI sont ravis de poursuivre et renforcer leur partenariat déjà éprouvé depuis plusieurs années auprès du Portail Géofoncier. Ce portail porté par l’Ordre des Géomètres-Expert est aujourd’hui une référence nationale dans la valorisation de l’information foncière. L’ambition portée par Géofoncier a su s’appuyer sur la complémentarité des expertises de chacun. Les différents projets ont nécessité un travail de coordination et d’enrichissement mutuel des pratiques et technologies mobilisées par les deux sociétés dans un objectif commun. Nos équipes se connaissent, elles ont l’habitude de travailler ensemble et savent mobiliser les ressources en interne pour assurer une couverture élargie des compétences nécessaires aux projets.

       

      « Depuis de nombreuses années, NEOGEO et SOGEFI sont nos partenaires privilégiés chez Géofoncier. Leurs expertises complémentaires et incontestées dans le domaine de la diffusion et de la valorisation de la donnée cartographique, associée à leurs écoutes attentives de nos besoins, font de NEOGEO et SOGEFI un groupement pertinent et essentiel à notre réussite. Leur engagement fort au quotidien à fournir en concertation des solutions complètes et pérennes ont grandement contribué au succès de Géofoncier. Nous sommes reconnaissants de pouvoir compter sur ces équipes d’experts aussi fiables et compétentes pour nous accompagner dans notre croissance continue.

      NEOGEO possède une expertise avérée dans la mise en œuvre de solutions innovantes de partage, de valorisation et de visualisation de données géographiques auprès d’un large public. NEOGEO développe et met en place depuis sa création en 2008 des infrastructures de données géographiques et des plateformes open-source. NEOGEO a intégré en 2022 le groupe Geofit (leader français dans l’acquisition de données spatiales), permettant ainsi de renforcer ses compétences (équipe de 40 collaborateurs) et ses références (une cinquantaine de plateformes cartographiques majeures déployées en France et à l’étranger). C’est aussi la fusion des savoirs faires technologiques des deux structures qui a permis de donner le jour à la solution OneGeo Suite.

      SOGEFI, expert de la data et du webmapping depuis 33 ans propose des solutions pour la gestion et l’exploitation de données par la cartographie. La gamme Mon Territoire est réservée aux collectivités pour la gestion par métier de leur territoire. SOGEFI place l’utilisateur au cœur de ses réflexions et de sa feuille de route et son expertise de la donnée lui permet de proposer des exploitations poussées de la donnée au sein de ses applications. La société équipe aujourd’hui plus de 1000 collectivités et entreprises avec ses solutions web-SIG cadastre, urbanisme, réseaux et voirie. Elle accompagne également le portail Géofoncier sur son expertise de la donnée par la mise à disposition de ses API. »

      Patrick Bezard-Falgas, Directeur général de Géofoncier

       

       

      Pour en savoir plus contactez-nous !

       

    • sur Cartes et graphiques sur les élections européennes de 2024

      Publié: 10 June 2024, 6:14pm CEST

      La participation aux élections européennes du 9 juin 2024 a atteint le score le plus élevé depuis 1994 en mobilisant 51,5% des Français (ce qui reste néanmoins modeste en comparaison d'autres élections). Au niveau national, la liste du Rassemblement national menée par Jordan Bardella arrive largement en tête avec 31,4 % des votes exprimés. Loin derrière, la liste Renaissance de Valérie Hayer est à 14,6 %, suivie de celle de Place publique - Parti Socialiste menée par Raphaël Glucksmann avec 13,8 %. Après le trio de tête, la liste LFI menée par Manon Aubry, 9,9 % des voix, ne franchit finalement pas la barre des 10 %. Les Républicains et leur tête de liste François-Xavier Bellamy atteignent 7,2 % devant la liste Les Ecologistes de Marie Toussaint qui dépasse de peu les 5 %, avec 5,5 %. Le même score (5,5 %) est enregistré par la liste Reconquête menée par Marion Maréchal.
      Les résultats des élections européennes du 9 juin 2024 sont accessibles sur le site Data.gouv.fr. Les données sont disponibles par départements, cantons, communes et même bureaux de vote. Dans la perspective des élections législatives du 30 juin et 7 juillet 2024, les données ont été mises à disposition également par circonscriptions. Ce qui permet de faire des simulations avec toutes les précautions d'usage à prendre étant donné les différences de scrutin, d'enjeux politiques, de taux de participation entre les deux types d'élections. L'équipe Data.gouv.fr propose un jeu de données qui agrège l'ensemble des résultats des élections publiés par le Ministère de l'Intérieur de 1999 à 2024. Il est possible également d'utiliser le croisement des données démographiques INSEE 2020 au niveau IRIS avec les résultats des élections européennes 2024.

      I) La carte du parti en tête en France et dans les autres pays de l'UE

      La comparaison cartographique avec les résultats des Européennes de 2019 montre une explosion sans précédent du Rassemblement national. En 2024, la liste menée par Jordan Bardella est en première place dans tous les départements français à l’exception de Paris (PS) et de sa petite couronne — Val-de-Marne (LFI), Hauts-de-Seine (LREM) et Seine-Saint-Denis (LFI). Sur 96 départements, le RN en prend 92.

      La plupart des médias ont choisi de présenter une carte du parti en tête, ce qui accentue l'impression que la France a connu une "vague brune". De nombreux internautes ont réagi en évoquant une forme d’angoisse ou de peur face à ce type de carte. Il convient de rappeler que ce sont les populations qui votent et non les territoires. Comme le rappelle Jean Rivière, « il faut vraiment arrêter avec ces cartes de la liste en tête (même dans la maille communale). Elles sont pauvres, dramatisent les clivages socio-géographiques, et poussent à une lecture en terme de fractures ».

      « Résultats élections européennes : cette carte anxiogène a beaucoup circulé, comment la comprendre » (HuffPost)

      Quelle couleur pour le Rassemblement national sur les cartes ? J'ai fait un tour ce matin sur9 des sites d'info français les plus lus en France.

      Le Monde a choisi le marron, le Figaro est sur du violet. Les autres sont dans des nuances de bleu foncé (voire clair, pour Marianne) pic.twitter.com/6NYysYHknx

      — Marie Turcan (@TurcanMarie) June 10, 2024

      Depuis quand le #RN est en bleu sur les cartes électorales et non en brun?
      Ce sont ces petits détails symboliques qui participent à la banalisation et leuphemisation de sa radicalité. pic.twitter.com/uNu44RKBJ0

      — cecile alduy (@cecilealduy) June 15, 2024

      Le Monde fournit une carte interactive par aplats. Libération donne aussi une carte des résulats par communes mais avec des cercles proportionnels au nombre de suffrages, ce qui permet de relativiser quelque peu. Les métropoles et leur couronne semblent constituer un rempart face au RN. En cliquant sur ces cartes interactives, on peut afficher le détail des votes, de manière à aller au delà du premier parti en tête.

      Carte interactive des résultats par commune (source : Libération)

      Ouest-France fournit une carte de comparaison visuelle pour montrer la disparition du macronisme entre 2019 et 2024. 

      En contraste avec les cartes que l'on trouve dans les médias, Cédric Rossi a élaboré une carte des résultats aux élections européennes 2024 redimmensionnés par rapport au nombre d'inscrits (inspiré de Kenneth Field et de ses travaux sur la cartographie des élections américaines). Voir également sa carte en mode points regroupant gauche, centre et droite et extrême-droite (1 point = 1 votant) ainsi que sa carte choroplèthe des bureaux de vote (à comparer à la cartographie par densité de points proposée par Julien Gaffuri).

      Résultats aux élections européennes 2024 en France métroplitaine (source : Cédric Rossi)

      Karim Douïeb a repris la carte par aplats du parti en tête par communes proposé par le Monde pour élaborer, avec le même code couleurs, une carte par cercles proportionnels (même procédé pour la Belgique). Même rapporté à l'importance des votants, le cartogramme maintient un biais d'analyse dès lors que l'on ne voit que le parti arrivé en tête. 

      Here are the static maps with legend pic.twitter.com/29SZrrSePz

      — Karim Douïeb (@karim_douieb) June 12, 2024

      «  Méfiez-vous des cartes … électorales » par Françoise Bahoken et Nicolas Lambert (Néocarto). Les cartes produites ont été explicites : des images teintées de bleu ou de brun qui semblent démontrer que l’arrivée de Jordan Bardella à Matignon n’est plus qu’une question de temps. Ces images cartographiques reflètent-elles vraiment le rapport de force qui s’instaura entre les formations politiques françaises, dans la perspective des élections législatives ?

      Claude Grasland proposze une cartographie citoyenne des résultats à l’échelle infra-communale afin de permettre une autre lecture des résultats et d’ouvrir des perspectives inédites pour les militants politiques, les élus locaux et les citoyens en général : « Pour une cartographie citoyenne du vote en Île-de-France » (The Conversation, 24 juin 2024). Application de cartographie interactive pour les circonscriptions d’Île-de-France.

      Eric Mauvière propose d'observer les lignes de force du vote RN aux européennes à travers une cartographie lissée à partir de la grille des communes (Icem7).

      Le Parisien propose une série de cartes thématiques avec deux cartes pour chaque parti de manière à pouvoir analyser son score par commune en 2024 et son évolution par rapport à 2019. En ce qui concerne Paris, on retrouve la forte opposition Est-Ouest. Cl. Graslan propose une application pour analyser plus en détail les résultats à l'échelle de l'Ile-de-France

      Pour chaque parti, on vous a préparé 2 cartes des élections #européennes2024 : le score ce dimanche et l'évolution par rapport à 2019.

      On commence avec la majorité, qui subit une véritable déroute. Elle fait moins bien qu'en 2019 quasiment partout.

      1/n [https:]] pic.twitter.com/6wvV2si2Kf

      — Nicolas Berrod (@nicolasberrod) June 10, 2024

      Les Echos s'en tient à sept cartes pour résumer la géographie du vote à l'échelle des départements (avec la même échelle et la même légende).

      #Europénnes2024
      Sept cartes.
      Même échelle, même légende.

      Dans l'ordre : Abstention, RN, Renaissance, PS, LFI, LR, Verts pic.twitter.com/K5EWJXfYMM

      — Jules Grandin (@JulesGrandin) June 10, 2024

      En Allemagne, les résultats attestent de la persistance de "frontières fantômes", même s'il faut se méfier des cartes de résultats électoraux ne donnant que le parti en tête. Le clivage entre l'Allemagne de l'ouest et l'Allemagne de l'est reste perceptible ainsi que les spécificités de la Bavière avec la CSU : la carte regroupe en noir la droite libérale, en bleu l’AfD. De rares points verts apparaissent pour les écologistes et en rouge les sociaux-démocrates. Ensemble, les trois partis de la coalition d’Olaf Scholz font à peine plus que la CDU-CSU à elle seule. Le Grand Continent montre comment, en cinq ans, l’AfD a conquis tout l’Est de l'Allemagne.

      Nicht die Fläche wählt, sondern die Menschen!

      Für die Darstellung wird jeder Landkreis in einen Punkt umgewandelt, wobei die Größe des Punktes proportional zur Anzahl der Wähler-/innen ist ? das Wahlergebnis wird dadurch besser abgebildet und weniger verzerrt. pic.twitter.com/7I5ojRojF5

      — Christoph Pahmeyer (@chrispahm) June 13, 2024
      La poussée d’extrême droite a été plus spectaculaire en France, mais aussi en Allemagne où l’AFD arrive deuxième. Mais c’est en formant des coalitions dans les pays européens qu’elle a le plus d’influence aujourd’hui et pèse sur les décisions. Le Grand Continent synthétise les résultats par état membre au niveau européen et compare ces résultats au niveau de confiance accordé à l'Union européenne à différentes échelles. Voir également le site de France-Info ou encore celui plus complet d'Europe Elects pour comparer avec d'autres pays de l'Union européenne.
      Malgré la poussée de l'extrême droite en France et en Allemagne, la physionomie du prochain Parlement européen ne sera finalement pas si différente du précédent : les deux coalitions rivales d’extrême droite augmentent leur surface, mais sans renverser la table. Les deux principales formations politiques du Parlement restent le Parti populaire européen (la droite), dont font partie la CDU allemande ou les Républicains français, suivi des socio-démocrates. Leur nombre de sièges varie assez peu. Seul le groupe libéral, dominé par le groupe macroniste, baisse fortement, et l’influence française y sera plus réduite.

      Projection des sièges au Parlement européen 2024 - 2029 d'après le site officiel de l'UE (source :  results.elections.europa.eu/)

      II) Des ressources pour aller plus loin dans l'analyse

      Afin d'avoir une vue détaillée à l'échelle européenne, Le Monde propose un cartogramme représentant les 720 députés européens répartis par pays et par tendance politique (voir également le cartogramme donnant la répartition du nombre de députés d’extrême droite par pays et l'évolution depuis 2019).

      Répartition des députés européens par pays (source : Le Monde)

      Le quotidien allemand Zeit online propose une cartographie détaillée des résultats dans les 83 000 municpalités des 27 pays de l'Union européenne. Par rapport aux élections de 2019, le turquoise des populistes de droite et le bleu des partis d’extrême droite ont augmenté notamment en France, en Autriche, aux Pays-Bas, en République tchèque, en Lettonie et en Allemagne. Dans certains pays, comme la Pologne ou la Suède, leur influence a diminué. Le jaune des libéraux (par exemple en France, en République tchèque, aux Pays-Bas) et le vert des partis écologistes (notamment en Allemagne) sont moins visibles par rapport à 2019. A Bruxelles, les Verts forment un groupe parlementaire avec des partis régionaux (comme le parti régional catalan de gauche ERC), qui sont donc également colorés ici en vert. Dans plusieurs régions, les partis d’extrême gauche ont réalisé des progrès significatifs et, dans certains endroits, ils sont devenus la force politique la plus puissante. Par exemple en Irlande, en Catalogne ou à Chypre.  

      Explorez la carte des résultats électoraux la plus détaillée d'Europe (Zeit online)

      En France, le sondage jour du vote réalisé par IPSOS permet d'en savoir plus sur les clés du scrutin et le profil des électeurs.

      Le taux de  participation aux élections européennes du 9 juin 2024 est le plus élevé depuis 30 ans.


      Plus de la moitié des moins de 35 ans ne sont pas allés voter le 9 juin 2024. Hormis le RN et LFI, aucun parti ne fait plus de 5% chez les jeunes. En faisant apparaître l'abstention au même titre que les autres partis, cela relativise quelque peu les résultats. Compte tenu de l'importance de l'abstention, la tendance aujourd'hui est de représenter les résultats électoraux en part des inscrits et non plus seulement en part des votants (sondage IPSOS).

      « Européennes : âge, revenus, niveau d’études… qui sont les électeurs du Rassemblement national ? » (Le Parisien).

      « Pourquoi les européennes ne sont pas proportionnelles » par Théo Delmazure. Les votes perdus de l'élection européenne avec l'expérience conduite et les explications.

      « La géographie du mécontentement à l’égard de l’UE et le piège du développement régional » par Andrés Rodríguez-Pose, Lewis Dijkstra et Hugo Poelman (Economic Geography). Cette analyse de géographie économique, parue avant les élections, relie la montée de l'euroscepticisme aux régions piégées par le développement.

      Alain Ottenheimer propose sur le site Politiscope une série de cartogrammes permettant de mettre en perspective les résultats des européennes 2024 par rapport aux élections précédentes (comparaison sur la période 1999-2024 à l'échelle des communes françaises). Les grandes villes et leurs couronnes y apparaissent souvent comme des ilots par rapport au reste de la France.

      A méditer ! version interactive élections présidentielles et européennes de 1999 à 2024 (PC only) : [https:]] ...
      @Tls_dataviz pic.twitter.com/LYFUkBxxWK

      — Alain Ottenheimer (@datasensTls) June 14, 2024

      Pour Olivier Bouba-Olga ("Le vote Bardella : un vote rural ?"), la différence rural-urbain dans le vote Bardella est un effet de diplôme et d’âge, bien plus qu’un effet de localisation.

      ? votes aux européennes : observe-t-on des différences entre rural autonome et rural sous influence ? ?1/10 pic.twitter.com/61YlTEUXWf

      — Olivier Bouba-Olga (@obouba) June 15, 2024

      Emmanuel Macron a annoncé le soir même des résultats la dissolution de l'Assemblée nationale. En appelant les Français aux urnes pour les 30 juin et 7 juillet 2024, le Président a suscité la surprise. Cela pourrait déboucher sur une cohabitation avec le Rassemblement national en cas de victoire de ce parti aux élections législatives. En réaction, les partis de gauche en appellent à constituer un "front populaire" face à la montée de l'extrême droite.

      Lien ajouté le 12 juin 2024

      Il fallait que je fasse cette carto.
      C'est surement une de mes dernières grosses carto publiques de Twitter...
      Mais entre les élections / la dissolution / les disputes de chacun pour tirer la couverture, il la fallait ?
      Plus de méthodo dans le thread. pic.twitter.com/9a3ojnhj1V

      — Flef (@FlefGraph) June 10, 2024

      Après vérification, il y a bien une armée de bot faisant de l'astroturfing à propos des élections législatives de 2024.

      Merci à @visibrain de m'avoir fourni plus d'un million de Tweets et RT pour voir ça !

      Des explications en thread, et un lien vers le dossier complet à la fin. [https:]] pic.twitter.com/CpfsxUfDx6

      — Flef (@FlefGraph) June 27, 2024

      Lien ajouté le 14 juin 2024

      Libération s'en tient à une représentation proportionnelle au poids des circonscriptions et en indiquant si le score du RN aux européennes était au dessus ou en dessous de la moyenne nationale. Cela reste malgré tout approximatif [https:]]
      10/ pic.twitter.com/zrlFIXOz5x

      — Sylvain Genevois (@mirbole01) June 14, 2024

      Liens ajoutés le 17 juin 2024

      Implantation du vote RN (en % des votants 2024) par rapport au niveau d'études de la population (diplôme d'enseignement supérieur en 2020)
      2/ pic.twitter.com/hOfGKqLFLQ

      — Sylvain Genevois (@mirbole01) June 17, 2024

      ? Non, le RN n'a pas réalisé de raz-de-marée dans les campagnes !
      C'est le titre d'un article que j'ai co-signé avec Vincent Grimault, qu'Alternatives Economiques vient de publier, vous pouvez le lire ici : [https:]] ?1/5 pic.twitter.com/wB7dd9O7w1

      — Olivier Bouba-Olga (@obouba) June 17, 2024
      Lien ajouté le 19 juin 2024

      Pour une consultation directe sur une carte, voir l'appli développée en open data par @maeool [https:]]
      2/

      — Sylvain Genevois (@mirbole01) June 19, 2024
      Lien ajouté le 25 juin 2024

      Le Grand Continent essaie de déterminer si la mobilisation de l’électorat de la gauche et du centre pourrait affaiblir le RN
      Estimation à partir des flux électoraux du 1er tour des élections présidentielles de 2022 + élections européennes de 2024 [https:]]
      12/ pic.twitter.com/QYD1O8x4qx

      — Sylvain Genevois (@mirbole01) June 18, 2024

      Daniel Breton (Visual Data Flow) propose une série de data-visualisations par région
      Le symbole est proportionnel au nb de voix exprimées par commune. Le demi-disque pour la liste arrivée en 2e est proportionnel au pourcentage de voix de la 1ère liste [https:]]
      14/ pic.twitter.com/AjVbFmh5zE

      — Sylvain Genevois (@mirbole01) June 25, 2024
      Liens ajoutés le 28 juin 2024

      À retrouver sur [https:]]

      — Datagif (@Datagif) June 27, 2024

      ????CARTE DE FRANCE DES SWING-CIRCOS

      Dans quelles circos le scrutin s'annonce-t-il le plus serré ? En croisant les résultats des législatives de 2022 et des européennes, j'ai établi une carte interactive qui donne une idée des rapports de force ? (1/N) [https:]]

      — Tom Jakubowicz (@TomJakubowicz) June 26, 2024

      ??Swing Circos
      ?? Mise à jour de la projection en prenant en compte les derniers sondages [https:]]

      Environ 80 circos indécises vont dépendre des reports de voix/désistements entre le Front Populaire et Ensemble pour savoir si elles basculent ou non au RN

      ?? pic.twitter.com/90qdZJ9zKA

      — Anthony Veyssiere (@inwebitrust) June 28, 2024

      Merci pour cet article! J'ai essayé de faire une carte au niveau des bureau de vote - c'est aussi un joli défi !
      Voir ici: [https:]]

      — Julien Gaffuri @julgaf@mapstodon.space (@julgaf) June 26, 2024

      Le billet est complété au fur et à mesure des cartes et données publiées sur Internet...

      Articles connexes

      Analyser les cartes et les données des élections législatives de juin 2022 en France
      Portraits des circonscriptions législatives en France (2022)
      La carte, objet éminemment politique : exemple des élections européennes

      Les résultats des élections européennes du 26 mai 2019 en cartes et en graphiques
      Recueil de cartes électorales pour les élections européennes de 2019

      Les Européens se sentent-ils plus attachés à l'Union européenne, à leur pays ou à leur région ?
      Cartes et simulateur de votes de l'Observatoire électoral du Grand Continent

      Cartes et données sur l'enseignement et la formation en Europe (source Eurostat)

      Baisse de la part des jeunes dans la population de l’Union européenne d’ici 2050
      Le vieillissement de la population européenne et ses conséquences


    • sur Cartes sur le débarquement en Normandie (6 juin 1944)

      Publié: 8 June 2024, 6:51pm CEST


      L'anniversaire du débarquement en Normandie donne lieu chaque année à une floraison de cartes sur le sujet. Le D-Day est désormais célébré comme un événement historique et patrimonial. L'Anniversaire des 80 ans du Débarquement en 2024 n'a pas dérogé à la règle. Sans prétention à l'exhaustivité, ce billet vient proposer une recension en distinguant les plans et documents cartographiques produits à l'époque et les reconstitutions historiques que l'on peut trouver aujourd'hui sous forme d'infographies ou de cartes animées. Nous y avons ajouté une rubrique concernant les problèmes posés par ces représentations cartographiques et la vigilance à avoir par rapport à des productions qui relèvent souvent plus du sensationnel et de la promotion touristique que de l'information historique et géographique.

      I) Cartes et plans contemporains du débarquement

      Le 6 juin 1944, 156 000 Américains, Britanniques, Canadiens et quelques troupes françaises libres commencent à attaquer les forces allemandes en Normandie (nom de code de l'opération amphibie : Neptune). Les troupes alliées arrivent sur les plages d'Utah, d'Omaha, de Gold, de Juno et de Sword.  Les épais bunkers en béton du Mur de l'Atlantique sont quasiment imprenables. Quelques Allemands armés de mitrailleuses imposent un lourd tribut aux Américains. Il n'y a aucun endroit où se cacher. Les Britanniques, forts de leur expérience à Dieppe en 1942, sont mieux préparés et souffrent un peu moins. Evénement hautement symbolique, le débarquement de Normandie marque le début d'une vaste opération qui vise à créer une tête de pont alliée de grande échelle dans le Nord-Ouest de l'Europe, et à l'ouverture d'un nouveau front à l'ouest.

      La Bibliothèque du Congrès fournit une collection de cartes de situation du 12e groupe d'armée. Cette série de cartes donne un aperçu quotidien des opérations de l'armée américaine depuis le débarquement allié en Normandie le 6 juin 1944 jusqu'en juillet 1945, reflétant les informations dont dispose le général Omar Bradley (Library of Congress). Ces cartes sont disponibles en animation sur le site du Chronoscope.

      Our 12th Army Group Situation Map collection provides insight into WWII US Army operations from the June 6, 1944 Allied landings in Normandy through July 1945, reflecting the information available to Gen. Omar Bradley.

      Explore the full collection here: [https:]] pic.twitter.com/XT7iGKpwZk

      — LOCMaps (@LOCMaps) June 6, 2024

      Le douzième groupe d’armées américain contrôlait la majorité des forces américaines sur le front occidental. Les cartes représentent les positions quotidiennes des troupes alliées et de l'Axe telles que comprises par l'état-major des opérations. Les cartes ont été dressées pendant le brouillard de la guerre et comportaient souvent des informations incomplètes et inexactes. Cependant, elles constituent une source d'informations inestimable sur les mouvements des troupes et un guide important sur la progression des troupes alliées à travers l'Europe occidentale après le jour J et jusqu'à la fin de la Seconde Guerre mondiale. 

      Les bibliothèques de l'Université du Texas possèdent deux cartes secrètes US BIGOT montrant Omaha Beach Est et Ouest. BIGOT était un nom de code pour l'Opération Overlord et la liste BIGOT comprenait les noms de tout le personnel qui avait été autorisé à connaître les détails de l'Opération Overlord. Les informations fournies sur les cartes suggèrent qu'elles ont été réalisées pour aider les navires à débarquer sur Omaha Beach (des cartes ont également été créées pour Utah Beach). Les cartes fournissent des détails sur les profondeurs d'eau, les obstacles de la plage, les laisses de basse mer, les bancs de sable, etc. Elles fournissent également une image panoramique de la plage vue de la mer (Les cartes secrètes du Débarquement par Jules Grandin - Les Echos)

      « 6 juin 1944, débarquement en Normandie : des photographies aériennes du Jour J » (Un regard sur la Terre). Il n'y avait pas encore de satellites d’observation en juin 1944. Mais un grand nombre de photographies aériennes ont été prises avant, pendant et après le jour J.

      « Comment le guide Michelin 1939 en est venu à jouer un rôle crucial pour orienter les Alliés lors du D-Day » (Le Monde). 

      Ce bel hommage en forme de clin d’œil médivaliste à la broderie de Bayeux, a été publié à la Une du New Yorker le 15 juillet 1944 : « Mare navigavit D-day… »

      Le 15 juin 1944, le New-Yorker consacre sa Une au Débarquement avec une illustration médiévaliste : une reprise et actualisation de la broderie (pas tapisserie) de Bayeux ! Petit thread pour décrypter chaque case... ?? ! #histoire #6juin2024 #DDay pic.twitter.com/8HiP5iqXLI

      — Actuel Moyen Âge (@AgeMoyen) June 7, 2024

      En 1946, le maréchal britannique Montgomery publia Normandy to the Baltic, un récit personnel de la campagne de libération de l'Europe, depuis le débarquement en Normandie le jour J jusqu'à la défaite finale de l'Allemagne. Le livre est un compte rendu détaillé des opérations, des batailles, de la logistique de la campagne visant à ouvrir un deuxième front à l'ouest. Ce qui rend ce livre assez original, ce sont les deux pochettes à l'avant et à l'arrière du livre qui contiennent un total de 47 cartes en couleur et 3 diagrammes. Les cartes détaillent la campagne depuis le jour J jusqu'à la fin de la guerre.


      II) Cartes et infographies proposant des reconstitutions historiques

      Légende Cartographie a produit une cartographie animée du débarquement en Normandie qui permet de reconstituer le mouvement des troupes. A découvrir également sous forme de carte statique ainsi qu'une infographie donnant la chronologie détaillée des événements.

      6-7 Le débarquement du 6 juin 1944 - La bataille de Normandie pic.twitter.com/T5KsHq4HtF

      — LegendesCartographie (@LegendesCarto) June 8, 2024

      A l'occasion du 75e anniversaire, Visactu a produit une infographie assez efficace. Les drapeaux des pays engagés viennent souligner l'engagement des pays alliés face à l'Allemagne hitlérienne. La coordination des opérations est renforcée par les flèches jumelées que l'on retrouve sur de nombreuses cartes du débarquement. 

      Il y a 75 ans, le #débarquement en Normandie.

      Notre carte du #JourJ est à découvrir sur le site du quotidien @lestrepublicain : [https:]] #DDay75thAnniversary #DDay pic.twitter.com/yyxCwqwxE7

      — Visactu (@visactu) June 6, 2019

      Série de cartes explicatives sur Dday.Overlord.com. Le site propose un grand nombre de cartes à différentes échelles permettant d'analyser le détail des opérations.

      Sur le site Cartolycée, Jean Christophe Fichet fournit une carte de synthèse Le débarquement du 6 juin 1944 : Overlord, la reconquête. Le chapitre 3 du programme d'Histoire de Terminale générale fixe un point de passage et d’ouverture sur le débarquement du 6 juin 1944 en Normandie et l’opération Bagration en Europe de l'Est. La cartographie s’attache à l’opération Overlord menée par les Alliés sur le front ouest. Elle est complétée par un corpus documentaire qui permet de lier l’étude aux approches plus générales sur cette question telles que l’étendue du conflit ou l’extrême violence et les enjeux de la guerre.

      Rappel cartolycée : le #débarquement du 6 juin 1944 en Normandie - Overlord la reconquête #DDay [https:]] pic.twitter.com/Cb3OWSMY2Q

      — jc fichet (@cartolycee) June 5, 2024

      Traditionnellement les cartes de manuels scolaires montrent les étapes des combats et la coordination des opérations entre Alliés (voir par exemple cette carte indiquant le positionnement des opérations Spring et Cobra dans la Bataille de Normandie). La tendance aujourd'hui est de replacer le débarquement dans le cadre plus large de la libération de l'Europe par les Alliés (voir par exemple la carte du débarquement proposée par le magazine L'Histoire).

      Rhodes Cartography souligne le fait que les cartes de D-Day montrent soit la zone immédiate des débarquements, soit le schéma global de l'opération Overlord, rarement les deux ensemble. Il propose de donner une vue macro et micro en une seule image d'un voyage effectué par un groupe de navires. 

      80 years ago thousands of ships were approaching the French coast. This map shows the 70-hour transit of Convoy U2A(1): left Salcombe 6/3, recalled 6/4 after passing the halfway point, touched at Portland on 6/5, and arrived on H-Hour at Utah Beach 6/6. #DDay80 @USNavy pic.twitter.com/B4t2GIytXO

      — Rhodes Cartography (@RhodesMaps) June 5, 2024

      Timelapse montrant les 87 jours de combat après le débarquement (Reddit). L'animation montre que  les Alliés ont mis beaucoup de temps à progresser au cours des mois de juin et juillet, avant d'arrriver à opérer une percée. 

      80 years ago today, more than 160,000 Allied troops embarked on a historic mission to liberate Europe from tyranny and oppression.

      This excellent map shows 87 days of combat in Normandy.

      US united marked in blue, Canadian in red, British in orange and Axis in black. pic.twitter.com/N6cqmdfNCp

      — Xavi Ruiz (@xruiztru) June 6, 2024

      L'événement donne lieu aujourd'hui à un important tourisme de mémoire en Normandie. C'est tout particulièrement perceptible au moment des cérémonies d'anniversaire, telle celle qui a eu lieu pour le 80e Anniversaire du Débarquement le 6 juin 2024 (voir la carte des événements). La région Normandie a publié à cette occasion une étude des usages et des retombées économiques de ce tourisme de mémoire.

      L'IGN a édité une carte Normandie Jour J – 6 juin 1944 pour commémorer son 80ème anniversaire. Cette carte à l’échelle du 1:100 000 (1 cm = 1 km) présente les plages du débarquement, les positions des différents corps d’armée et l'évolution du front du 06 juin au 18 août 1944. Vous y trouverez également des informations sur les sites touristiques du conservatoire du littoral, sur les vestiges et cimetières militaires ainsi que les musées existants. Réalisée en partenariat  avec le comité du 75ème anniversaire Bataille de Normandie-terre de liberté, cette carte propose une légende et des informations éditoriales en trois langues (français, anglais et allemand).


      Carte historique Michelin n° 102, réimpression de l'édition de 1947. Cette carte éditée par le service du Tourisme Michelin au lendemain de la Seconde Guerre mondiale est l'une des premières à lancer le tourisme mémoriel lié au débarquement. Voir sa transcription en carte thématique.
      « Carte. Voici l’histoire du Débarquement à travers dix sites emblématiques à visiter en Normandie » (Ouest France)

      KilRoyTrip est une carte interactive des mémoriaux de la Seconde Guerre mondiale en Normandie. Il constitue « un guide pour ceux qui visitent la région et s'intéressent au débarquement et à la libération de la France ».

      « A la veille des 80 ans du D-Day, le business mémoriel bat son plein en Normandie » (La Tribune). Profitant du 80ème anniversaire de l’opération Overlord du 6 juin 1944, les entreprises normandes ont joué à fond la carte du tourisme de mémoire. En ligne de mire, les millions de visiteurs attendus sur les plages du débarquement.

      « 80e D-Day : près de chez vous, quelles rues portent un nom lié au Débarquement ? » (Ouest France)

      « Les bunkers, un patrimoine archéologique à préserver » (France Culture). Sur plus de 4 400 kilomètres de côtes, le mur de l'Atlantique a constitué le réseau de défenses du IIIe Reich. Sur ces 8 000 fortifications, nombre d'entre elles ont d'ores et déjà disparu. Les archéologues s'appuient sur la carto-interprétation en se basant sur les photographies aériennes, surtout les couvertures IGN de 1947 par exemple, qui  permettent de retrouver ces bunkers. 

      III) Problèmes posés et vigilance à avoir par rapport à ces représentations du débarquement

      « 80 ans du D-Day : des livres, des films et des jeux vidéo pour se replonger dans le Débarquement » (France-Info)

      « Comment "Le Jour le plus long" a façonné notre imaginaire du Débarquement... et ses clichés » (France Culture).

      « D-Day : cette vidéo spectaculaire vous plonge dans des conditions immersives inédites » (TF1-Info). La vidéo propose de vivre le Débarquement dans des conditions immersives grâce à la technologie de la capture volumétrique. Ce type de reconstitution spectaculaire a tendance à privilégier le sensationnel.

      « 80 ans du Débarquement : l’opération Fortitude", cette fake news sur le Pas-de-Calais qui a permis aux Alliés de tromper les nazis » (La Dépêche). 

      Le documentaire « Apocalypse. Les débarquements » (France 2), écrit et réalisé Isabelle Clarke et Daniel Costelle, retrace en deux épisodes les préparatifs de cette opération et le jour de cette offensive d'ampleur. Consacré aux débarquements en Normandie et en Provence, il retrace le terrible fiasco des répétitions du D-Day (France Info). Plus de 300 heures d’archives ont été nécessaires pour réaliser ces deux épisodes racontés par Mathieu Kassovitz. 

      Toujours le même problème avec ces documentaires. L'infographie et la cartographie sont traitées comme la 5e roue du carrosse. D'où à chaque fois des énormités cartographiques. #mapfail ?? [https:]] pic.twitter.com/zyv7QG3vtf

      — ?????? Guillaume Balavoine ????? (@gbalavoine) June 5, 2024

      « De de Gaulle à Macron, comment s’est construite la mémoire française du D-Day » (L'Opinion). Le jeune historien Benjamin Massieu décrit l'évolution des commémorations, qui changent dans les années 1980 avec la mise en avant du sauveur américain. 

      Jusque dans les années 1980, les commémorations du débarquement sont essentiellement militaires : les chefs d'État ne sont pas représentés. Le tournant est dû à François Mitterrand qui, en 1984, transforme la cérémonie militaire d'alors en cérémonie politique où sont invités les chefs d'État. L'historien Olivier Wieviorka note ainsi : « dorénavant, les commémorations ne sont plus axées sur l'idée de victoire, mais sur l'idée de paix, de réconciliation et de construction européenne ». En 1945, un sondage Ifop demandait aux Français : « Quelle est la nation qui a le plus contribué à la défaite de l’Allemagne nazie ? » Réponse : URSS à 57 % et États-Unis à 20 %. En 2004, les chiffres s’étaient inversés32. Entre les deux, il y a eu la chute du bloc soviétique et le fantastique succès des films hollywoodiens, qui, du Jour le plus long (1962) à Il faut sauver le soldat Ryan (1998), ont redessiné le souvenir des derniers mois de la guerre ».

      « 80 ans de la Libération : enseigner des faits, transmettre des récits » (France Culture). Comment s'emparer des commémorations du Débarquement et de la Libération de façon éclairante et pédagogique, et donner des clés pour comprendre cette période dans toute sa complexité ?

      Articles connexes

      Une carte animée des opérations militaires en Europe pendant la 2nde Guerre mondiale

      L'histoire par les cartes : la carte animée des missions aériennes des Alliés pendant la 2e Guerre mondiale

      L'histoire par les cartes : l'Asie du Sud-Est à travers des cartes japonaises élaborées pendant la 2e Guerre mondiale

      L'histoire par les cartes : les archives du Musée mémorial de l'Holocauste à Washington

      L'histoire par les cartes : cartographier la déportation des Juifs de France

      Des images aériennes déclassifiées prises par des avions-espions U2 dans les années 1950

      Ukraine : comment cartographier la guerre à distance ?
      Cartes et atlas historiques

    • sur TimeMap, un moteur de recherche pour trouver des cartes historiques par zones géographiques

      Publié: 8 June 2024, 10:09am CEST

      TimeMap est un site web créé par Old Maps Online, Map Tiler et le David Rumsey Map Center pour explorer des cartes historiques. Le corpus disponible comprend 500 000 documents, ce qui en fait un moteur puissant pour trouver des cartes anciennes. La sélection des cartes se fait par période (à travers la barre chronologique) et par zoom géographique (directement sur la carte). Le site existait depuis plusieurs années mais il s'est considérablement enrichi en 2024 avec l'ajout de nouvelles cartes de la collection David Rumsey. 

      Interface du moteur de recherche visuel TimeMap.org

      L'application utilise largement Wikipédia pour fournir un contexte aux cartes historiques. On peut effectuer des recherches par noms de régions, par personnages, dirigeants ou batailles. Le principal intérêt du site est de permettre de chercher des cartes par zones géographiques que l'on peut ensuite comparer ou annoter (en mode édition). Pour bénéficier des avantages de la recherche avancée ou se constituer une collection de cartes en favoris, il faut créer un compte (gratuit).

      Plus qu'un atlas historique, TimeMap.org est un moteur de recherche visuel de cartes anciennes. La cartographie qui sert d'outil de navigation y est d'ailleurs assez sommaire. Les territoires ne correspondent pas toujours aux délimitations historiques qui ont souvent beaucoup changé au cours du temps.

      Il convient de ne pas confondre avec le site Timemaps.com qui repose sur un abonnement payant. Il ne s'agit pas non plus des Timeline-maps proposées par le site David Rumsey qui sont des cartes originales pour représenter des chronologies historiques.

      Le composant TimeMap d'OldMapsOnline permet aux utilisateurs de mieux comprendre le contexte historique d'une carte en fournissant des informations cliquables sur les personnes et les événements qui y sont associés. A noter qu'il existe d'autres outils pour partager ou annoter des cartes en ligne.

      Articles connexes

      Annoter et partager des images et des cartes numériques en haute résolution en utilisant des outils IIIF
      Chronoscope World, une machine à remonter le temps avec des cartes

      Rechercher du texte sur les cartes de la collection David Rumsey
      Un outil immersif pour explorer les globes de la collection David Rumsey

      Comment géoréférencer une carte disponible dans Gallica ?

      Derrière chaque carte, une histoire. La cartographie du détroit de Magellan entre science et imaginaire

      Les story maps : un outil de narration cartographique innovant ?

      Cartes et atlas historiques


    • sur Cartes et simulateur de votes de l'Observatoire électoral du Grand Continent

      Publié: 8 June 2024, 9:07am CEST


      L’Observatoire électoral du Grand Continent est un nouveau projet structurant du Groupe d’études géopolitiques — le centre de recherche stratégique domicilié à l’École normale supérieure qui édite le Grand Continent — et de sa revue scientifique, BLUE (Bulletin des élections de l’Union européenne) qui documente depuis 2021 l’ensemble des élections dans l’Union européenne. L'objectif est d'explorer en profondeur et d’une manière interdisciplinaire, multiscalaire et plurilingue les transformations de la démocratie européenne, en étudiant une tendance tectonique – l’européanisation de la politique. 
       Page d'accueil de l'Observatoire électoral du Grand Continent

      Avec plus de 2,3 millions de data points et plus de 750 graphiques, cartes et tableaux, l’Observatoire électoral du Grand Continent propose la première plateforme mise à jour quotidiennement agrégeant l’ensemble des sondages pertinents au niveau national, analysant et représentant les résultats électoraux de l’échelle municipale à celle continentale, publiant des analyses fouillées, des entretiens doctrines et de la cartographie dans un même espace. 

      Afin de couvrir l’élection européenne du 6-9 juin 2024, l’Observatoire publie un générateur automatique de coalitions basé sur des projections de la composition du prochain Parlement européen.


      Par ailleurs, l'Observatoire propose une carte des résultats des élections européennes à l’échelle locale, régionale et nationale à partir des données officielles publiées par les offices statistiques des 27 États membres. L'intérêt est de pouvoir comparer les résulats sur deux élections (2019 et 2024) et selon différents niveaux d'analyse (NUTS 1 - 2 et 3).
      Les résultats des élections européennes à différentes échelles (source : Observatoire électoral du Grand Continent)

       

      Un article qui relie la montée de l'euroscepticisme dans l’UE aux problèmes de développement régional. Avec des cartes et graphiques utiles sur la question
      "The Geography of EU Discontent and the Regional Development Trap" (Economic Geography) [https:]] pic.twitter.com/lsTs4mEcw3

      — Sylvain Genevois (@mirbole01) June 4, 2024
      Articles connexes
      Cartes et graphiques sur les élections européennes de 2024
      La carte, objet éminemment politique : exemple des élections européennes
      Les Européens se sentent-ils plus attachés à l'Union européenne, à leur pays ou à leur région ?

      Baisse de la part des jeunes dans la population de l’Union européenne d’ici 2050

      Simulateur de vote et résultats aux élections présidentielles aux États-Unis
      Dis-moi où tu vis, je te dirai ce que tu votes ? (Géographie à la carte, France Culture)

    • sur Séminaire, juin 2024

      Publié: 7 June 2024, 10:09am CEST par admin

      Le séminaire annuel de Neogeo réalisé cette année dans les locaux de GEOFIT à Nantes s’est achevé avec succès. ?

      Ces quelques jours ont été remplis de moments partagés donnant lieu à des discussions passionnantes, d’ateliers interactifs et d’échanges inspirants. ?

      Nous tenons à remercier chaleureusement tous les participants pour leur présence et leur engagement le tout dans la bonne humeur. Un immense merci également à nos intervenants (TEICEE) pour leurs présentations éclairantes et leur expertise. ?

      Ce séminaire a été une formidable opportunité pour renforcer le lien entre les équipes, nos connaissances, élargir nos horizons et créer de nouvelles connexions professionnelles.

      Nous sommes impatients de mettre en pratique les idées et les stratégies discutées.

      Publié le 07/06/2024

      Séminaire annuel NEOGEO c’est parti… ?

      Rien de mieux qu’une formation DevOps pour mettre les équipes autour d’une table et discuter de l’amélioration continue de nos processus de développement ?

      C’est aussi l’occasion de découvrir les salles de réunion du nouveau siège du groupe GEOFIT à Nantes.

      Publié le 05/06/2024

    • sur Géopolitique des céréales

      Publié: 5 June 2024, 9:04pm CEST par r.a.

      Géopolitique des céréales, sous la direction de Sébastien ABIS,
      Editions EYROLLES, 2024

      Cet album, de taille modeste mais au contenu très dense, traite de ce qui constitue la moitié des calories consommées sur la planète, les céréales, cultivées, transformées, transportées, utilisées à des fins politiques. Sur les 40 fiches proposées, 20 sont consacrées au blé, à deux échelles, mondiale et française, 20 traitent des autres céréales et des produits alimentaires les plus populaires conçus à partir des céréales. Chaque thème est abordé par un texte de deux courtes pages, un « focus » qui en développe un aspect majeur ou peu connu et une illustration (carte, graphique ou schéma).

      Les médias généralistes suscitent régulièrement les inquiétudes de leurs lecteurs en annonçant les pénuries futures de matières premières et de ressources énergétiques mais peu évoquent des pénuries possibles, voire probables, de produits alimentaires. Sur les 700 millions d’hectares cultivés dans le monde (à peu près la surface de l’Australie), la moitié est consacrée aux céréales. Or celles-ci constituent la moitié des calories consommées par la population mondiale. Trois fiches font de la « géopolitique-fiction » (2040, 2050, 2060). Elles présentent plutôt des scénarios catastrophes. Est-ce pour nous alerter ? En 2040 il faudra nourrir 9 milliards d’hommes alors que les incidents climatiques seront de plus en plus fréquents et que les superficies emblavées seront réduites par l’artificialisation des sols et le souci de conserver la biodiversité. A ces inquiétudes il faut ajouter la volonté de puissance de certains Etats qui peuvent utiliser l’« arme du blé ». La sécurité alimentaire se pose dans des termes difficiles.

      Même si le blé n’a plus que le deuxième rang (après le maïs) dans la production céréalière, sa consommation est vitale pour une population mondiale dont l’urbanisation a changé les habitudes alimentaires. Partout sur la planète, on consomme du blé sous des formes différentes. Or si la Chine et l’Inde sont les premiers producteurs mondiaux, la Russie, troisième producteur, est, depuis cinq ans, le premier exportateur mondial (25% à 30%) et le changement climatique devrait lui permettre d’étendre largement ses terres cultivables (à contrario, les sécheresses vont affecter lourdement les « terres à blé » aux Etats-Unis, en Europe, en Australie…). Même si l’Union européenne reste le deuxième exportateur mondial – mais il n’y a pas de politique céréalière extérieure commune -, beaucoup de pays d’Afrique du Nord, du Moyen-Orient et d’Asie du Sud-Est sont et seront très dépendants de la Russie. Néanmoins la sécheresse récente dont a souffert récemment le sud du pays montre que son pouvoir sur la scène internationale n’est pas inébranlable. Par contre l’Ukraine a réussi à empêcher la catastrophe économique engendrée par l’invasion russe de février 2000. Les exportations de grains – dont une majorité de blé- qui n’atteignaient plus 500 000 tonnes en mars 2022, ont été de 7 millions de tonnes en avril 2024. Le conflit logistique a été gagné par les Ukrainiens grâce aux « nouvelles voies de solidarité » (terrestres et fluviales) et au corridor maritime de la mer Noire.

      Au sein des pays de l’U.E., la France occupe une place privilégiée (5ème producteur et 5ème exportateur mondial). Le blé occupe 20% de la S.A.U. (2) et a des rendements élevés. Ces résultats sont remarquables pour un pays qui a connu le rationnement jusqu’en 1949. Mais le blé français (comme tous les blés européens) est dépendant des engrais riches en azote (150-200 kg/ha), nécessaires à une forte teneur en protéines. Or l’azote provient du gaz naturel fourni jusqu’alors par…la Russie. Il faut donc miser sur la recherche agronomique pour faire des progrès dans la génétique végétale et les engrais bas-carbone pour assurer notre sécurité alimentaire.

      Depuis la fin du XXe siècle, le maïs est la céréale prédominante. Les Etats-Unis, la Chine, le Brésil et l’Argentine fournissent 70% de la récolte mondiale annuelle et 90% des exportations. L’U.E., première zone d’importation, se fournissait principalement en Ukraine qui connait une baisse drastique de ses exportations. Ce choix s’explique par le label « sans O.G.M. » du maïs ukrainien, à la différence des maïs produits sur le continent américain. L’expansion du maïs – qui occupe actuellement 1/8 des terres cultivées – suscite des controverses. Alors que des millions de personnes sont sous-alimentées et que la croissance démographique va se poursuivre jusqu’en 2050, est-il raisonnable de consacrer 60% de la première céréale mondiale à l’alimentation animale et un pourcentage non négligeable à la fabrication du bioéthanol et à divers usages industriels ?

      Production asiatique par excellence, le riz réclame des conditions de culture très exigeantes, climatiques particulièrement, qui risquent d’être très impactées par le changement climatique. Or il est nécessaire d’accroître rapidement la production. La Chine, premier pays producteur, est aussi importatrice et en Inde, premier exportateur, 40% de la population souffre de malnutrition. Seulement 10% de la production sont commercés dans le monde. Pourtant c’est en Afrique subsaharienne, faible productrice, que la demande augmente le plus rapidement (la croissance de la demande est de 6% par an). Et la production africaine ne satisfait que 55 à 60% de la consommation. Entre 2023 et 2050, la population africaine doit doubler. Il est donc indispensable de revenir aux céréales traditionnelles, mils et sorgho.

      Mils et sorgho sont des céréales à redécouvrir car elles ont des qualités nutritives et sont peu exigeantes en matière climatique et écologique. La F.A.O. (2) en fait la promotion sans rencontrer beaucoup de succès jusqu’alors.

      Assurer la sécurité alimentaire de leur population dans les décennies à venir constitue donc un défi difficile à relever pour beaucoup d’Etats. Ils doivent non seulement faire aux risques naturels induits par le changement climatique mais aussi aux stratégies de puissance de quelques grands pays. Le conflit ukrainien en donne un exemple. On a déjà évoqué la dépendance de nombreux Etats à l’égard des blés russes. Il faut aussi souligner l’action de la Chine qui, bien qu’importatrice elle-même, utilise les besoins africains en riz pour accroître son influence. La deuxième puissance mondiale pratique une politique de stockage des céréales (blé, maïs, riz) à grande échelle. Elle détient plus de 50% des stocks mondiaux de céréales, ce qui lui permet de faire face à d’éventuelles mauvaises récoltes mais aussi lui donne du pouvoir sur les acheteurs.

      Certains produits alimentaires fabriqués à partir de céréales contribuent au soft power des Etats dans lesquels ils ont été conçus, par leur notoriété mondiale. Ils sont porteurs d’une identité nationale, qu’il s’agisse de la tortilla mexicaine d’origine précolombienne, de la pasta italienne exportée dans le monde par les migrants italiens dès la fin du XIXe siècle et bien sûr de la baguette française de tradition (les normes de fabrication ont été fixées par décret) qui a été classée au patrimoine culturel immatériel de l’UNESCO en 2022. Le sushi, produit culturel japonais largement diffusé depuis la fin du XXe siècle, était à l’origine une méthode de conservation du poisson. Aliment et boisson, la bière est le premier alcool au monde (180 milliards de litres sont consommés par an dans le monde. C’est un vrai produit de la mondialisation qui était déjà fabriqué dans l’Antiquité (Mésopotamie, Egypte…). Les grands producteurs de bière (Chine, Etats-Unis, Brésil, Mexique et Allemagne) utilisent du malt produit dans des malteries, secteur dans lequel la France est leader mondial (premier producteur et premier exportateur mondial depuis 1967) grâce à son haut niveau d’expertise. 1 pinte sur 5 bue dans le monde est faite avec du malt français ! la production française de bière (6ème rang mondial) est un secteur dynamique, créateur d’emplois qui font une large place aux cadres jeunes et féminins.

       

      Nous pouvons clore cette présentation « en élevant le débat ». La culture des céréales a été génératrice de « grandes cultures » : les premières civilisations du Moyen Orient, il y a plus de 10 000 ans. Les croyances et rituels religieux leur ont accordé une grande place symbolique (par exemple, le pain dans le sacrement de l’Eucharistie).

      L’étude des céréales nous a permis de traiter de géographie, de géopolitique, d’histoire, de gastronomie…et même de religion !

       

      (1) A.U. : surface agricole utilisée. Elle comprend l’ensemble des terres arables, les pâturages et les cultures permanentes
      (2) FAO : Organisation des Nations Unies pour l’alimentation et l’agriculture

       

      Michèle Vignaux, juin 2024

       

      (Ce compte rendu a pu bénéficier d’informations glanées dans le webinaire organisé par S. Abis et son équipe pour accompagner la sortie de l’ouvrage).

      Les illustrations ont été reproduites avec l’aimable autorisation des Editions Eyrolles.