Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considèrerons que vous acceptez l'utilisation des cookies. J'ai compris ! ou En savoir plus !.
Un Planet est un site Web dynamique qui agrège le plus souvent sur une seule page, le contenu de notes, d'articles ou de billets publiés sur des blogs ou sites Web afin d'accentuer leur visibilité et de faire ressortir des contenus pertinents aux multiples formats (texte, audio, vidéo, Podcast). C'est un agrégateur de flux RSS. Il s'apparente à un portail web.
Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
  • Canaux
  • Categories
  • Tags
  • Canaux

    2772 éléments (101 non lus) dans 55 canaux

    Dans la presse Dans la presse

    Toile géomatique francophone

     
    • sur La carte, objet éminemment politique : la Société des Nations en 1927

      Publié: 6 October 2023, 10:53am CEST

      Les Archives des Nations Unies à Genève possèdent une importante collection de cartes du monde qui portent principalement sur l'Entre-deux-guerres et la Deuxième Guerre mondiale. On y trouve des cartes de la SDN, des cartes des empires coloniaux, des cartes des grandes voies de communication terrestres et maritimes ainsi qu'un important matériel cartographique issu de différents pays.
      Au sein de cette collection figure une très belle carte concernant La Société des Nations en 1927. La SDN, créée en 1919 en réponse au traumatisme de la Première Guerre mondiale, a été la première organisation internationale dédiée à la préservation de la paix. Sa charte engageait ses membres à la réduction des armements, à la sécurité collective et à un ensemble de procédures pour le règlement pacifique des différends à l'échelle internationale. Bien qu'elle se soit révélée incapable d'empêcher le déclenchement de la Seconde Guerre mondiale, la Société des Nations a joué un rôle important et précurseur en matière d'éducation à la paix. Cette carte participe de cet idéal pacifiste et irénique propre à l'entre-deux-guerres.

      Carte de la Société des Nations en 1927 par Laura H. Martin
      (crédit : Archives des Nations Unies, licence CC BY-NC-ND 3.0 IGO)


      La carte de la SDN en 1927 a été réalisée à partir d'une projection homolosine de Goode qui coupe les océans mais permet de représenter les pays à parts égales. La projection venait d'être inventée en 1923 par John Paul Goode, professeur de géographie à l'université de Chicago, afin de fournir une alternative à la projection de Mercator jugée trop déformante. La carte a été imprimée par les Presses universitaires de Chicago, alors que les Etats-Unis ne faisaient pas partie de la SDN. Sa conceptrice, la cartographe Laura H. Martin (1884-1956), était notamment spécialisée dans les questions juridiques liées à la souveraineté en Antarctique, à une époque où l'Europe, les États-Unis et le Japon commençaient à convoiter ce continent. Elle était mariée au lieutenant-colonel Lawrence Martin (1880-1955), chef du Département de géographie et cartographie de la Bibliothèque du Congrès et président de l'Association américaine des géographes.
      La carte de Laura H. Martin se présente comme une grande carte murale montrant l'importance de la Société des Nations en 1927. Bien que tout de rouge colorée pour montrer l'apparente unité des nations, on y distingue cinq catégories de pays en fonction du dégradé de couleurs et de la trame ajoutée discrètement par dessus : les nations membres de la SDN, les territoires sous mandat (anciennes colonies allemandes et anciennes provinces de l'empire ottoman), les nations non membres, celles non membres mais coopérant officieusement, ainsi que celles qui ont signé mais n'ont pas ratifié le traité fondant la SDN (notamment les Etats-Unis). La carte est complétée par trois tableaux statistiques qui occupent une place importante venant combler le vide laissé par les océans. Ces grands tableaux regroupent les états membres, les non membres et les territoires sous mandats, dans le but de comparer leur poids démographique respectif. Des cercles proportionnels permettent de comparer leur population directement sur la carte. Au bas, un graphique montre que, nonobstant l'absence de grands Etats comme les Etats-Unis ou la Russie, le poids démographique des nations membres de la SDN (55 pays en 1927, soit plus d'1,4 milliards d'habitants) l'emporte sur les nations non membres (340 millions d'habitants).


      Détail intéressant : la grande carte murale de la SDN de 1927 (64 x 89 cm) a été précédée d'une carte en plus petit format La  Société des Nations en 1925. La carte est ainsi présentée dans l'International Journal of Ethics (vol. 35, n° 4, juillet 1925). : « une nouvelle carte en couleurs qui rendra bien des services à tous ceux qui s'intéressent à l'actualité… Cette carte est dessinée selon la projection homolosine ou à surface égale du Dr J. Paul Goode. Elle mesure 20 ½ pouces x 10 ½ pouces, elle est adaptée à une utilisation au bureau… Un format plus grand pour les conférences (8 x 4 pieds, à vendre à environ 3 $ l'exemplaire) est envisagé pour une publication ultérieure ».
      Pour comprendre le pacifisme qui anime cette carte de la SDN, on peut la comparer à une autre carte du monde "rouge sang" montrant tous les pays touchés par la Grande Guerre en 1914. Simple ressemblance ou réminiscence cartographique entre les deux cartes ? Bien que différente par leur projection, les deux cartes restent centrées sur l'Europe qui reste la référence (cf siège de la SDN implanté à Genève).
      The Blood-Red World. Map Showing Territory of the Earth Directly Affected by the Great War (crédit : Wikimedia, carte dans le domaine public)


      La belle unité affichée par la carte de la Société des Nations en 1927 reste assez fictive quand on la compare à la réalité. La carte rassemeble des territoires aux statut très différents, notamment les possessions coloniales de l'Europe, ce qui augmente d'autant la superficie des membres de la SDN (58 pays à son apogée). Une particularité est cependant à souligner : certaines colonies de l'Empire britannique avaient un siège à la SDN. Dans sa thèse de doctorat en histoire internationale, Thomas Gidney a étudié l'adhésion de trois États coloniaux britanniques à la Société des Nations : l'Inde en 1919, l'Irlande en 1923 et l'Égypte en 1937. Il retrace ainsi l'évolution de la représentation coloniale depuis ses débuts lors de la création de la SDN juqu'au déclin de son autorité dans la seconde moitié des années 1930. Bien que l’admission des colonies dans les organisations internationales n’ait été pratiquée que par l’Empire britannique, l’inclusion des régimes coloniaux  dans les organisations internationales révèle de nouvelles pratiques de politique impériale visant à légitimer l’empire face à la résistance nationaliste croissante à la domination coloniale. 
      La SDN a connu des changements fréquents dans sa composition avec des pays qui ont pu entrer, sortir ou rester complètement en dehors de l'organisation. Alors que le président Woodrow Wilson avait largement promu sa création, les États-Unis n'en ont jamais fait partie du fait que le Sénat refusa d'en ratifier le traité. L'Égypte fut le dernier pays membre en 1937. L'Union soviétique fut exclue de la SDN le 14 décembre 1939, cinq ans après son adhésion le 18 septembre 1934. Il faudra attendre la création de l'ONU en 1945 pour que les Nations Unies ne soit plus "un club limité à certains" (Moreau Defarges, 2004). La carte de reconstitution historique ci-dessous permet d'appréhender ces fragilités internes qui contrastent avec la belle unité affichée par le document source.
      Carte du monde montrant les adhésions à la Société des Nations de 1920 à 1945 (source : Wikipédia)


      Au sein des Archives des Nations Unies à Genève, on trouve d'autres cartes représentant la Société des Nations, mais celles-ci sont en général plus classiques avec des découpages coloniaux ou des drapeaux représentant chaque pays. On n'y retrouve pas le pacifisme et l'universalisme qui animent la carte de Laura H. Martin. Il faut aller chercher dans l'oeuvre cartographique d'Otto Neurath pour retrouver ce même type d'inspiration. Celui-ci représente la Société des Nations en 1930 sous la forme d'isotype montrant l'importance numérique de la SDN par rapport à la population mondiale. On peut admirer le minimalisme et en même temps le modernisme de  ce type de représentation schématique (1 pictogramme pour 100 millions d'êtres humains)

      Der Völkerbund - Völkerbundstaaten übrige Staaten - Otto Neurath, 1930 (crédit : David Rumsey Map Collection)

      La sobriété et la modernité des isotypes utilisés par Otto Neurath contrastent avec la carte surchargée de détails publiée par l'éditeur Philip en 1929 "sous les auspices de la SDN". Une carte jugée incohérente et sémiologiquement incorrecte déjà à l'époque comme le montre cette critique publiée dans la revue Geographische Zeitschrift.
      Extrait de la carte du monde publiée "sous les auspices de la SDN" par George Philip & Son en 1929(crédit : Archives des Nations Unies, licence CC BY-NC-ND 3.0 IGO)


      En complément
      Pour comparer avec d'autres cartes du monde issues des Archives des Nations Unies à Genève :Accès à l'ensemble de la collection des cartes de la Société des Nations (15 000 cartes) sur le site des Archives des Nations Unies.
      La collection de cartes numériques de la bibliothèque de l'American Geographical Society (Université du Wisconsin) contient plus de 19 000 cartes, allant des premières cartes de l'Asie aux cartes historiques du Wisconsin et de Milwaukee, ainsi que d'autres villes, États et parcs nationaux américains. 


      Articles connexes
      La carte, objet éminemment politique
      Des usages de la projection Spilhaus et de notre vision du monde

      La projection Equal Earth, un bon compromis ?
      L'Indice de paix mondiale est en baisse depuis plusieurs années

      Cartographier pour un monde durable (ONU)
      Projections cartographiques

    • sur Une story map pour découvrir le voyage d'Albert Kahn en Amérique du Sud (1909)

      Publié: 6 October 2023, 6:50am CEST

      Le musée départemental Albert Kahn organise une exposition « Rio-Buenos Aires 1909, Modernités sud-américaines »  (27 juin-19 novembre 2023). Des avenues de Buenos Aires au quartier balnéaire de Rio de Janeiro, l’exposition retrace le voyage d’affaires entrepris par Albert Kahn en Argentine et au Brésil d’août à octobre 1909 et entraîne le visiteur dans un périple sensible, celui du passage à la couleur, avec les premières autochromes répertoriées du Brésil. Véritable archive visuelle, le fonds du voyage en Amérique du Sud est le témoin d’une modernisation urbaine en devenir.

      Parcours de visite muséale

      Le fonds du voyage en Amérique du Sud, longtemps peu connu, est constitué de 600 photographies stéréoscopiques monochromes, 61 plaques autochromes et 3 minutes de film. Le parcours de visite suit la chronologie du voyage et débute à bord du paquebot König Friedrich August. Après cette introduction maritime, les visiteurs découvriront, dans une déambulation visuelle et sonore, d’étonnants portraits de villes d’Amérique du Sud à rebours des clichés exotiques, ainsi que les premières autochromes de la baie de Rio, qui marquent l'apparition de la couleur. Enfin, l'exposition dévoile le travail d'enquête mené par lemusée autour de ce fonds inédit, juste avant le voyage retour jusqu’aux côtes espagnoles.

      Découverte du voyage à travers une story map

      Le musée Albert Kahn propose de poursuivre la visite de l'exposition à travers un feuilletoir numérique. L'occasion de découvrir une très belle série de cartes interactives présentant l'intégralité du fonds photographique "Voyage en Amérique du Sud" conservé par le musée départemental Albert Kahn. La storymap s'ouvre sur une carte originale représentant le voyage d'Albert Kahn sous la forme d'un plan de métro (#transitmap) mettant bien en valeur le trajet aller-retour du célèbre voyageur-photographe.

      Voyage en Amérique du Sud (conception et rédaction : Delphine Allannic, Jean-André Assié, Gaspard Costa, Serge Fouchard, Isabelle Peretti - crédit : musée Albert Kahn)


      Une table ronde pour discuter et analyser ces images

      « Quand l’image devient source : regards croisés autour de l’exposition Rio – Buenos Aires 1909 / Modernités sud-américaines ». Table ronde le 10 octobre de 14h à 17h à l'auditorium du musée.

      La table ronde réunira, autour des commissaires de l’exposition, des chercheurs, responsables de collections, conservateurs-restaurateurs, documentalistes et débattra de conditions d’usage de la photographie comme source pour l’histoire, des méthodologies à mettre en place et des enseignements que le collectif a pu tirer de ce fonds. Les images réalisées en lors de son voyage en Amérique du Sud sont longtemps restées peu connues. Constitué de 600 photographies stéréoscopiquesmonochromes, 61 plaques autochromes et 3 minutes de film, cet ensemble est présenté dans l’exposition Rio – Buenos Aires 1909 / Modernités sud-américaines du 27 juin au 31 décembre 2023.

      Sous le regard d’Albert Kahn et de son photographe se dessine le portrait d’un continent et de villes en pleine mutation où l’Europe apparaît comme une référence incontournable. Cet ensemble d’images réalisé de Porto jusqu’à la baie de Rio de Janeiro, en passant par Buenos Aires, Rosario, São Paulo, avant de se terminer à Lisbonne, sont le point de vue d’un banquier occidental qui fait photographier et filmer son périple. Images souvenir ? Projet documentaire en devenir ? Cet ensemble de photographies enrichit notre connaissance du continent au début du XXe siècle et des relations qui se tissent entre Europe et Amérique. Si Albert Kahn milite très tôt pour que les Archives de la Planète deviennent des documents pour l’Histoire, comment faire l’Histoire par la photographie quand les images sont muettes, pour reprendre les mots de Jorge Semprun ? Fonds partiellement ou mal légendé, sans photographe identifié et sans archives, le fonds du voyage en Amérique du Sud était une matière brute, inexploitable sans l’apport de la recherche.

      L'occasion de découvrir les Archives de la Planète (fonds d'archives visuelles du musée Albert Kahn)

      Constituées entre 1909 et 1932 et conservées par le musée départemental Albert-Kahn, les Archives de la Planète, sont nées de l’initiative d’Albert Kahn (1860-1940), banquier philanthrope et pacifiste. Soucieux de garder une trace pour l’avenir d’un monde en profonde mutation, intéressé par les questions politiques et sociales, et militant pour le rapprochement entre les peuples, il tire parti de l’apparition de nouveaux modes d’enregistrement mécaniques – l’autochrome (1907) et le film (1895) – pour constituer cette vaste entreprise de production d’archives visuelles. À partir de 1912, sous la direction scientifique du géographe Jean Brunhes (1869-1930), une douzaine d’opérateurs parcourent près de cinquante pays et produisent 72 000 autochromes et plus d’une centaine d’heures de films.
      Pour Albert Kahn, la période qui précède le démarrage officiel des Archives de la Planète est un temps d’expérimentation de l’image. Entre 1908 et 1909, lors des voyages que le banquier d’affaire accomplit en Europe, en Asie ou encore en Amérique du Sud, des praticiens réalisent pour son compte de nombreuses photographies stéréoscopiques monochromes, des autochromes ainsi que des films. 

      Articles connexes

      Les story maps : un outil de narration cartographique innovant ?

      Les grands enjeux alimentaires à travers une série de story maps du National Geographic

      Mapstory, un outil pour élaborer et partager des story maps

      Exposition virtuelle. Figures d’un géographe, Paul Vidal de la Blache (1845-1918)
      Numérisation des archives de la Société de Géographie sur Gallica
      Avant l'invention du globe virtuel, les stéréoscopes permettaient déjà une forme de voyage visuel

      Les 42 cartes des Voyages extraordinaires de Jules Verne
      Cartes narratives et story maps
      Cartes et atlas historiques 


    • sur GeoTIFF reader/writer performance comparison

      Publié: 5 October 2023, 4:17pm CEST par user

      Apache Spatial Information System (SIS) version 1.4 contains a Cloud Optimized GeoTIFF (COG) reader for raster data. The development branch of Apache SIS 1.5 (not yet released at the time of writing this blog) contains also a GeoTIFF writer. Those reader and writer are implemented in pure Java code for avoiding the difficulty of bindings to native libraries such as GDAL. Pure Java code also provides more flexibility for Java developers. For example, the Apache SIS reader accepts any implementation of the Java ReadableByteChannel standard interface as the source of bytes. Another reason for developing GeoTIFF reader and writer in Java was for prototyping the use of new GeoTIFF keys that are proposed in OGC TestBed-19 — Geospatial in space.

      Coding yet another GeoTIFF reader and writer seems a duplication of work, since most of the geospatial world uses the popular GDAL library for that purpose. But actually, from Apache SIS perspective, there is not so much duplication. The most difficult part in a GeoTIFF reader and writer is to handle tiling and compression efficiently. But this task is largely format-independent, and SIS needs also to handle netCDF and other formats. The Apache SIS library shares code internally, thus reducing the task of GeoTIFF support to header parsing. By contrast, GDAL is largely an aggregation of independent libraries such as libtiff and libpng, each with their own ways to resolve common problems.

      Nevertheless, coding GeoTIFF support in Java raises questions about how its performances compare to GDAL. There is a widespread belief that Java programs are slower than their C/C++ counterpart. In reality, it depends a lot on the kind of application and how the libraries were coded. Differences in algorithms can play a bigger role than differences in the programming languages. This blog will not answer that debate, because the benchmarks presented here depend a lot on native code, either for I/O operations or for DEFLATE compression (the latter is handled by native code in the java.util.zip standard package). However, the benchmarks in this blog demonstrate the capability of a Java program to avoid adding overhead. The result is that Apache SIS, at least in those benchmarks, compares favorably with GDAL.

      Method

      The benchmarks reported in this blog are very limited and only scratch the surface on the topic of raster data handling:

      • All benchmarks were tested with a single image (in two variants).
      • Only one compression method tested (in two variants), together with uncompressed raster.
      • No sub-regions and no sub-samplings tested (there is no technical reasons for this omission).
      • Multi-thread parallelization not tested (would have required some more developments in Apache SIS).

      Sub-regions and requests for reduced resolutions on COG images should be handled efficiently by Apache SIS, but benchmarking those features would have required a more complex setup, especially if we want to test in a cloud environment. The simple benchmarks in this blog used a single image which was always read fully, from a local file on a laptop. The image was a single non-COG raster with the following properties:

      Raster Thumbnail Raster Properties GeoTIFF
      Producer:DigitalGlobe
      Image date:2014/06/16
      File size:192 Mb
      Image size:8192 × 8192 pixels
      Strip size:8192 × 128 pixels
      Sample model:banded (3 separated arrays of red, green and blue).
      Sample type:bytes, values ranging from 2 to 255.
      Compression:None
      CRS:WGS 84 / UTM zone 31N

      The image was read and rewritten using three libraries: gdal_translate, Java Image I/O and Apache SIS. For each library, the read/write operations were repeated 10 times in order to allow the Java Virtual Machine to warmup. The two first iterations were ignored, and execution time of the remaining 8 iterations were recorded. Average times and standard deviations are reported in this blog. In the particular case of the GDAL library, the execution time of gdalinfo has also been measured and its average value has been subtracted from all gdal_translate times. The intend is to take in account the time needed for loading the GDAL binary, or at least the parts required for reading the image header (it also incidentally includes the time for parsing that header). We apply this correction because our benchmark code relaunches the GDAL command in each iteration, contrarily to Image I/O and Apache SIS libraries which are loaded only during their first iteration. The benchmark code is available on GitHub in the GeoTIFF.java file. The processor of the test machine was Intel Core i7-8750H and the operating system was Fedora Linux 38 (Workstation Edition). Read and write operations were performed in the /tmp/ directory, which uses the tmpfs file system. It means that the raster files reside partially in RAM, so the benchmarks have less delay caused by I/O operations.

      Method with deflate compression

      The same tests were executed again with the DEFLATE compression. That compression is performed by the zlib library, accessible in standard Java thought the java.util.zip package. However, the zlib performance varies greatly depending on the data to compress. For fair comparisons, we must ensure that all the tested libraries write the same data. It is not the case by default because:

      • GDAL and Java Image I/O change the sample model from “banded” to “pixel interleaved”.
      • GDAL changes the strip height from 128 pixels to 1 pixel, thus writing strips of 8 kb.
      • Java Image I/O changes the strip height from 128 pixels to 8 pixels, thus writing strips of 64 kb.
      • Apache SIS keeps the sample model and strips height as they were in the image that was read.

      For avoiding those differences, the input image has been rewritten by Apache SIS with a “pixel interleaved” sample model and strips of 8 pixels in height. In addition, the -co BLOCKYSIZE=8 option has been passed to gdal_translate. A DEFLATE compression has been applied, so the tests will include decompression times in addition of compression times.

      Results

      First, we tested reading the uncompressed image and rewriting it uncompressed too. Average execution times are reported below. The “GDAL (reduced)” label means that the average execution time of gdalinfo has been subtracted from the execution time of gdal_translate.

      Apache SIS appears faster than other libraries for this particular benchmark. It may be because Apache SIS does not reorganize the pixel layout: it writes the image with banded sample model (called “planar configuration” in TIFF), as it was in the image that SIS has read. By contrast, GDAL and Image I/O reorganize the pixels into the pixel interleaved sample model. Note that for a Java application, the Java2D architecture around the RasterSampleModel and ColorModel classes provides a great level of abstraction, generally making unnecessary to restructure the image data.

      Results with deflate compression

      The next benchmark involves reading the same image but with pixel interleaved sample model and deflate compression, then rewriting that image. First, the compression was tested without predictor. The average execution times are reported below. The same gdalinfo measurement than in the previous benchmark is reused for the “GDAL (reduced)” column. No attempt was made for instructing GDAL to use libdeflate (see below):

      The benchmark has been repeated many times and Java Image I/O was consistently slightly faster than other libraries. One hypothesis may be that, by default, Image I/O reads the whole image as one single tile, while the other libraries does tiling. We have not tried to adjust Image I/O parameters for testing that hypothesis.

      Apache SIS appears slightly faster than GDAL in this benchmark, but we should not make general conclusion from this observation because the Java profiler measured that SIS spend about 95% of its time in the java.util.zip native code. We presume that a similar proportion applies to GDAL as well, so 95% of this benchmark is probably comparing the same code. We have no certain explanation for the slight difference nevertheless measured between GDAL and SIS. One hypothesis may be that the startup time estimation based on gdalinfo is not good enough. Another hypothesis may be that Apache SIS‘s efforts payoff. SIS tries hard, sometime at the cost of code complexity, to transfer data as directly as possible (i.e. avoid copy operations from one buffer to other temporary buffers before the final destination).

      Note that GDAL has the capability to use libdeflate instead of zlib, with a reported performance gain of 35-50%. This acceleration has not been tested in this benchmark.

      Results with horizontal differentiating predictor

      Adding the horizontal differentiating predictor at writing time has the same effect on the two tested libraries. The difference between them are within margin errors, so no conclusion can be made. The “Time increase” column is the difference between the time measured here and the time measured in the benchmark without predictor. The majority of this increase is probably caused by time spent in zlib instead of time spent in applying the predictor. Note that the file sizes also increase. The image used in this test is a case where applying a differentiating predictor is counter-productive.

      Conclusion

      Because the benchmarks spent 95% of their time in the zlib library (except for the uncompressed case), we cannot make conclusion about the performance of the Java code in Apache SIS compared to the C/C++ code in GDAL. However, the benchmarks suggest that Apache SIS is successful in its attempt to avoid adding overhead. The interfacing between Apache SIS and java.util.zip and java.nio packages (e.g. using direct buffers) seems as efficient as the interfacing between GDAL and the native libraries that it uses. The benchmark measurements were slightly in favor of Apache SIS, but close to margin errors. Furthermore, a bias may exist despite our effort to apply a correction for GDAL startup time.

      The benchmarks reported in this blog are a bit superficial and could be improved in many ways: benchmarks should be run on a lot of different images with different sizes, tilings, sample models and color models, benchmarks should request various sub-regions, enable parallelization, measure raster reprojection times, measure memory consumption, etc. However, doing fair performance comparisons of the writers is time-consuming, because it requires making sure that each library compresses the same data. They usually don’t, because of different choices in sample models and tile sizes. Adjusting the parameters of each library for comparing the same things may need to be done on a case-by-case basis.

      However, we can probably conclude one thing: the widely spread belief that a C/C++ library such as GDAL will surely be faster than an equivalent Java library such as Apache SIS is not always grounded in reality. It is true in some circumstances (e.g. startup time of a Java application stay longer), but should not be generalized. Slow Java codes are often due to poor algorithms rather than the language. More benchmarks between libraries written carefully in both languages are needed before to make conclusions.

      The post GeoTIFF reader/writer performance comparison first appeared on Geomatys.

    • sur Should we produce on demand, or globally ?

      Publié: 4 October 2023, 12:16pm CEST par Olivier Hagolle
      => 

      As the resolution of our satellite missions improve, the data volume of output products increases, and the share of the computing and storage costs of its products increases too.

      Let’s assume we are preparing a new satellite mission, for instance a Sentinel-like mission, with the hope of potential use by operational or private users, as well as scientists, of course. These applications could be for instance: estimating yields, biomass, evapotranspiration, detecting crop diseases, deforestation or monitoring snow melt… These applications could be performed at continental, country or region scales.

      This mission will acquire data globally, and produce each day at least a tera byte (TB) of products (L1C) which are then transformed into L2A, L2B, L3A… At the end of the satellite life,  let’s assume the mission totals a dozen of peta bytes (PB) during the satellite lifetime, and requires 1000 cores to produce the data in near real time.

      In the early stages of a mission, when the ground segment is being defined, the following question usually arises: which of the following choices should we select ?

      • a global production, in near real time, with data stored indefinitely, reprocessed when a new better version is available,
      • or a production on-demand, where the needed products are only generated when someone asks for them ?

      In my opinion, the production should be global and systematic. Here’s why.

      Processing costs: hardware Cost of global processing

      I am not a specialist, but I have colleagues who are, and who found the costs of a computer center of the size that would be necessary to process the data of a Sentinel-like mission with only one satellite. These costs include maintenance, power…

      StorageProcessing
      Per year100 k€/PB/Year100 k€/1000 cores/year
      Total/7years (3000 cores/12 PB)4.2 M€2.1 M€

      If we need up to 12 PB at the end of the 7 years life, it is almost zero at the beginning.  Therefore, storing all the data requires an average of 6 PB during 7 years, or 4.2 M€.  After the satellite end of life, data are still useful. As a result, storage should also go on, with the full cost of 12 PB. However, the data could be stored on tapes, with a longer access, but a much lower cost, and we can still hope storage costs and carbon footprint continue to decrease with time.

      For a global production of medium resolution data with revisit, the need of processing capacity is at least 1000 cores. Of course it depends on the mission and methods used. It is also necessary to allow reprocessing (because who does a perfect processing at once ?), and a reprocessing needs to run at least 3 times faster than the real time processing. Even with such performances, the final reprocessing at the end of life takes two years !  As a result, at least 3000 cores are necessary, for a total of 2.1 M€ for seven years.

      With 12 peta bytes and something like 3000 cores, we should have a total cost (including maintenance, energy…) in hardware around 7 M€. This is less than 5% of the cost of a one satellite Sentinel-like mission, but still a lot.

      Cost of on-demand processing

      Sizing the cost for an on-demand production is much more difficult, as it depends on how many users will ask for it. As a result, the selected solution will need monitoring and adaptability, and probably some over-sizing. Of course, there is a large cost reduction in storage, as only temporary storage is needed. In case of success, if each site is processed several times for different users, the processing cost might be greater than that of the systematic production.

      Moreover, if data produced on-demand are not kept on the project storage, users will be attempted to store the on-demand products produced for them on their premises.

      If we try to provide numbers, a capacity of less than 10% of the global and systematic production is necessary for the storage, and 20% to 50% for the processing.

      Carbon budget

      Outside the cost, the carbon budget of an on-demand solution is also much better. Most of the carbon, especially in France where electricity is low-carbon, comes from the hardware manufacturing. It is therefore probably proportional to the investment cost.

      However, computation experts say that the CPU node has its best yield when it is used at least 80% of the time. As a result, the yield of nodes used for on-demand production, with random variations of production demands, would be lower than that of a well scheduled global production.

      Of course it is essential to try to optimise the computing and storage volumes whatever the selected solution is.

      Processing costs: the software and exploitation

      Processing software is expensive too: you need a data base, a scheduler, processing chains, monitoring and control software. But whether it is for on demand or systematic global production does not change the cost much. On demand production is maybe a little more complex, as it means support for users, development of interfaces, documentations. But a global production in near real time requires complex monitoring solutions

      Of course, hybrid solutions exist, processing one part of the globe systematically, and offering the remaining parts on demand. Regarding softwares, it is probably a bit more expensive as it requires implementing both solutions.

      Pros and cons of each solution

      Besides the costs, described above, each solution has its pros and cons :

      Systematic production Advantages
      • Data are available everywhere without delay. Users may use these data efficiently with cloud solutions.
      • Data can be harvested by other processing centers
      • It is possible to create downstream products on large surfaces efficiently, with near real time processing if necessary.
      • Comparison with older data is easy. Scientists like to observe trends, which can be difficult if you need to ask for a reprocessing before that.
      • Data are always available on the mission servers, users do not need to save the data on their own disks, duplicating the archive
      Drawbacks
      • Some of the regions produced might never be downloaded, processing capacity and storage can be used while not necessary. However, this drawback disappears as soon as there is a global production of some variable
      • When a new version of processors is available, it takes a long time to reprocess and update the versions
      • Larger cost (even if those are small amounts compared to the total cost of the mission)
      • Larger carbon emissions (even if those are small amounts compared to the total carbon budget of the mission). Moreover, Sentinel-like mission data are used to try to monitor and reduce carbon emissions.
      On-Demand processing Advantages
      • Only the needed products are processed
      • The processing can always be done with the last version
      • Global reprocessing is not necessary
      • Reduced cost (even if those are small amounts compared to the total cost of the mission)
      • Reduced carbon emissions (even if those are small amounts compared to the total carbon budget of the mission)
      Drawbacks
      • Processing takes time, all the more if some methods used to process data require to process them in chronological order (such as MAJA). In that case, a time series can’t be processed in parallel
      • As data are not stored permanently on the project servers, processing on the « cloud » is not optimised. The data might be erased before the user who asked for them has finished his work. As a result, the user needs to download the data.
      • Satellite telemetry usually comes in long chunks: processing even a small area of interest (AOI) requires accessing a large volume of data. This drawback is exacerbated for missions with a wide field of view, in which an AOI is seen from different orbits.
      • It is hard to estimate the capacity and the computer power necessary to answer the demand. As a result, it requires studies of user demand, and the solution should be quickly adaptable, and maybe over-sized
      • If the mission is a success, some regions or countries might have to be processed several times, reducing the gain of on-demand processing.
      • On-demand processing prevents any global processing, or even continental scale processing. Even country scale might be problematic.
      • Near real time processing is not possible
      • Users might be deterred by the processing latency and decide to give up on the mission, or prefer another one, even if it is not the best choice for their application. This is especially important for new missions, where complexity in access might prevent the easy discovery of the interest of the data.
      • The mission will not have the impact it might have had with systematic processing
      Conclusions:

      The main advantage of on-demand production is its reduced cost. However, this cost remains small compared to overall mission cost. The carbon budget plays in favor of the on-demand too, but it is probably a small amount compared to the satellite budget. As a result, making full use of the satellite is probably better.  And this is even truer if the satellite is used to monitor the environment and help taking decisions to reduce our carbon footprint. Anyway, processors and storage should be optimised of course.

      On the other hand, the long list of drawbacks of on-demand processing speaks for itself. It would clearly result in a much less useful mission.

      Of course there are hybrid solutions where some regions/countries/continents are processed systematically, and others on-demand. It only changes the proportions of pros and cons of each solution, and may introduce difficulties in case of change of versions between each type of processing.

      To conclude, in my opinion, on-demand processing is only interesting if we plan that that mission will not be a success among users. But in that case, do we really need that mission ?

    • sur Prix du Livre de géographie 2024

      Publié: 1 October 2023, 3:53pm CEST par r.a.

      Le Prix du Livre de géographie des lycéens et étudiants sera décerné en 2024 à un des ouvrages cités ci-dessous.

      Gilles Fumey, Alexandre de Humboldt. L’eau et le feu, Double ligne, 2022.

      Raphaël Mathevet et Roméo Bondon, Sangliers. Géographies d’un animal politique, Actes Sud, 2022.

      Basile Michel, Les quartiers culturels et créatifs, Le Manuscrit, 2022.

      Marion Tillous (dir.), Espace, genre et violences conjugales, ce que révèle la crise de la Covid 19, GéoTraverses, 2022.

      Nephtys Zwer (dir.), Ceci n’est pas un atlas, Éditions du commun, 2023.

    • sur Un prochain colloque sur l’Intelligence artificielle à Albi

      Publié: 1 October 2023, 3:47pm CEST par r.a.
      Nos amis d’Albi nous informent de la tenue d’un colloque, les 5 et 6 octobre 2023 sur “l’IA et les Institutions publiques”, au campus de Champollion à Albi. Vous pouvez vous inscrire grâce au lien [https:]]

       

      Le programme se trouve sur la page des Cafés d’Albi.
    • sur Où sont les femmes dans les rues de Toulouse (et d’ailleurs) ?

      Publié: 30 September 2023, 8:20am CEST par Éric Mauvière

      L’autre jour, ma femme m’interpelle, tout à trac : « toi qui aimes jouer avec les données, pourrais-tu me faire une carte des rues de Toulouse portant un nom d’une femme ? » 

      C’est qu’elle coorganise la Transtoulousaine, une randonnée urbaine annuelle, en itinéraires convergeant vers le centre de la ville. Chaque édition comporte un thème : cette année les arbres, une autre fois peut-être bien les femmes. Un enjeu sera alors de définir des parcours qui célèbrent des personnalités féminines, si possible locales.

      À cette demande en forme de défi, je réagis d’abord avec réserve : « Ça ne va pas être simple… Je peux sans doute trouver un répertoire des rues, mais comment détecter la présence d’une femme ? ». « Facile », me rétorque-t-elle, « tu n’as qu’à utiliser le fichier des prénoms ! ». Je dois le dire, elle avait bien préparé son affaire !

      Et en effet, je connais bien cette source de l’Insee, recensant tous les prénoms donnés depuis au moins 1900, et les distinguant par genre.

      La base nationale des prénoms ressemble à ceci, elle présente des effectifs par année de naissance :

      Localiser un fichier des rues sur le site open data de Toulouse métropole ne m’a pris que quelques minutes. Il s’agit d’un filaire de voies, un fond de carte couvrant toute la métropole, qui renseigne naturellement le nom des voies, leur nature (rue, allée, boulevard, etc.) et leur commune d’appartenance. Voici un aperçu des données associées à chaque tronçon :

      On pressent déjà que les femmes ne seront pas légion.

      Pour manipuler des données, mon joujou favori ces derniers temps s’appelle DuckDB. C’est un petit programme tout simple qui permet d’exécuter des requêtes SQL avec une vélocité remarquable. Pour rapprocher les voies des prénoms, je vais joindre les deux bases en précisant une condition : le nom des voies doit contenir un prénom féminin.

      Une première écriture ressemble à cela :

      				
      					LOAD SPATIAL ;
      CREATE OR REPLACE TABLE filaire_femmes_toulouse AS (
          WITH prenoms_feminins AS (
              SELECT preusuel, nb_prf FROM (
                  SELECT strip_accents(preusuel) AS preusuel, 
                  sum(nombre)::int AS nb_prf
                  FROM 'https://icem7.fr/data/prenoms_nat2022.parquet'
                  WHERE sexe = 2
                  GROUP BY ALL
                  HAVING nb_prf > 1000
              )
          )
          , filaire_json AS (
              FROM st_read('C:/.../datasets/filaire-de-voirie.geojson')
              WHERE code_insee = '31555'
          )
           
          SELECT * FROM filaire_json 
          JOIN prenoms_feminins 
          ON contains(' ' || street || ' ', ' ' || preusuel || ' ')
      );
      
      				
      			

      Cette requête crée une table en 3 étapes :

      • Lecture de la base des prénoms, que j’ai convertie de CSV vers le format parquet, bien plus compact et efficace. Je ne retiens que les prénoms donnés à des filles, et plus de mille fois. Cela représente tout de même 1 800 prénoms.
      • Lecture du filaire de voies en ne gardant que les données sur Toulouse, dont le code commune est 31555. La fonction st_read() pourrait lire directement l’URL du fichier, mais celui-ci fait 20 Mo et le serveur de téléchargement est assez lent, je l’ai donc stocké au préalable.
      • Jointure sur la condition de présence du prénom dans le nom de la voie (les || permettent de coller des bouts de textes, rajoutant ici des blancs de part et d’autre des colonnes pour bien isoler les prénoms).

      En moins de 2 secondes, j’obtiens un résultat qui décrit les tronçons de 372 voies, soit un dixième du total des voies toulousaines. 

      Impatient de les visualiser, je les exporte dans un format géographique passe-partout, le GeoJSON :

      				
      					COPY filaire_femmes_toulouse  
      TO 'C:/.../datasets/filaire-femmes-toulouse.json'
      WITH (FORMAT GDAL, DRIVER 'GeoJSON');
      
      				
      			

      Notez au passage la souplesse de cet outil de requêtage DuckDB : il est à l’aise avec tous les formats, y compris géographiques.

      Une première carte brute

      Il me suffit enfin de faire glisser ce fichier généré dans mon navigateur, sur [https:]]  par exemple, pour voir s’afficher ces tracés. Ils sont visibles ici en gris, sur un fond de plan classique :

      © OpenStreetMap - geojson.io

      C’est presque trop simple pour être tout à fait crédible ! Mais tout de même, ces 372 voies ne sont pas si loin de la réalité, qui correspond plutôt à 300 (soit 8 % des voies toulousaines), comme on va le voir par la suite.

      Rassurez-vous, je vous épargne désormais les écritures SQL, que les curieux·ses pourront trouver dans ce classeur Observable.

      Examinons de plus près ces rues de première extraction ; le début du fichier, classé par prénom, se présente plutôt bien :

      Mais un peu plus loin, je constate qu’il y a du tri à faire :

      Claude est en effet un des nombreux prénoms mixtes, comme Dominique, Dany ou Camille. Sur les 480 000 Claude né·es dans entre 1900 et 2020, 88 % étaient des garçons. Il est donc tentant de ne retenir pour notre recherche que les prénoms majoritairement féminins. Exit donc les Claude, Dominique ou Hyacinthe.

      Le cas des Camille est intéressant et davantage épineux.

      Ce prénom est devenu bien plus populaire pour les filles à partir des années 1980. Ce qui fait qu’il apparait dans notre sélection de prénoms : il est majoritairement féminin.

      Source : Insee - outil interactif sur les prénoms

      Pour l’ensemble de la France (données du répertoire national Fantoir), les voies reprenant ce prénom mettent en tête Camille Claudel, mais pour le reste citent exclusivement des hommes.

      Ainsi, je vais devoir gérer dans ce cas une règle particulière : ne pas tenir compte des Camille dans ma recherche de voies féminines, sauf les « Camille Claudel ». Il en va de même pour George Sand.

      D’autres prénoms féminins entrent en compétition avec des toponymes ou des articles : que l’on pense à l’occitan LOU (qui correspond à LE), à ETOILE, LORRAINE, NANCY, AVRIL, ALMA… Pour parfaire mon filtrage, je vais exclure de ma base de prénoms majoritairement féminins ces mots fréquemment rencontrés dans les noms de rues, mais probablement peu liés à des personnes. Dans le même temps, je veille à réintroduire quelques exceptions : outre Camille Claudel et George Sand précédemment évoqués, France Gall par exemple, ainsi que quelques rares prénoms locaux comme Géori ou Philadelphe.

      Enfin, en l’absence de prénoms reconnus, certains titres comme COMTESSE (de Ségur), MADAME (de Sévigné), SOEUR fournissent de bons indices de la présence d’une femme.

      300 voies féminines à Toulouse,
      soit 8 % de l'ensemble des voies

      C’est ainsi que j’en arrive à identifier 300 voies a priori évocatrices d’une femme, que l’on voit ici en rouge, sur cette carte interactive et zoomable :

      /* [https:] */ .fullwidthx { width: 100vw; position: relative; left: 50%; right: 50%; margin-left: -50vw; margin-right: -50vw; }

      © IGN - Toulouse métropole

      import {Runtime, Inspector} from "https://cdn.jsdelivr.net/npm/@observablehq/runtime@5/dist/runtime.js"; import define from "https://api.observablehq.com/@ericmauviere/cartographions-les-voies-se-referant-a-une-femme-a-toulouse@690.js?v=3"; new Runtime().module(define, name => { if (name === "viewof cat") return new Inspector(document.querySelector("#observablehq-viewof-cat-a40b5924")); if (name === "viewof search") return new Inspector(document.querySelector("#observablehq-viewof-search-a40b5924")); if (name === "viewof voies_femmes_sel2") return new Inspector(document.querySelector("#observablehq-viewof-voies_femmes_sel2-a40b5924")); if (name === "viewof map") return new Inspector(document.querySelector("#observablehq-viewof-map-a40b5924")); return ["map_p","fly_p"].includes(name); });

      Les autres catégories résultent d’un travail similaire mené sur les prénoms masculins. Une fois les voies féminines mises de côté, les voies restantes relèvent de 3 classes :

      • Celles dont la dénomination comprend un prénom masculin ou un indice significatif (GENERAL, MAL, PRESIDENT, ABBE…)
      • Celles ensuite qui excluent a priori la référence à une personne, par la présence, après le type de voie, de DU, DE, DES : BD DE STRASBOURG, CHE DE TUCAUT…
      • Les autres au statut indéterminé, qui évoquent un homme, un lieu ou une profession : RUE LAFAYETTE, RUE MOLIERE, RUE MATABIAU, RUE PARGUAMINERES…

      Ainsi, il apparait que les 8 % de femmes font face à une fourchette de 44 – 57 % d’hommes référencés, soit en gros 6 fois plus d’hommes que de femmes.

      Source : Toulouse métropole - Insee © icem7

      Il y a naturellement aussi quelques voies mixtes, Pierre et Marie Curie, Lucie et Raymond Aubrac par exemple, que je ne compte pas deux fois, les classant d’autorité dans la catégorie féminine !

      Sur ces 300 voies féminines, une bonne vingtaine renvoient à un prénom seul dont certains sont identifiables (impasse Arletty, rue Colette, impasse Barbara) et d’autres non (impasse Matilda, rue Christiane, rue Sylvie, parc de Claire). 20 autres désignent une sainte.

      Des voies aux caractéristiques particulières

      Toulouse, comme la plupart des grandes villes, conduit un effort de rééquilibrage. Depuis une dizaine d’années au moins, la commission de dénomination célèbre au moins autant de femmes que d’hommes. Il y a aussi ces professions emblématiques que je n’ai pas intégrées, comme les « Munitionnettes » de la Cartoucherie, ou les « Entoileuses » de Montaudran, chargées de recouvrir les avions de tissu.

      Mais peu de voies sont débaptisées. Ce sont surtout les nouveaux quartiers, résidentiels ou d’activité, voire des aménagements routiers (bretelles) qui ouvrent des opportunités.

      Ici, dans un nouveau quartier près du Zénith, la mixité des dénominations est assurée :

      Source : Toulouse métropole - Insee © IGN

      Mais des voies au statut plus incertain, sans adresse (points verts) identifiée, sont aussi utilisées :

      Source : base adresse nationale © Etalab - OpenMapTiles - OpenStreetMap

      J’ai relevé toutefois un cas de renommage en centre-ville : OpenStreetMap évoque toujours en 2023 la rue du Languedoc quand le début de celle-ci est devenu allée Gisèle Halimi en 2021.

      © OpenStreetMap © IGN Peu nombreuses, les voies féminines sont aussi plus courtes et plus modestes, plus représentées dans la catégorie des allées ou des ronds-points ; les boulevards ou les avenues sont quasiment inexistants. Sources : Toulouse métropole - Insee La longueur moyenne d’une voie féminine est de 200 m, contre 300 m pour les masculines. La voie féminine la plus longue, le bd Florence Arthaud, parcourt 1,6 km, une trentaine de voies masculines sont plus longues, allant jusqu’à près de 4 km pour l’avenue du Général Eisenhower. Qu'en est-il ailleurs en France ?

      Les données disponibles nationalement proviennent de deux sources :

      • Fantoir, répertoire des voies et lieux-dits, produit par la direction générale des finances publiques (les Impôts), alimenté par la gestion du cadastre ;
      • La base adresse nationale (BAN), qui référence toutes les adresses (soit x points par voie).

      Les deux sont accessibles sous forme de fichiers ou d’API. La BAN est par nature bien plus lourde qu’un simple répertoire des voies. Et elle ne référence que celles qui ont des adresses. Par exemple, la rue Karen Blixen que nous avons rencontrée plus haut n’y figure pas.

      Reste donc Fantoir, dont la base nationale est téléchargeable en open data depuis 2013, ce qui est à saluer ! En revanche, son format interne est difficile à décoder, j’ai donc converti la dernière version datée d’avril 2023 au format Parquet (ce qui permet aussi de réduire sa taille de 1 Go à 130 Mo).

      En voici un extrait (pour Toulouse) :

      Source : Fantoir/DGFIP

      Son intérêt principal, c’est qu’il est national, il présente toutefois quelques limites par rapport au filaire de voies de Toulouse métropole :

      • Ce n’est pas un fichier géographique, il ne comprend pas le tracé des voies ;
      • Le champ libelle_voie est limité à 30 caractères, ce qui conduit à de fâcheuses abréviations qui peuvent affecter les prénoms. Comment deviner par exemple que les deux premières lignes évoquent une Anne-Marie et une Anne-Josèphe ?
      • Il accuse, dans sa version open data, un retard d’environ une année.

      Ceci explique qu’une vingtaine de voies manquent à l’appel quand je lui applique, pour Toulouse, mon programme d’identification des voies féminines (soit une sous-estimation de 7 %).

      La moyenne nationale s’établit à 3,8 % de part de voies féminines. Je ne m’étends pas sur les comparaisons départementales, tant le degré d’urbanisation parait influer sur les résultats.

      En revanche, certaines petites communes se détachent spectaculairement. J’ai par exemple repéré La Ville-aux-Dames, dans l’agglomération de Tours. Cette commune de 5 000 habitants a décidé en 1974 que toutes les rues porteraient des noms de femme, sauf exception, par exemple la place du 8 mai ou celle du 11 novembre.

      La commune de Lisores, dans le pays d’Auge, berceau du peintre Fernand Léger, est devenue la cité des peintres, hommes et femmes. Son conseil a décidé en 2018 non seulement de respecter strictement la parité, mais de donner des noms de peintres à toutes ses voies (sauf exceptions toponymiques).

      L’examen des plus grandes villes confirme que la taille a un effet sur la féminisation

      Le taux moyen monte en effet de 3,6 % à 5,5 % pour l’ensemble des villes de plus de 100 000 habitants, et 6,7 % pour les plus de 200 000.

      Et dans cette dernière catégorie, Toulouse se classe plutôt bien, 3e derrière Rennes et Nantes.

      Sources : Fantoir/DGFIP - Insee

      Paris est proche de la moyenne, mais les disparités sont grandes entre ses arrondissements : moins de cinq références significatives dans le 8e ou le 9e, mais près de 10 % de voies féminines dans le 13e.

      Quelles sont les personnalités les plus citées
      dans nos rues ?

      Pour dresser ces tableaux pour les femmes et les hommes, j’ai dû prendre en compte de subtiles variations orthographiques. J’ai aussi choisi d’affecter PIERRE ET MARIE CURIE à MARIE CURIE (idem pour LUCIE AUBRAC, souvent associée à RAYMOND). Par ailleurs, Pasteur, Gambetta ou Foch sont souvent cités sans prénom, il faut donc les prendre en compte manuellement après examen du palmarès de tous les noms de voies en France.

      Simone Veil est la personnalité la plus contemporaine à être honorée sur les plaques de nos rues, devant même François Mitterrand.

      Quelles sont enfin les tendances récentes ?

      Pour répondre à cette question, la présence dans Fantoir d’une colonne date_creation m’a paru prometteuse. Mais à l’examen, elle ressemble plus à une date de modification de l’enregistrement (elle est toujours supérieure à 1987), et celles-ci peuvent intervenir pour tout un tas de raisons liées aux évolutions du cadastre.

      J’ai donc considéré les noms de voies qui n’étaient que peu représentés à la création du fichier, mais qui sont apparus depuis 2010. Là encore, il a fallu prendre en compte des variations orthographiques, voire des coquilles (Mitterrand étant par exemple parfois écrit avec un seul r).

      Commençons donc par les hommes. Quand une personnalité éminente disparait, il est de coutume de la célébrer, entre autres sous la forme d’un odonyme. Et s’il s’agit d’un président, on n’hésitera pas à rebaptiser une voie prestigieuse. L’avenue Jacques Chirac remplace ainsi depuis peu, à Toulouse le boulevard des Crêtes. Toutefois, Jacques Chirac (40 voies à ce jour) et Valéry Giscard d’Estaing (25) n’ont pour l’heure pas connu de succès comparable à la seule année qui a suivi le décès de François Mitterrand.

      Nelson Mandela illustre un cas différent et intéressant, il était déjà admiré et célébré de son vivant. Je ne m’attendais pas, enfin, à voir apparaitre dans ce palmarès le colonel Arnaud Beltrame, en 4e position.

      Sources : Fantoir/DGFIP - Insee

      Pour les femmes, Simone Veil domine ce palmarès des tendances depuis 2010, mais elle était déjà honorée avant son décès. Simone de Beauvoir et Olympe de Gouges restent des valeurs sûres, icônes du féminisme, gagnant même en popularité ces dix dernières années. La disparition brutale de Florence Arthaud, enfin, a provoqué une réelle émotion.

      Sources : Fantoir/DGFIP - Insee

      On le voit, tester la présence de prénoms permet de bien dégrossir le sujet, mais il reste pas mal de travail manuel pour ne pas rater ce qui apparait après coup comme des évidences. Les bases ont aussi leurs petits défauts, quand ce sont d’abord des bases de gestion, qu’il faut connaitre et savoir contourner.

      Le prénom des gens est important, il les identifie et les humanise. Il devrait apparaitre systématiquement, sur les plaques comme dans les fichiers.

      En dépit de mes réserves initiales, je dois remercier mon épouse de m’avoir plongé dans cette instructive exploration. Et tout autant les concepteurs de ce fabuleux outil qu’est DuckDB : sa souplesse et sa vélocité m’ont permis de pousser sans entraves tous mes questionnements et souhaits de vérification. Et enfin toutes celles et ceux qui œuvrent à mettre à disposition libre ces précieuses bases de données.

      Pour en savoir plus

      L’article Où sont les femmes dans les rues de Toulouse (et d’ailleurs) ? est apparu en premier sur Icem7.

    • sur Rapport mondial 2023 sur les déplacements internes (Conseil norvégien pour les réfugiés)

      Publié: 29 September 2023, 7:55am CEST

      Le Rapport mondial sur les déplacements internes du Conseil norvégien pour les réfugiés (NRC) constitue une source importante de données et d'analyses pour appréhender chaque année l'impact des déplacements internes à l'échelle mondiale. Les déplacés internes sont des personnes contraintes de fuir à l'intérieur de leur propre pays, notamment en raison de conflits, de violences, de violations des droits humains ou de catastrophes. Lorsque des personnes passent une frontière pour échapper aux persécutions, elles sont protégées par des conventions internationales et sont juridiquement considérées comme des réfugiés. Les personnes vivant une situation semblable qui quittent leur région d’origine tout en restant dans leur propre pays deviennent des déplacés internes. Leur protection relève de la responsabilité de l’État concerné, mais celui-ci ne peut souvent plus l’assurer – ou refuse de la garantir au groupe de population concerné. Les déplacés internes ne constituent pas une catégorie juridique particulière et ils ne bénéficient donc pas d'une protection spécifique du droit international (source : UNCHR).

      Déplacements internes en raison des conflits et des catastrophes en 2022 (source : Norvegian Refugiee Council)


      71,1 millions de personnes vivaient en situation de déplacement interne dans le monde fin 2022, une augmentation de 20% par rapport à 2021 soit la plus élevée jamais enregistrée. Le nombre de déplacements associés aux conflits et à la violence a presque doublé pour atteindre 28,3 millions. La guerre en Ukraine a déclenché 16,9 millions de déplacés, le chiffre le plus élevé jamais enregistré dans un pays. Le phénomène météorologique de La Niña qui a persisté pendant trois années consécutives, a conduit à des niveaux records de déplacements dus aux inondations notamment au Pakistan, au Nigeria et au Brésil. Elle a entraîné une sécheresse record en Somalie, en Éthiopie et au Kenya, à l'origine de 2,1 millions de déplacements. Les conflits, les catastrophes et les déplacements ont aggravé la situation en matière d'insécurité alimentaire, qui était déjà préoccupante en raison de la lenteur de la reprise après la pandémie de Covid-19. Le rapport 2023 en est sa huitième édition. Il est consacré à l'insécurité alimentaire en tant que moteur, impact et obstacle potentiel aux déplacements internes. 

      Déplacements internes en raison des conflits et des violences en 2022 (source : Norvegian Refugiee Council)



      Déplacements internes en raison des catastrophes en 2022 (source : Norvegian Refugiee Council)

      Le rapport se divise en deux parties :

      • Partie 1 : Déplacement interne en 2022

      Cette section présente les données mondiales sur les déplacements internes collectées par l'IDMC tout au long de l'année 2022, dans les différents contextes politiques, économiques et sociaux de différents pays et régions. Elle présente les chiffres sur les déplacements internes liés aux conflits et catastrophes a, ainsi que les dernières estimations de l'IDMC sur l'impact économique de ces déplacements.

      • Partie 2 : Sécurité alimentaire et déplacement

      Cette section contient des données et des analyses qui montrent les relations complexes entre les catastrophes, les conflits, l'insécurité alimentaire et les déplacements internes. Le rapport 2023 présente les principales dimensions des relations entre sécurité alimentaire et déplacement interne, chacun agissant à son tour comme un moteur et un impact de l'autre, les deux renforçant les cycles durables de vulnérabilité et de crise.


      Coût estimé pour assurer la sécurité alimentaire des personnes déplacées via des plans de réponse humanitaire (source : Norvegian Refugiee Council)



      Les rapports publiés depuis 2016 consacrent une première partie aux données générales et une deuxième partie au traitement d'une question spécifique, ce qui permet d'aborder la question sous différents angles :

      • Rapport 2022  : impact des déplacements sur les enfants et les jeunes
      • Rapport 2021 : relations entre changement climatique, catastrophes et déplacements
      • Rapport 2020 : politiques et moyens mis en oeuvre par chaque pays pour y répondre
      • Rapport 2019 : défis et opportunités des déplacements internes
      • Rapport 2018 : voies à suivre pour réduire les déplacements,  défis et lacunes en matière de données
      • Rapport 2017 : enjeux pour les associations humanitaires et de développement
      • Rapport 2016 : défis méthodologiques et conceptuels à surmonter pour établir un tableau 

      Articles connexes
      Cartographier les migrations internationales
      MigrExploreR pour géo-visualiser des migrations internationales
      Étudier les migrations à l'échelle infranationale pour l'ensemble des pays du monde

      Une datavisualisation sur les migrants décédés dans le monde entre 2014 et 2019

      Une data visualisation pour étudier les vagues d'immigration aux Etats-Unis (1790-2016)

      La Grande Migration des Noirs aux Etats-Unis à travers les romans de Toni Morrison

      Étudier les mobilités résidentielles des jeunes Américains à partir du site Migration Patterns

      Une data-story sur les flux de migrations en Afrique
      Exposition de Mathieu Pernot L’Atlas en mouvement

      S'exercer à cartographier des migrations dès la classe de 4ème

    • sur Atlas des « cercles de fées » dans le monde

      Publié: 29 September 2023, 6:51am CEST


      Source : Emilio Guirado & al. (2023). The global biogeography and environmental drivers of fairy circlesProceedings of the National Academy of Sciences (PNAS), sept. 2023)

      Des chercheurs de l'Université d'Alicante en Espagne ont produit un nouvel atlas du phénomène naturel connu sous le nom de « cercles de fées ». Présents principalement dans les régions arides de Namibie et d’Australie, les cercles de fées sont une végétation organisée en forme d’anneau. L'équipe de recherche a pu découvrir des centaines d'emplacements de cercles de fées en utilisant des images satellite haute définition pour analyser environ 574 799 parcelles de terrain dans le monde. 

      Carte représentant la répartition des « cercles de fées » indiqués par des points jaunes (source : Guirado et al., PNAS, 2023)

      L’équipe a découvert 263 sites où ces tâches brunes peuvent être trouvées. Elles sont répartis sur 3 continents et 15 pays, notamment au Sahel, au Sahara occidental, dans la Corne de l’Afrique, à Madagascar, en Asie du Sud-Ouest et en Australie centrale. Les scientifiques ont pu relever plusieurs points communs :

      • des sols sableux et pauvres en nutriments
      • des climats arides avec une forte saisonnalité des précipitations
      • la présence de nids de termites comme facteurs à l'origine de la formation de cercles de fées

      L'article suggère que les cercles contribuent à augmenter les ressources en eau et que les zones dotées de cercles de fées connaissent une productivité végétale plus stable que celles qui n'en sont pas dotées. 

      « L'atlas mondial présenté ici fait progresser notre compréhension de la biogéographie des modèles de végétation en forme de cercle de fées et facilitera la conduite de recherches futures sur les caractéristiques et les mécanismes qui sous-tendent ces modèles de végétation énigmatiques dans des endroits jamais étudiés jusqu'à présent... Nos travaux ouvrent également la voie à des recherches plus approfondies sur les implications fonctionnelles de ces structures végétales, qui rendent les écosystèmes plus stables et pourraient les aider à éviter les points de bascule associés au changement climatique ». 
      L'origine mystérieuse a conduit à l'appellation « cercles de fées » (fairy circles). Différentes hypothèses scientifiques ont été avancées jusque-là sur leur origine (voir l'article consacré au sujet sur Wikipedia)

      Articles connexes

      Une carte animée des biomes anthropogéniques ou anthromes à l'échelle mondiale (Anthroecological Lab)
      GeoSahel. Suivre l'évolution de la biomasse et améliorer la surveillance pastorale au Sahel

      Une carte de l'INPN pour analyser et discuter la répartition de la biodiversité en France
      Eduquer à la biodiversité. Quelles sont les données... et les représentations ?
      Une carte mondiale des types d'habitats terrestres


    • sur How does revisit affect data fusion methods (between S2 and a potential VHR constellation)

      Publié: 28 September 2023, 10:30am CEST par Olivier Hagolle

      In a previous post, we showed that spatio-temporal fusion methods would enable to obtain hybrid data with the revisit of the S2-NG mission (3 to 5 days), and the resolution of the Sentinel-HR mission (2 m), with an uncertainty better than the atmospheric correction errors (better than 0.01 in reflectance).  In this section, we tested how this uncertainty evolves if we change the revisit of the Sentinel-HR constellation. The analysis was done by Julien Michel and Ekaterina Kalinicheva at CESBIO, and was partially funded by ESA in the framework of S2-NG preparation, by CNES, and by the EVOLAND (Horizon Europe) project.

      Data Sets

      As explained in the previous post, the work is based on VENµS and Sentinel-2 time series, with VENµS simulating the VHR mission, and S2 the S2-NG mission. To keep a factor 2.5 between the resolution of S2-NG and VENµS, we had to degrade S2 resolution to 12.5 m, as VENµS has a resolution of 5 m. VENµS images can be acquired with a 2 day revisit, but the acquisitions from this microsatellite have not always been fully reliable: there have been periods when the satellite was devoted to another mission, a few temporary breakdowns, and also recurrent downlink issues.  As a result, it is not straightforward to simulate a regular time series with 10, 20, 30 and 60 days revisit for instance.

      The study has been applied to 5 VENµS time series on different sites displayed in the table below, and an image of each region is provided.

      VENµS site name Country description
      ARM USA Intensive agriculture
      ESGISB France Forests, small urban fabric
      ES-IC3XG SPAIN Forest Herbaceous vegetation
      FR-LAM France Agriculture, some woods
      MAD-AMBO Madagascar Arid, Shrubs

       

      Example of cloud free images from the five sites used in the study

       

       

      The following graph provides a representation of the dates for the ARM site :

      For the ARM time series, the blue dots correspond to the dates of VENµS with less than 50% of clouds, while the red dots are the S2 dates. The green dates correspond to acquisitions on the same day.

       

      In order to simulate the desired VHR series revisit, the following process is applied.

      1. all the dates with more than 50% cloud coverage are discarded
      2. S2 and VENµS acquisitions on the same day are searched to be used as a validation data set. In order to have an independent evaluation, same day acquisitions are therefore removed from the HR series and kept apart to serve as reference images in the evaluation process.

      The remaining HR dates are processed as follows:

      1. A grid of dates with target revisit, starting at the first available HR date, is defined
      2. For each position in the grid, the closest HR date is selected. If this date was acquired less than N days apart from the grid date, the date is kept, otherwise it is discarded. We used N=¼ of the Target HR revisit.
      Target revisit with less than 50 % of clouds Number of dates Mean revisit Minimum revisit Maximum revisit Rough value of revisit of a real satellite mision allowing the target revisit
      10 20 16.4 6 32 8
      20 14 23 16 38 12
      30 11 30 24 36 15
      40 8 39.7 34 46 20
      50 7 50 48 53 25
      60 6 60 56 64 30

       

      Because of the gaps in VENµS acquisitions and because we removed the simultaneous images to get reference results, we could not simulate a real and regular revisit over long period of times. As explained above we worked with ‘target HR revisits with less than 50% of cloud cover. The mean revisit is the most interesting column, as it takes into account the missing dates, the reference dates, and the cloud coverage. For the high values, we have a mean revisit close to the target one, but for the low values, the mean revisit is higher.

      Knowing that on average, 70 % of pixels are cloudy on the earth, we estimate that half of the acquisitions in a regular revisit provide images with less than 50% of clouds. We acknowledge that this should be checked. With this rule of thumb, we decided to test 3 configurations that correspond to 20, 40 and 60 days revisit with 50% cloud free, and therefore should correspond respectively to more or less to 12, 20 and 30 days revisit of a VHR constellation. We would have liked to test longer periods, but the number of dates used would be really reduced and the results could be statistically insignificant.

      Methods

      To the 5 methods presented in the previous section, we removed the single image super resolution CARN, as it is not sensitive to the revisit (the VHR data are only used to train the network). Two new methods were added, named “Data Mining Sharpener”, and “Data fusion”.

      • DMS : Data Mining Sharpener[1], has been widely use to improve the resolution of TIR images. It makes a regression between HR and LR data, and requires to make a new learning at each image. It needs a new learning for each image.
      • DF (Data fusion), uses the Extended Super-Resolution Convolutional Neural Network[2], based on the architecture of Single Image Super resolution network named SCRNN. It has a simple architecture with 3 convolution layers, uses N HR images as input, and needs a new training for each image.

      The zoom method does not need VHR data, and the gap-filling does not use S2-NG data. The four other methods (StarFM, DMS, DF and DDI ) used 2 dates before and 2 dates after the reference date. For a target revisit of 30 days (60 days with less than 50% of clouds), the VHR acquisition span over 180 days (three intervals of about 60 days), or half a year !

      Results

      The graphs below show that the DDI method has better performances than the other methods, that the Gap filling (or linear interpolation against time), which does not use the more frequent S2-NG images, can sometimes have very good performances when the VHR images are frequent, or when the landscape does not change much. However, of course, when changes occur, the performances are degraded, and an increased degradation is observed with the revisit. The three data fusion methods (DMS, DF, DDI) seem to behave almost equally, with DDI marginally better. We only show the red band here, but the results for the other VHR bands are similar.

      RMSE error of fused images, for 20 days revisit with less than 50% of clouds, expressed as reflectances, for 5 sites and 74 validation dates, for the red band, a factor 2.5 in resolution between S2-NG and VHR, for the different methods, zoom, Gap filling (GF), StarFM (*FM), Data Mining Sharpener (DMS), Data Fusion (DF) and Data Driven Interpolation (DDI). For each method, a modeled histogram of errors per date is provided. The values are provided for all pixels, and for two strata of image gradients, the 25% lowest gradients (rather uniform environment), and the 25% highest gradients (pixels with a contrasted environment)

       

      Same as above, but for 60 days revisit with less than 50% of clouds, or about 30 days revisit without accounting for clouds

       

      Another experiment was done simulating the S2-NG images from VENµS ones, before applying the fusion methods to the simulated images (next figure). This avoids all the differences between S2 and VENµS regarding spectral bands, viewing directions, registration errors and noise… The figure below shows that the performance of (DMS, DF and DDI) are much better, and that DDI gives the best results. It is also interesting to know that most of the residual errors in the figures above are due to differences between VENµS and S2 and not to the data fusion. However, we think that the performances obtained using VHR data simulated by VENµS and LR simulated from S2 correspond better to the real performances, than similar results with both VHR and LR simulated from VENµS. The degradation of performances due to using two different sensors is maybe a little exagerated because of the the larger viewing angles of VENµS, while the VHR constellation should be observing at NADIR.

      Same as above, but for 20 days revisit with less than 50% of clouds, or about 10 days revisit without accounting for clouds, and with simulated S2-NG images instead of real ones.

       

      The following figure compares the DDI method performances as a function of the revisit (with less than 50% cloud cover). Contrarily to the Gap filling, the degradation with time exists but is very low, showing that 30 days revisit (or 60 days with less than 50 of clouds) could be acceptable.

      Comparison of results obtained from the DDI method with a mean revisit of 20, 40 and 60 days, with images with less that 50% of clouds. This should correspond to a mission with a revisit of, 10, 20 and 30 days regardless of cloud cover.

       

      Conclusion

      As a conclusion, it appears that the fusion methods are quite robust to the degradation of the VHR revisit. The high resolution feature seem to be quite stable with time, and that the evolutions only concern a small fraction of the pixels. With such results, a revisit of 30 days could seem acceptable. However, such a diagnostic should be tempered by the fact that even if they don’t happen frequently, quick changes of VHR details are an important part of what is searched in such missions. Fusion methods may provide unreliable results when for instance a catastrophic event occurs which is not observed by the VHR imagery because of an infrequent revisit.

      [1] Feng Gao, William P. Kustas, and Martha C. Anderson. A data mining approach for sharpening thermal satellite imagery over land. Remote Sensing, 4(11):3287–3319, 2012.

      [2] Zhenfeng Shao, Jiajun Cai, Peng Fu, Leiqiu Hu, and Tao Liu. Deep learning-based fusion of landsat-8 and sentinel-2 images for a harmonized surface reflectance product. Remote Sensing of Environment, 235(nil):111425, 2019.

       

    • sur Test of spatio-temporal fusion of Sentinel-2 New Generation data with a potential VHR mission

      Publié: 28 September 2023, 10:14am CEST par Olivier Hagolle

      Three years ago, we started the phase-0 study of a mission named Sentinel-HR : S-HR would be a satellite mission to complement Sentinel-2 new generation (S2-NG) with

      • better resolution images (2 m),
      • a lower revisit (around 20 days),
      • 4 spectral bands (Blue, green, red and near-infrared),
      • and the capacity to make stereoscopic observations

      In that study, one of our assumptions was that a lower revisit frequency than that of Sentinel-2 was sufficient. This seems possible because, in most cases, the high frequency features of the images (the details) do not change as quickly as the low frequency features (the colors).

      During that study, Julien Michel spent quite some time in verifying this assumption. To do so, he studied if it is possible to fuse the time series from S2-NG and from S-HR in order to get hybrid time series with the high resolution of S-HR (2 m), and the high revisit of S2 (5 days) or S2-NG (3 days). These results have already been shown in our report one year ago, but we are not fully sure everyone reads reports with 150 pages.

      In this first article, we show the methodology, validation data set and first results, and in a second post, we study the influence of the revisit frequency. A second post studies the influence of the revisit.

      Data sets

      Different techniques allow to merge time series of S2NG and VHR data, to get at the same time the frequent revisit of S2NG, and the very high resolution of the S-HR, with a good accuracy. Our study compared different methods, using Sentinel-2 and VENµS images to simulate S-HR and S2NG data. As VENµS images are acquired every second day, for each time series, one image every 20 days was used for the data fusion, and the other ones to validate the fused data.

      The following series gives an example of the data set we used (which has been published [4]). We have such data on 110 sites, observed by VENµS for two years.

      Series of images obtained from Sentinel-2 (top row) and VENµS (bottom row). For each column, S2 and VENµS data were acquired one day apart or even on the same day. The first S2 image is shown in black as it was fully cloudy. As VENµS resolution is 5 m, the S2 data have been downgraded to 12.5 m, in order to keep the 2.5 resolution factor we will have between S2 NG and S-HR. In this data set, the first and last S-HR images are separated by 20 days. The real Sentinel-HR data would not provide the data in between. The S-HR images acquired in between are therefore used to validate the data fusion. Data fusion methods

      For sake of conciseness we do not detail the methods here, as they are fully described in the report. We studied five methods :

      Two trivial methods for reference:

      • GF : Gap filling the VHR data, without using any information from the S2 or S2NG sensors. It is just a temporal interpolation, performed pixel wise
      • Zoom : Zooming the S2NG or S2 using resampling techniques. In that case S-HR data are not used.

      Three more methods where tested:

      • STARFM [3] or *FM is a classical multi-linear approach to data fusion, that uses information from both missions
      • CARN [2] is an efficient single image super-resolution method, that only uses the S-HR data as reference data for the machine learning, while the inference of super-resolution images is obtained with the S2 (NG) data.
      • DDI is a guided interpolation approach. Neural networks are trained to learn how to interpolate the S2(NG) data at S2(NG) resolution, and then, the same neural network is used to interpolate the VHR data at full resolution. The DDI method was tested with two different normalizations. DDI, developed at CESBIO ash not been published yet, but should be published soon.
      Results

      The results displayed in next figure show that differences lower than 0.01 with the reference data set have been reached in the red, green and blue bands with the DDI methods. It has been tested for uniform pixels, where temporal variations are preponderant, and with the 25% of pixels that include the highest gradients, for which the spatial features are more important. The results are not as accurate for the near infra-red bands because of larger differences in the spectral response functions between VENµS and Sentinel-2. Standard deviations of 0.01 are close to the performances of atmospheric correction on Sentinel-2 images. It may therefore be considered as a really good result.

      Comparison of data fusion methods for 4 bands, obtained on a data set of Sentinel-2 images degraded to 25 m GSD, and VENµS images at 5m, representing the VHR images with a low revisit of 20 days. The factor between resolution is the same as in Sentinel2 vs VHR mission.   GF is gap filling, or temporal interpolation, using only VENµS images, ZOOM is a spatial interpolation using only S2 images, STARFM is a classical but old multilinear data fusion method, CARN is a single image super resolution method based on deep learning, using S2 and VENµS for training but only S2 for inference, and DDI is a modern data fusion method. The results show that an accuracy on reflectance of 0.01 can be reached even for the pixels with sharp variations. Gap Filling provides good results for the rmse, but terrible results for the temporal criteria.

       

      The next figure shows, for just one case, the differences observed in the fused data depending on the methods. The final report includes much more results.

       

      The first row shows the predicted HR images, with first, the reference imaged by VENµS, and then the prediction obtained from the S2 image (bottom image in the first column). In that case, we simulated the data fusion between S2 and S-HR, with a factor 5 in resolution. The gray images show the differences between the predicted image and the reference, for 4 methods, gap filling, CARN, STARFM and DDI.

      It is interesting to note that the gap filling methods predicts the contours very well, but the linear interpolation in time is not able to capture the complex evolution of landscape colors, while the other methods manage to provide the low frequency evolution, but do not obtain the contours as well as the gap filling. However, the DDI methods does quite a good job for both criteria, as shown by the statistics above. These results show that our assumption of the possibility of a lower revisit for the Sentinel-HR is correct. Of course, in terms of cost, a constellation with a revisit of 20 days is probably 4 times cheaper than the same constellation with 5 days revisit. In a second post we studied if we could further reduce the revisit.

       

       

      [1] Julien Michel, Olivier Hagolle, Jean-Marc Delvit, Martin Thierry, Lebegue Laurent, et al.. Sentinel-HR Phase 0 Report. CNES – Centre national d’études spatiales; CESBIO. 2022. [https:]]

      [2] Li, Yawei, Agustrsson, Eirikur, Gu, Shuhang, et al. Carn: Convolutional anchored regression network for fast and accurate single image super-resolution. In : Proceedings of the European Conference on Computer Vision (ECCV) Workshops. 2018. p. 0-0.

      [3]Hilker, T., Wulder, M. A., Coops, N. C., Seitz, N., White, J. C., Gao, F., … & Stenhouse, G. (2009). Generation of dense time series synthetic Landsat data through data blending with MODIS using a spatial and temporal adaptive reflectance fusion model. Remote Sensing of Environment113(9), 1988-1999.

      [4] Michel, J., Vinasco-Salinas, J., Inglada, J., & Hagolle, O. (2022). SEN2VENµS, a dataset for the training of Sentinel-2 super-resolution algorithms. Data, 7(7), 96.

       

    • sur Entre corps et espace (Jean-David Nkot)

      Publié: 28 September 2023, 8:08am CEST par Françoise Bahoken

      Jean-David Nkot est un brillant artiste plasticien camerounais né en 1989 à Douala, formé à l’Institut des Beaux arts de Foumban et installé à Douala, au Cameroun. Ce très exceptionnel artiste – bah, je dis ça parce que j’aime beaucoup son travail –  mobilise la carte et des éléments de la cartographie en support avant ou arrière de plusieurs de ses œuvres, liant deux mots-clés : corps et espace.

       Jean-David Nkot sur les frontières et les circulations

      Profondément humaniste, Jean David Nkot a dédié l’une de ses séries aux circulations humaines et non aux migrations (il se défend de s’intéresser aux migrations en tant que telles) dans le monde contemporain qu’il donne à voir en les questionnant, du point de vue de l’humain. Ce qui l’intéresse c’est la matérialisation par l’art de cet entre-deux vécut entre lieux d’origine et de destination et qui correspond au voyage dans son ensemble, c’est-à-dire aux moments de circulations mais aussi à ces temps de pause, d’arrêts, finalement à ce qu’il qualifie la « zone grise ».

      Ses œuvres montrent en effet des portraits des personnes noires, posant avec des cartes très prégnantes. Dans ce travail, la carte en elle-même ou des éléments de la conception cartographique sont une composante fondamentale de l’œuvre.

      Les éléments cartographiques sont ainsi placés soit en arrière-plan soit au premier plan par rapport au sujet principal soit incrustés sur celui-ci.

      Dans le premier cas, ces éléments sont des collages de sections de cartes réelles ou des bouts de carte fabriquées par l’auteur, des aplats, des points de repère. L’ensemble est toujours customisée pour servir le propos. En fonction de la position et de l’attitude du sujet, toujours évocatrice, les cartes sont complétées d’éléments de contexte : un tabouret pour signifier une localisation, un emplacement assez peu confortable, le tampon d’un visa évoquant le droit de passage, d’apparaître sur la carte, des mentions de lieux remarquables (Le Louvre par exemple), le dessin de voies de circulation plus ou moins importantes et ainsi de suite.

      Dans le second cas, les éléments cartographiques, souvent un enchevêtrement fin de voies de circulation servent à cacher la personne représentée qui se laisse ainsi deviner, en n’étant pas au premier plan du décor. C’est le cas des séries Undesirables (2022) ou encore The Shadows of space (2019 à 2021 voir exemples ci-après).

      Source : Afikaris.

      Le travail de l’artiste autour de la cartographie et des circulations a notamment été interrogé par Anne Bokandé en 2020, dans le cadre le cadre de la Saison #6 Nouvelles Cartographies et du projet « Nouvelles cartographies – Lettres du Tout-Monde » du Labo 148.

      L’entretien avec Jean-David Nkot qui en résulte, intitulé Les cartographies comme espaces de questionnement des circulations aujourd’hui et des manières d’habiter est disponible dans Bitume d’où est extrait le questionnement suivant de l’artiste.

       « Aujourd’hui vous voyez que c’est important de circuler librement, parce que lorsqu’un cas se déclare quelque part, un autre peut être espace d’accueil le temps de trouver des solutions. Pourtant, que faites-vous, vous, quand le reste du temps, vous fermez les frontières, et interdisez que d’autres entrent ? Si tout le monde commence à faire cela, comment s’en sortir ? Vous voyez bien qu’on a besoin de son voisin pour exister. » En Italie désormais ce sont les Cubains qui viennent aider les malades. Alors je me questionne : quelle sera la nouvelle cartographie du monde après la sortie de cet événement ? Comment les gens vont reconstruire la carte du monde ? Soit nous allons davantage nous enfermer, soit nous allons véritablement revoir les questions de frontières entre nous. Pas physique, mais entre humains. Comment avons-nous envie de les revoir ? La cartographie est quelque chose de crucial. On ne peut rien faire sans. Cela nous oriente. Mais quelles cartographies ? Est-ce que celles que nous utilisons actuellement nous conviennent ?

      Jean-David Nkot à propos des européens qui résident en Afrique et ne veulent en partir.

       

      A savoir également que Jean-David Nkot a participé avec Michel Ekeba et Géraldine Tobé (République Démocratique du Congo), dans le cadre de l’Art Space Projet (ASAP) présenté dans cet article du Monde, à l’œuvre « Memory of today, Memory of the future » qui a été placée sur le premier satellite météorologique africain lancé en décembre 2022 par Ariane Espace.

      Un artiste vraiment exceptionnel, je vous disais en introduction, qui est représenté en France par la sympathique galerie Afikaris

       

      Jean-David Nkot, Le transporteur, 2021 ©Jean-David Nkot. Source : Afikaris.

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur L'histoire par les cartes : découvrir la collection Steegh-Teunissen de la Bibliothèque de l'Université de Leiden

      Publié: 25 September 2023, 6:51pm CEST


      En 2021, les collectionneurs John Steegh et Harrie Teunissen ont fait don de l'intégralité de leur collection cartographique aux Bibliothèques de l'Université de Leiden (UBL) aux Pays-Bas : pas moins de 19 000 cartes et 2 500 atlas et guides de voyage, qu'ils ont réunis en près de 40 ans.

      La collection comprend des cartes de tous les continents, du XVIe siècle à nos jours avec un accent particulier sur les XIXe et XXe siècles. Il s'agit probablement de la plus grande collection de cartes privées des Pays-Bas. Les thèmes abordés concernent notamment la gestion de l'eau, le développement urbain, la répartition ethnique, les conflits militaires. On y trouve une grande variété de cartes, y compris des cartes de propagande et des cartes publicitaires. Le fond comprend  des cartes ottomanes, des cartes de la Palestine et d'Israël, des cartes de Leiden aux Pays-Bas (environ 140) et quelques cartes concernant l'Holocauste. Le plan secret de la ville allemande de Varsovie de 1939, sur lequel les SS ont dessiné les contours du ghetto juif prévu en novembre 1940, est assez unique. 

      Extrait du plan du ghetto de Varsovie dessiné à la main par les SS en 1940 (source : Harrie Teunissen)

      « L'Holocauste est en grande partie une histoire spatiale » (entretien avec Harrie Teunissen, collectionneur de cartes)

      « Topographie de la terreur : cartes du ghetto de Varsovie » (conférence d'Harrie Teunissen)

      L'exposition Mapping Modernity qui se déroule jusqu'au 28 janvier 2024 reprend une partie de la collection Steegh-Teunissen. Les deux collectionneurs ont travaillé avec le Design Museum Den Bosch pour sélectionner 250 cartes qui racontent l'histoire de notre monde moderne : 

      « Un monde dans lequel l’être humain se place au centre et croit pouvoir affirmer son contrôle sur tout. L’histoire de la modernité est celle du contrôle : sur la nature, les populations et les flux commerciaux. Les êtres humains se sont placés au centre de l’univers et ont utilisé des cartes pour tenter de dominer une réalité complexe et insaisissable. Chaque carte offre un aperçu de l'état d'esprit de ceux qui l'ont commandée et de la manière dont ils ont cherché à façonner le monde à leur convenance. Vous pouvez facilement imaginer les personnes qui ont dressé ces cartes : le général SS en 1939 qui a délimité le ghetto juif sur une carte de Varsovie, scellant ainsi le sort de milliers de personnes. Le fonctionnaire néerlandais inquiet du ministère des Travaux publics qui présentait à ses supérieurs une carte montrant une meilleure protection de la Hollande, deux jours avant les inondations catastrophiques de 1953. Les compilateurs de l'atlas des écoles américaines du XIXe siècle, identifiant quelles populations étaient « civilisées » et n'avaient pas encore atteint le « standard blanc » (à supposer, comme ils le sous-entendaient, que cela soit envisageable). La façon dont nous interagissons avec les cartes et l’influence qu’elles ont sur nous ont progressivement changé. Les cartes numériques jouent désormais un rôle majeur dans nos vies, qu'il s'agisse de nous repérer ou de rechercher un logement. Les cartes papier de cette exposition permettent de montrer comment nous en sommes arrivés là » (présentation de l'exposition Mapping Modernity).

      A découvrir également :

      Une carte allemande de la diffusion de la grippe russe de 1889-90 :
      Graphische Darstellung Des Auftretens Der Insluenza-Pandemie (voir cet article pour les explications)

      L'Ukraine d'après les cartes historiques des collections de l'UBL :
      L'exposition Borderlands

      Un magnifique atlas de l'Ukraine et des pays limitrophes (1937) :
      Atljas Ukrajiny i sumežnich krajiv K.213

      Extrait de l'atlas de l'Ukraine et pays limitrophes (source : Collection Steegh-Teunissen)



      La collection Cartes et Atlas de l'UBL rassemble des documents cartographiques depuis la fondation de la bibliothèque universitaire en 1587. La collection de cartes et d'atlas comprend aujourd'hui environ 100 000 feuilles de cartes (dont 3 000 cartes manuscrites), 3 500 atlas et 25 000 gravures et dessins topographiques. La plus grande partie a été léguée en 1872 comme héritage de l'éditeur Johannes Tiberius Bodel Nijenhuis (1797-1872). Outre la collection Bodel Nijenhuis, la collection de cartes et d'atlas comprend plusieurs autres sous-collections, telles que la collection Van Keulen, la collection de cartes coloniales néerlandaises de l'ancienne bibliothèque de l'Institut royal des tropiques (KIT), la collection de cartes de l'Institut royal néerlandais d'études sur l'Asie du Sud-Est et les Caraïbes (KITLV) et plusieurs autres sous-collections moins importantes. Les cartes datent du XVIe siècle à nos jours. L'accent est mis sur le matériel cartographique des Pays-Bas et de l'Europe occidentale, ainsi que sur les régions exploitées par la Compagnie néerlandaise des Indes orientales et la Compagnie des Indes occidentales (VOC et WIC) et sur les anciennes colonies néerlandaises de l'Indonésie, du Surinam et des Antilles néerlandaises actuelles. 

      Voir par exemple « La cartographie néerlandaise de Chypre » (catalogue d'exposition)


      Articles connexes
      Trois anciennes cartes de la Chine au XVIIIe siècle numérisées par l'Université de Leiden
      L'histoire par les cartes : les archives du Musée mémorial de l'Holocauste à Washington
      L'histoire par les cartes : le Rijksmuseum met à disposition plus de 700 000 œuvres sur le web, notamment des cartes
      L'histoire par les cartes : une exposition virtuelle sur les cartes missionnaires (vers 1850 - 1950) par l'Université d'Utrecht

      Le peintre hollandais Vermeer et les cartes

      Cartes et atlas historiques

      L'histoire par les cartes

    • sur Partir pour Israël. Une nouvelle migration des juifs de France ?

      Publié: 25 September 2023, 11:14am CEST par r.a.

      Cet ouvrage (1) de taille modeste est enrichi d’un lexique, d’une abondante bibliographie et d’annexes présentant des données statistiques. Il traite d’une question d’actualité : l’alya des juifs de France depuis les années 2000, c’est-à-dire leur migration vers Israël depuis deux décennies. Même si ce phénomène est ancien et bien replacé dans son contexte historique par les auteurs, il a connu une recrudescence dans les années 2010. Pourquoi et comment s’effectuent ces flux migratoires ? Les trois auteurs (un historien, une sociologue et un géographe) ont confronté leurs méthodes disciplinaires pour expliquer un mouvement qui pose question à la société française, aux motivations complexes des olim (personnes qui font leur alya) et aux politiques menées par les autorités d’Israël. A l’échelle de la communauté juive mondiale ou de l’Etat israélien, le sujet peut sembler marginal (de 1948 à 2017 les olim venus de France n’ont représenté que 3,5% des immigrants), mais son analyse apporte de nombreux thèmes de réflexion, politiques, culturels et sociologiques que les auteurs exposent avec clarté et nuance.

      Qu’est-ce qui amène une personne ou une famille juives à quitter le pays natal, la France, pour s’installer en Israël ?

       Une réponse semble s’imposer : l’antisémitisme et le sentiment d’insécurité qu’il entraîne. Le phénomène est ancien mais ce terme recouvre des réalités différentes selon les périodes. Caractérisant l’extrême-droite dans le passé, il a été ravivé ces dernières décennies par le conflit israélo-palestinien et par l’islamisme radical. En fait le niveau d’antisémitisme est bas dans l’ensemble de la population française, mais attaques ciblées et attentats ont créé une nouvelle peur dans la communauté (une interrogation : quitter la France, même la banlieue est de Paris, pour une colonie en Cisjordanie, est-ce gagner en sécurité ?).

      Si l’antisémitisme peut être évoqué par tous les olim, l’étude des entretiens que les auteurs ont réalisés montre une diversité de motivations, même si tous adhèrent au discours nationaliste du gouvernement et voient en Israël un avenir protecteur. L’idéologie socialiste qui animait beaucoup de migrants dans les décennies qui ont suivi la création de l’Etat (1948) a peu à peu été remplacée par des mouvements de droite.

      Trois groupes se distinguent par leur âge, leur appartenance religieuse, leur style de vie et le lieu de leur implantation en Israël.

      Le groupe le plus déterminé, le plus homogène, est celui des religieux, traditionalistes et surtout ultra-orthodoxes pour qui vivre en Israël dans un entre-soi étroit est une « prescription ». La majorité s’installe à Jérusalem. Les ultra-orthodoxes constituent un « monde à part » au sein d’un Etat qui leur accorde des avantages particuliers : ils sont exemptés du service militaire et bénéficient d’allocations mensuelles qui leur permettent de consacrer leurs journées à l’étude des textes religieux dans les yeshivot et les kollels.

      Beaucoup de jeunes, étudiants et actifs, sont attirés par l’image de « pays neuf » que présente Israël, un pays qui leur permettrait de changer de milieu, de « changer de vie ». Le néo-libéralisme qui prévaut dans la société israélienne, sa réputation de « start up nation » sont des atouts pour ceux qui ont le « souci d’entreprendre ». Pour cette catégorie d’olim, le lieu d’implantation est le District Centre (2) et surtout Tel Aviv mais certains gardent des liens professionnels avec la France.

      L’héliotropisme et les avantages fiscaux (impôts sur les pensions moins lourds en Israël qu’en France) semblent séduire les retraités qui s’installent sur la frange littorale, dans des stations comme Netanya.

                                                                                                                          Les interviews des nouveaux migrants évoquent aussi des motivations difficiles à classer comme l’échec scolaire en France ou le désir de « vivre près de la mer ».

      Le départ de France et l’installation en Israël sont rarement des aventures solitaires. L’Agence juive qui coordonne la politique de l’alya et de la klita (assimilation) joue un rôle considérable auprès des jeunes comme des adultes pour susciter le désir de migrer et faciliter l’installation (elle a pris en charge 70% des olim de France en 2019). Pour promouvoir l’alya, elle dispose de nombreux programmes surtout destinés aux jeunes (voyages offerts, insertions temporaires, accueil de lycéens…) mais aussi organise des Salons où les aspirants au départ trouvent toutes les informations possibles sur les démarches à effectuer, les conditions d’installation, les aides apportées, le soutien donné sur place par les associations francophones, le service national considéré comme intégrateur. Actifs et retraités ont aussi leurs espaces d’information et chaque migrant est en contact avec un chargé de projet en Israël. D’autres associations non étatiques contribuent à cette prise en charge, comme l’association « Alya » qui prône l’idéologie du « Grand Israël » et facilite l’installation dans les territoires palestiniens.

       

      Alors l’alya des juifs de France est-il une réussite ?

      La réponse des auteurs est nuancée car la recherche bute contre un obstacle majeur : l’absence de données chiffrées sur les olim qui retournent en France, sujet tabou pour le gouvernement israélien. La confrontation avec une société idéalisée est parfois difficile et plusieurs témoignages  décrivent des difficultés d’intégration pour des raisons matérielles et/ou culturelles.

      La paupérisation menace une partie des migrants, notamment ceux qui sont munis de diplômes non reconnus en Israël. Un architecte, une dentiste…témoignent de leur déclassement. Leur situation financière est d’autant plus fragile que des services quasiment gratuits en France (santé, éducation…) sont coûteux dans le pays d’accueil.

      Même sur le plan religieux, l’ambiance est différente. Les pratiques rigoristes ne correspondent pas exactement à ce qu’un juif de France appelle « judaïsme traditionnel ». L’enseignement en donne un exemple : il est difficile de trouver une école où coexistent enseignement religieux et matières laïques. L’opposition entre orthodoxes et laïcs est totale en Israël.

      Les fortes inégalités, la lourdeur du service national, la faiblesse des services publics expliquent aussi les retours d’olim récemment installés. Ce qui caractérise l’alya française aujourd’hui, c’est la forte proportion d’une population mobile qui partage sa vie entre Israël et la France pour conserver son niveau de vie. Ce va-et-vient est source d’inquiétude pour les autorités chargées d’assurer la réussite de l’alya.

      Notes :

      1) Yann SCIOLDO-ZÜRCHER, Marie-Antoinette HILY, William BERTHOMIERE, Partir pour Israël. Une nouvelle migration des Juifs de France, Presses universitaires François-Rabelais, 2023.

      2)District Centre : nom donné à l’un des six districts israéliens, peuplé d’environ 1 800 000 habitants et dont la capitale administrative est Ramla.

       

      Michèle Vignaux, septembre 2023

       

    • sur Quelle stratification des forêts du Bassin du Congo ?

      Publié: 20 September 2023, 3:47pm CEST par Françoise Bahoken

      Vue la déforestation en cours dans les pays du Bassin du Congo, les paysages forestiers ne sont plus considérés comme intacts et leur diminution est hélas actée.

      On peut néanmoins s’intéresser à la structure des forêts rémanente pour en proposer une typologie spatiale, ce que les spécialistes appellent une « stratification ». Pour en savoir plus, j’ai mobilisé les données du GLAD (2021) qui sont disponibles sur l’ensemble du monde, mais je les ai limitées à l’Afrique, focalisant mon attention sur le Bassin du Congo.
      J’ai mobilisé ces données et les analyses publiées associées, en les traduisant en français et en les adaptant pour les besoins de ce billet. Voir la liste des sources et références consultées.

      La stratification du couvert forestier a pour objectif de délimiter des régions forestières – en l’occurrence « des  strates » – qui sont associées à différentes valeurs de référence du stock de carbone.

      L’estimation de la perte de carbone aérien, due aux dommages des forêts tropicales, s’appuie en effet sur la mesure de la diminution ou de la perte de couvert forestier. L’une des manières de s’en rendre compte est d’en faire la cartographie à l’aide d’images satellites. Hansen et al. (2013) ont ainsi réalisé une telle cartographie des pertes du couvert forestier à 30 m de résolution spatiale, que les spécialistes considèrent comme une référence en la matière.

      Cependant, le fait que les autres cartographies cohérentes des différents types de forêts (tropicales et pan-tropicales) ne soient pas disponibles à 30 m près impose de caractériser autrement le couvert forestier, à mobiliser en l’occurence plusieurs paramètres pour aboutir à des définitions complexes des différents strates.

      La classification des forêts réalisée par Potapov et al. (2012) à l’échelle nationale, conduit à une typologie identifiant des « forêts primaires », des « forêts secondaires », des « zones boisées », qu’il est difficile de reproduire à l’échelle d’un biome puisque les niveaux d’observation diffèrent fondamentalement.

      A noter que cette stratification n’est pas sans lien avec l’estimation des paysages forestiers intacts (PFI) dont on a déjà parlé ici, puisque les PFI correspondent aux strates de forêts denses et hautes, denses

      La classification des forêts réalisées par Potapov et al. (2012) n’étant pas applicables au niveau local, les stratifications de forêts pan tropicales qui existent – telles celles du GLAD (2021) utilisées ici – ont été définies en utilisant les caractéristiques structurelles des forêts estimées à partir d’analyses statistiques d’images satellites de la canopée. Ont  ainsi été mobilisées la méthode de Hansen et al (2013) qui permet d’estimer le pourcentage de couverture de la canopée en 2000, ainsi que celle de Potapov et al (2008) mesurant la hauteur des arbres et le degré d’intégrité de la forêt.

      Des seuils de stratification minimisant la variance intra strate sont définis, grâce à une régression fondée sur des estimations ponctuelles du carbone GLAS, comme variable dépendante (Baccini et al., 2012), pour aboutir à la cartographie suivante.

      Cette carte permettant de caractériser plus finement la structure du couvert forestier intact.

      Sources :

      Global land analysis and discovery (GLAD), University of Maryland, Department of Geographical Sciences, 2021.
      Fonds de carte : NaturalEarth data, 2023.

      Références :

      Baccini A. et al. 2012, Estimated carbon dioxide emissions from tropical deforestation improved by carbon-density maps Nature Climate Change 2 182-5.

      Hansen M.C. et al. 2013, High-resolution global maps of 21-st century forest cover change Science 342 850-3. Potapov P.V. et al. 2008, Mapping the world’s Intact Forest Landscapes by remote sensing. Ecology and Society 13 51.

      Potapov P.V. et al. 2012, Quantifying forest cover loss in Democratic Republic of the Congo, 2000-2010, with Landsat ETM+ data Remote Sensing of Environment 122 106-16.

      Billets liés :
      Que reste t-il de nos forêts ?
      Contribution des pays du Bassin du Congo à la déforestation

       

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur QGIS pour afficher des données télémétriques géospatiales

      Publié: 19 September 2023, 5:00pm CEST par Florent Fougères
      Contexte

      Nous en avions déjà parlé dans un précédent article : l’Agence Spatiale Canadienne (ASC) supporte les vols de ballons stratosphériques ouverts (BSO), opérés en sol canadien, par le CNES. Certains de ces ballons volent à environ 40 km d’altitude dans des conditions proches de l’environnement spatial, d’autres volent plus bas dans l’atmosphère, et tous embarquent un grand nombre d’instruments de mesures et d’observation pouvant atteindre une masse de 800 kg. Une multitude d’organisations (laboratoires, établissements scolaires, industriels, etc), à travers le monde, utilisent de plus petits ballons (du type sondage météo) pour effectuer des expériences. La réglementation des vols de ballons non habité étant différente au Canada, l’ASC a entrepris, en 2018, de développer une plateforme rencontrant les exigences de leurs vols domestiques. Pour suivre ces ballons, leurs données sont transmises à un satellite Iridium, qui les envoie à un serveur sur Terre, où on les récupère.

      Ce serveur reçoit donc une trentaine de variables comme la localisation (lat, long), l’altitude, la vitesse, la pression atmosphérique, la température, la tension des batteries etc.

      Lors de nos précédents travaux, nous avions construit une preuve de concept, et en concertation avec l’ASC avons décidé d’une autre modalité de représentation de l’information en repartant d’une interface déjà développée par leurs soins. Nous avons transformé l’interface permettant de consulter la télémétrie sans dimension cartographique, en plugin QGIS et l’avons fait évoluer pour visualiser au même endroit les données télémétriques, la position en temps réel et des courbes retraçant l’évolution temporelle de certaines données.

      Fonctionnalités

      Le plugin effectue donc la collecte des données de télémétrie. Il faut dans un premier temps récupérer la donnée et la parser : il s’agit de chaînes de caractères à séparer selon un délimiteur et des longueurs spécifiques.

      Deux modes d’acquisition des données sont possibles :
      • Un mode réel où il faut renseigner l’adresse IP et le port du serveur où récupérer les données
      • Un mode simulation où il faut renseigner un fichier CSV contenant des données simulant un vol, ou reprenant des vols précédents

      Il est possible de mettre l’acquisition en pause et de réinitialiser l’interface.

      Enfin, dans les paramètres, il est possible de saisir un seuil d’alerte pour le voltage de la batterie, en-dessous duquel l’utilisateur sera alerté :

      Les données acquises sont présentées dans 3 zones différentes dans l’interface de QGIS :
      • Une colonne (à droite) qui liste toutes les données recueillies
      • Un bloc (en bas) dans lequel on trouve différentes courbes (tension de la batterie, altitude, pression et température)
      • Et la carte sur laquelle s’affiche le parcours du ballon, avec deux options de zoom possibles :
        • Zoom sur la dernière position du ballon
        • Zoom sur l’intégralité de la trace

      Une fois l’acquisition terminée, les données sont enregistrées dans le dossier précisé dans les paramètres du plugin, partagées dans un fichier CSV pour les données brutes, et dans un Shapefile pour les données géographiques.

      Démonstration vidéo
    • sur Cartes et données sur les inondations en Libye (catastrophe de Derna)

      Publié: 18 September 2023, 2:44pm CEST

      La tempête Daniel, qui a frappé dans la nuit du 10 au 11 septembre 2023 la ville de Derna (100 000 habitants) au nord-est de la Lybie, a entraîné la rupture de deux barrages en amont provoquant une crue de l’ampleur d’un « tsunami » le long de l’oued qui traverse la cité. Le bilan provisoire s'établit à plus de 11 300 morts au 18 septembre 2023. Selon les experts, la situation sociale, économique et politique difficile du pays a contribué à ce lourd bilan humain. Une situation de chaos qui limite les capacités de prévision des services météorologiques locaux et des systèmes d'alerte et d'évacuation. 

      Inondations en Libye - EMSR696 (Situational reporting Copernicus Emergency Management Service)

      1) Traitement médiatique de la catastrophe

      « Libye : des inondations dans l'est provoquent des milliers de morts » (RFI). Le gouvernement de l'est libyen, désigné par le Parlement et non reconnu par la communauté internationale, a décrété un deuil national de trois jours, suite à la tempête Daniel qui, après la Grèce, la Turquie et la Bulgarie, a fortement affecté la Libye (voir l'animation de cette tempête).

      « Avant/Après : les images impressionnantes des inondations en Libye » (Le Figaro). Vue du ciel, la catastrophe naturelle est impressionnante. Une très large partie de Derna est sous les eaux. Le wadi Derna, un simple petit cours d’eau, s’est transformé en une vague semblable à un « tsunami » d’après plusieurs témoins. La cité a été submergée par des vagues de 7 mètres de haut qui ont tout détruit sur leur passage en emportant les voitures et les maisons. « Avant / Après Inondations en Libye : découvrez l’ampleur des dégâts vus du ciel » (Ouest France).

      « Inondations en Libye : à Derna, le nombre de morts est toujours incertain » (Le Monde). Selon l’Organisation internationale pour les migrations (OIM), au moins 30 000 personnes qui vivaient dans cette cité de 100 000 habitants ont été déplacées. Une partie des 10 000 disparus après les inondations à Derna pourraient se trouver en mer, ils ont été emportés vers la mer pendant les inondations. La mer rejette leurs corps vers les plages. 

      « Comment expliquer les inondations monstres qui touchent le pays ? » (BFM-TV). La tempête Daniel s'est transformée en un cyclone subtropical méditerranéen. Ce sont deux facteurs qui semblent s'être combinés pour recharger le système à bloc. La hausse des températures de l'air sous l'effet du réchauffement climatique qui rend l'air plus humide. Et la hausse des températures des océans. Une mer Méditerranée plus chaude et qui s'évapore plus a donc alimenté la puissance du medicane Daniel. « Pourquoi la tempête Daniel a été aussi dévastatrice en Libye ? » (Futura Science). 

      « Qu’est-ce qu’un medicane, ce phénomène météo responsable des inondations meurtrières en Libye ? » (Le Parisien) Les météorologues appellent ce phénomène un medicane (contraction de "hurricane" et "Méditerranée"). Ce phénomène hybride présente certaines caractéristiques d'un cyclone tropical et d'autres d'une tempête des latitudes moyennes.

      « Inondations en Libye : les deux barrages de Derna étaient fissurés » (Euronews). Dans une étude publiée en novembre 2022, l'ingénieur et universitaire libyen Abdel-Wanis Ashour a mis en garde contre une "catastrophe" menaçant Derna si les autorités ne procèdent pas à l'entretien des deux barrages. Malgré cet avertissement, aucuns travaux n'ont été menés.

      « Dans une Libye corrompue, les alertes concernant le délabrement des barrages de Derna restées lettre morte » (Le Monde). Un rapport du groupe d’experts de l’ONU avait déjà dénoncé le comportement « prédateur » des groupes et milices qui se disputent le pouvoir depuis plus de dix ans et ont entraîné « le détournement des fonds de l’Etat libyen et la détérioration des institutions et des infrastructures ». Des militants de la société civile demandent une enquête internationale, craignant que les investigations locales ne puissent être fructueuses dans un pays largement gouverné par des groupes armés et des milices.

      « Inondations en Libye : des barrages fragilisés par des années de négligences » (Libération). Les deux barrages avaient été construits dans les années 70 par une entreprise yougoslave non pas pour collecter de l’eau mais pour protéger Derna des inondations. Nonobstant les moyens financiers dont dispose le premier pays pétrolier d’Afrique, les travaux n’ont pas été entrepris.

      « L'ONU et l'OMS préoccupées par les risques de maladies » (RFI). À Derna, dans l'est de la Libye, une semaine après les inondations dévastatrices provoquées par la tempête Daniel, un très grand nombre de corps se trouve encore sous les décombres. Cette situation représente une menace pour l'hygiène. Sur place, les agences de l'ONU tentent de prévenir la propagation de maladies.

      « Les enfants de Libye sont confrontés à une nouvelle tragédie après plus d’une décennie de conflit »  (UNICEF). On estime que près de 300 000 enfants ont été exposés à la puissante tempête. Au-delà des risques immédiats de morts et de blessés, les inondations en Libye présentent un risque grave pour la santé et la sécurité des enfants. Avec des approvisionnements en eau potable compromis, les risques d’épidémies de diarrhée et de choléra, ainsi que de déshydratation et de malnutrition, augmentent considérablement. Parallèlement, les enfants qui perdent leurs parents ou sont séparés de leur famille sont plus exposés aux risques de protection, notamment à la violence et à l’exploitation.

      « Les inondations en Libye laissent l'ancienne Cyrène meurtrie et menacée de pillage » (Middle East Eye). Des eaux torrentielles et des glissements de terrain ont emporté certaines antiquités du site du patrimoine mondial de l'UNESCO tout en en exposant d'autres pour la première fois.

      2) Pistes d'analyse en termes d'aléa / risque / vulnérabilité et enjeux

      « Inondations en Libye : un désastre humanitaire sur fond de crise politique » (France Culture). C’est dans la province agricole de Cyrénaïque, située à l’est du pays, que les inondations ont été les plus meurtrières. La municipalité de Derna, qui souffrait déjà d'un manque d'infrastructures, a vu disparaître dans la mer un quart de son territoire en quelques heures. Jalel Harchaoui, spécialiste de la Libye et chercheur au Royal United Service Institute, rappelle la situation difficile que connaît cette ville depuis une dizaine d’années : « c’est une ville qui a un historique politique tout à fait particulier, qui est marginalisée par rapport au reste de la Cyrénaïque. Elle a été le lieu d’un siège imposé par le maréchal Haftar de 2015 à 2019 et qui s'est achevé par une guerre civile. Depuis 2019, il n'y a pas d’infrastructures comme des hôpitaux ou des transports et les reconstructions ont été négligées. »

      « L’interaction entre les précipitations, l’exposition et la vulnérabilité exacerbées par le changement climatique a entraîné des impacts généralisés dans la région méditerranéenne » (World Weather Attribution). Un événement aussi extrême que celui observé en Libye est devenu jusqu’à 50 fois plus probable et jusqu’à 50 % plus intense par rapport unréchauffement qui serait inférieur à 1,2°C. Outre le manque d’entretien, les barrages d’Al-Bilad et d’Abu Mansour ont été construits dans les années 1970, sur la base de précipitations relativement courtes, et n’ont peut-être pas été conçus pour résister à un épisode de pluie sur 300 à 600 ans. Un examen complet portant sur les critères de conception des barrages sera nécessaire pour comprendre dans quelle mesure la conception des barrages et le manque d'entretien ultérieur ont contribué à la catastrophe. 

      « Les inondations en Libye montrent la nécessité d’alertes multirisques précoces et d’une réponse unifiée » (déclaration du Secrétaire général de l'Organisation Météorologique Mondiale). Le patron de l’OMM qui dépend de l’ONU, Petteri Taalas, a estimé que « la plupart des victimes auraient pu être évitées » pointant du doigt la désorganisation liée à l’instabilité politique dans le pays. L'agence météorologique libyenne a émis des avis d'alerte trois jours avant et l'état d'urgence a été déclaré dans certaines parties de l'est de la Libye. 

      « Les faits sont clairs. Les alertes précoces sauvent des vies et génèrent d’énormes avantages financiers. J’exhorte tous les gouvernements, institutions financières et société civile à soutenir cet effort » (secrétaire général de l’ONU, António Guterres). Voir le plan publié par l'ONU Alertes précoces pour tous. Plan d'action exécutif 2023-2027. Qu’il concerne les crues, les sécheresses, les vagues de chaleur, ou les tempêtes, un système d’alerte précoce est un système intégré qui permet d’être prévenu de l’approche de conditions météorologiques dangereuses et éclaire sur ce que les pouvoirs publics, la collectivité et les individus peuvent faire pour atténuer le choc de leurs effets imminents.

      Ksenia Chmutina & Jason von Meding (2019). A Dilemma of Language : “Natural Disasters”. International Journal of Disaster Risk Science. A propos des catastrophes dites "naturelles" : même si les dangers sont naturels, les catastrophes ne le sont pas. Cet article soutient qu’en rejetant continuellement la faute sur la « nature » et en imputant la responsabilité des échecs du développement à des phénomènes naturels « exceptionnels » ou à des « cas de force majeure », on accepte de ceux qui sont à l'origine des catastrophes qu'ils se satisfassent d'une mauvaise planification urbaine, d'inégalités socio-économiques, de politiques mal réglementées, d'un manque d’adaptation et d’atténuation proactives, autant de facteurs qui augmentent la vulnérabilité.

      Introduire le chapitre « Les sociétés face aux risques » en Seconde par les inondations en Libye (académie de Normandie). Les notions de « catastrophe naturelle » (tempête) et « technologique » (rupture de barrage) sont abordées, ainsi que celle d’« aléa ». Aussi, la notion de « prévention » peut être approchée en évoquant le rôle des barrages qui étaient censés protéger la ville, mais trop vétustes et mal entretenus.Ici, les notions qui peuvent être approchées sont celles de « pays en développement », « crise », « résilience », « culture du risque »…

      3) Cartes et données SIG à visualiser en ligne ou à télécharger

      Libye : les dégâts dans la ville de Derna et le barrage détruit vus par le satellite Pléiades Neo (Un autre regard sur la Terre). « J’ai vu beaucoup d’images de catastrophes. Celle de Derna est vraiment sidérante. J’ai ressenti la même sidération pour des désastres comme le tsunami de l’océan indien en 2004, l'ouragan Katrina en 2005 ou le tremblement de Terre d’Haïti en 2010 » (@RegardSurTerre). Voir ce fil twitter de @MagaliReghezza qui montre que le séismé d'Haïti était encore d'une autre ampleur.

      Images satellites Maxar et Planet des inondations (Geospatial World). Segmentation automatique des images satellite du programme Maxar Open Data (Samgeo).

      Cartes et données SIG élaborées par le Service de gestion des urgences CopernicusEMS (dégâts estimés à partir de l'observation d'images satellites). Voir également les zones impactées par la tempête Daniel en Grèce avec l'animation satellite.

      Atlas de la mortalité et des pertes économiques dues à des phénomènes météorologiques, climatiques et hydrologiques extrêmes 1970-2019 (Organisation météorologique mondiale) à télécharger en pdf.

      4) Utilisation de la cartographie pour organiser l'aide humanitaire

      Inondations en Libye en 2023 - Aperçu de la situation d'urgence (Reliefweb). La tempête Daniel a provoqué des inondations à grande échelle dans le nord-est de la Libye, entraînant des pertes de vies humaines et des dégâts aux infrastructures dans plusieurs villes côtières et le long des rivières, notamment Benghazi, Al-Jabal Al-Akhder, Al-Marj, Batah, Bayada, Albayda, Shahat et Sousse. La ville de Derna semble être durement touchée après la rupture de deux barrages en amont, libérant plus de 30 millions de mètres cubes d'eau dans la ville de Derna. Les premiers rapports suggèrent d'importants dégâts aux logements et aux infrastructures critiques. La tempête a exacerbé les problèmes d'accès à l'eau potable et aux soins de santé. Les zones touchées sont désormais confrontées à des risques plus élevés de maladies infectieuses en raison de services de santé perturbés, des réseaux d'égouts endommagés, de la persistance des eaux de crue et de la boue.

      Empreinte des bâtiments de la zone touchée par les inondations à Derna (Google Buildings). Les empreintes des bâtiments sont utiles pour toute une une gamme d’applications, depuis l’estimation de la population, la planification urbaine et la réponse humanitaire, jusqu’aux sciences du climat et de l’environnement. Cet ensemble de données ouvertes à grande échelle contient les contours des bâtiments dérivés de données en haute résolution. Fichiers geojson ou csv à télécharger directement.

      Données SIG sur la Libye mises à disposition par Humanitarian Data Exchange (HDX), site dédié au partage de données humanitaires.

      Articles connexes

      Tempête Alex et inondations dans les Alpes maritimes : accès aux cartes et aux images satellitaires

      Cartographier la trajectoire des cyclones avec des données en temps réel
      Cartes et données sur les séismes en Turquie et en Syrie (février 2023)

      Cartes et données sur les tremblements de terre au Japon depuis 1923

      Simuler des scénarios de tremblement de terre en utilisant des cartes

      Cartes-posters sur les tsunamis, tremblements de terre et éruptions volcaniques dans le monde (NOOA, 2022)

      Analyser et discuter les cartes de risques : exemple à partir de l'Indice mondial des risques climatiques

      L'évolution de la cartographie humanitaire au sein de la communauté OpenStreetMap

    • sur Journée d’études CFC : Arts(s) et Cartographie(s), 25 novembre 2023, INHA (Paris)

      Publié: 15 September 2023, 7:00pm CEST par catherinevhofmann

      Avec le soutien de l’EPHE-PSL (Histara), du CNRS (Lamop) et de la Bibliothèque nationale de France

      Entrée libre

      On dispose aujourd’hui de nombreuses études sur la place de la cartographie dans l’histoire des savoirs scientifiques, et sur les engagements de la cartographie dans les entreprises politiques. Mais il est nécessaire d’envisager aussi les relations de la cartographie avec les arts et les artistes ainsi que les formes d’implication de la cartographie dans les mondes de l’art et dans les cultures visuelles des sociétés modernes et contemporaines. C’est dans cette optique que la Commission Histoire du Comité Français de Cartographie organise une Journée d’études intitulée « Art(s) et cartographie(s) », avec l’ambition de rassembler et de confronter quelques-unes des pistes principales de la recherche actuelle.

      Programme

      8h45Accueil – café
      Ouverture 
      9h15Introduction à la journée par Jean-Marc Besse (CNRS-EHESS) et Catherine Hofmann (BnF, département des Cartes et plans)  
      9h30Anca Dan, Professeur attachée en sciences de l’Antiquité, ENS-PSL Cartes sur mosaïque : quelques chorographies antiques  
      10hPause-café  
      Première sessionArtistes-cartographes en Europe au XVIe siècle Sous la présidence de Gilles Palsky (Université Paris I)
      10h15Juliette Dumasy-Rabineau, maîtresse de conférences en histoire médiévale à l’université d’Orléans et Camille Serchuk,professeure d’histoire de l’art à la South Connecticut State University Les artistes cartographes français aux XVe et XVIe siècles
      10h45Jan Trachet, chercheur postdoctoral au département d’archéologie de l’Université de Gand et Bram Vannieuwenhuyze, professeur associé en histoire de la cartographie à l’Université d’Amsterdam Les cartes des artistes-cartographes à Bruges, 1557-1572 : des œuvres isolées ou collaboratives ?
      11h15Ulrike Gehring,professeur à l’Universität Trier Fb III – Art History, Coastal Profiles. The Interface between mimetic and cartographic representation  
      11h45Présentation des œuvres exposées par les artistes Annie Lunardi et Marcoleptique
      12h15  Pause déjeuner
        
      Seconde sessionArt et cartographie en France aux XVIIe et XVIIIe siècles Sous la présidence de Lucile Haguet (Bibliothèque municipale du Havre)
      13h30Pierre-Olivier Marchal, doctorant à l’EHESS – Centre Alexandre Koyré Représenter le territoire : une circulation des savoirs cartographiques dans l’œuvre de Jean-Baptiste et Pierre-Denis Martin (1659-1742)
      14hGeoffrey Phelippot, doctorant à l’EHESS – Centre Alexandre Koyré Cartographie et bricolage ornemental : Nicolas Guérard à la Sphère Royale
      14h30Pause  
      Troisième session 15hArt contemporain et cartographie    Mathieu Pernot, photographe, et Monika Marczuk, chargée de collections à la BnF-CPL Cartes en mouvement  
      15h30-17hTable ronde « Art contemporain et cartographie : rencontres, échanges, déplacements »
       Animée par Jean-Marc Besse, avec : Ann Valérie Epoudry, artiste plasticienne, diplômée de Sciences-Po Paris, doctorante à l’École Nationale Supérieure d’Architecture de Toulouse (LRA) Guillaume Monsaingeon, philosophe, chercheur et commissaire d’exposition indépendant Florence Troin, géographe-cartographe CITERES-EMAM, CNRS & Université de Tours Pauline Guinard, maître de conférences HDR en géographie, ENS   Contact : catherine.hofmann@bnf.fr

      Fichier pdf. du programme :

      Programme-JE-CFC-histoire-INHA-25-novembre-2023Télécharger
    • sur Colloque : “Cartographies et représentations des îles en Méditerranée (XVe- XXe siècles)”, Corte, 3-4-5 octobre 2023

      Publié: 14 September 2023, 4:05pm CEST par Catherine Hofmann

      Argumentaire scientifique

      Au cours des trente dernières années le Musée de la Corse a constitué une collection de cartes et plans anciens exclusivement consacrés à l’île ainsi que plusieurs livres attachés à sa géographie historique. Ce fonds rassemble des figures cartographiques qui couvrent la période de 1520 à 1900. L’enrichissement progressif par acquisitions et la mise en œuvre d’un inventaire en ligne incitaient à mettre en lumière cet ensemble patrimonial sous trois formes complémentaires : sa publication sous forme d’un beau livre, sa présentation au public sous la forme d’une exposition, et enfin un colloque scientifique.

      L’objet de ce colloque, au regard de l’exposition, est de replacer la cartographie de la Corse dans la perspective plus large de la représentation des îles en Méditerranée depuis le Moyen âge jusqu’à l’époque contemporaine, tant dans les techniques cartographiques utilisées que dans ses différents contextes politiques et intellectuels, aussi bien dans le monde arabe que dans la chrétienté occidentale. Il s’agira d’analyser la spécificité de la représentation de l’espace insulaire méditerranéen, et de ses enjeux territoriaux.  

      Le colloque dont les sessions sont prévues à Corte, dans les locaux de l’Université de Corse, les 3 et 4 octobre 2023, seront complétées le 5 octobre par une visite de l’exposition Cartografià. La Corse en cartes, au Musée et celle, ensuite, d’une présentation d’ouvrages anciens à la Bibliothèque patrimoniale Tommaso Prelà à Bastia.

      Comité scientifique

      Vannina Marchi van Cauvelaert, Maître de conférences en histoire du Moyen Âge (UMR 6240 LISA – Université de Corse)

      Emmanuelle Vagnon-Chureau, Chargée de recherche CNRS en histoire du Moyen Âge (UMR 8589 LAMOP)

      Pierre-Jean Campocasso (Direction du Patrimoine)

      Direction scientifique

      Maurice Aymard  (EHESS)

      Henri Bresc  (Paris X Nanterre -Institut Européen en Sciences des Religions, Paris) 

      Coordination

      Dominique Gresle, Commissaire de l’exposition, à l’initiative du colloque

      Organismes partenaires

      UMR 6240 Lieux Identités eSpaces Activités – Université de Corse

      UMR 8589 Laboratoire de Médiévistique Occidentale de Paris – CNRS

      Musée de la Corse – Collectivité de Corse

      Participants

      Christophe Austruy (EHESS)

      Emiliano Beri (Univ. Genova)

      Nathalie Bouloux (Université de Tours)

      Lorenzo Brocada (Univ. Genova)

      Philippe Colombani (Université de Corse)

      Antoine Franzini (Univ. Gustave Eiffel, Marne -La- Vallée)

      Catherine Hofmann (BNF – Cartes et plans)

      Jean Charles Ducène (EPHE)

      Frank Lestringant (Paris Sorbonne)

      Joseph Martinetti (Univ. Côte d’Azur)

      Paolo Militello (Univ. Catane)

      Marie-Vic Ozouf-Marignier (Directeur d’études EHESS)

      Pierre Portet (Conservateur général du Patrimoine. Archives de Corse)

      Giampaolo Salice (Univ. Cagliari)     

      Georges Tolias (EPHE Paris – FNRS Athènes)  

      Programme

      (Les exposés de 25 minutes seront suivis de 5 mn de discussion)

      Mardi 3 octobre (Université de Corse, amphi à préciser)

      9h Discours d’accueil et introduction scientifique des travaux

      Maurice Aymard et Henri Bresc

      10h- 13h première session : Les îles dans la cartographie médiévale arabe et latine

      Henri Bresc

      Edrisi au service de Roger II de Sicile

      Jean Charles Ducène

      La Corse dans la cartographie arabe

      Vannina Marchi van Cauvelaert (MCF Hdr, Université de Corse)

      Insularité et iléité : les représentations médiévales de la Corse et de la Sardaigne (XIIIe-XVe)

      Emmanuelle Vagnon

      Grandes et petites îles de Méditerranée occidentale dans les premières cartes marines

      Nathalie Bouloux

      Les îles de la Méditerranée occidentale (Corse, Sardaigne, Sicile) dans les manuscrits et les éditions de la Géographie de Ptolémée

                  Déjeuner (buffet)

      15h-18h deuxième session : Cartes d’îles et insulaires au XVIe siècle

      Antoine Franzini

      La carte manuscrite de la Corse présente dans l’Atlas hydrographique de Vesconte Maggiolo (1512)

      Georges Tolias

      L’avènement de l’insulaire : hypothèses sur la genèse d’un genre.

      Frank Lestringant (Sorbonne Université)

      La Corse dans le Grand Insulaire d’André Thevet.

      PH Colombani

      La route des îles de la Couronne d’Aragon : dominer, unir, partager, une histoire méditerranéenne.

                  Dîner

      Mercredi 4 octobre (Université de Corse)

      9h30-12h30 troisième session : géopolitique des îles méditerranéennes à l’époque moderne

      Maurice Aymard

      Architectes militaires et/ou cartographes : la Sicile après Lépante. Représentation et défense du territoire.

      Catherine Hofmann

      La représentation des îles dans la cartographie marine à Marseille au XVIIe siècle. Le cas de l’Atlas Boyer (1648)

      Christophe Austruy 

      Coronelli et l’Arsenal de Venise. Vraies légendes et fausses cartes.

      Giampaolo Salice

      Geopolitica e rivoluzione sociale nella conquista delle isole intermedie
      tra Sardegna e Corsica.

      Emiliano Beri et Lorenzo Brocada

       La Corsica di Accinelli: una missione strategica in chiave cartografica.

                  Déjeuner (buffet)

      14h30-17h30 quatrième session : La Corse et les îles jusqu’à aujourd’hui

      Marie -Vic Ozouf Marignier

      Les représentations de la Corse dans les géographies illustrées (1880-1910).

      Paolo Militello

      James Boswell, Pasquale Paoli et Thomas Phinn dans l’ “Account of Corsica […] illustrated with a new and Accurate Map of Corsica” (1768).


      Joseph Martinetti (MCF en géographie, Université Nice Côte d’Azur)

      Dans la continuité des isolarii, une nouvelle cartographie géopolitique des îles méditerranéennes est-elle possible ?

                  Dîner de clôture

      Jeudi 5 octobre

      Matinée : visite de l’exposition Cartografià. La Corse en cartes (Dominique Gresles, commissaire de l’exposition)

      Puis transfert à Bastia pour la présentation d’ouvrages issus du fonds Tommaso Prelà

      Affiche et programme pdf du colloque :

      Colloque-Corte-3-5-octobre-2023-programmeTélécharger Affiche-du-colloqueTélécharger
    • sur Oslandia signe un partenariat avec OPENGIS.ch sur QField

      Publié: 14 September 2023, 9:00am CEST par Vincent Picavet
      Qui sommes nous ?

      ? Pour ceux qui ne connaissent pas Oslandia, ou OpenGIS.ch, ou même QGIS, rafraichissons les mémoires :

      ? Oslandia est une entreprise française spécialisée dans les systèmes d’information géographique opensource (SIG). Depuis notre création en 2009, nous proposons des services de conseil, de développement et de formation en SIG, avec une expertise reconnue. Oslandia est un « pure-player » opensource, et le plus grand contributeur français à la solution QGIS.

      ? Quant à OPENGIS.ch , il s’agit d’une entreprise Suisse spécialisée dans le développement de logiciels SIG open-source. Fondée en 2011, OPENGIS.ch est de son côté le plus grand contributeur suisse à la solution QGIS. OPENGIS.ch est le créateur de QField, la solution de SIG mobile open-source la plus utilisée par les professionnels de la géomatique.

      OPENGIS.ch propose également QFieldCloud en tant que solution SaaS ou on-premise pour la gestion collaborative des projets de saisie terrain.

      ? Certains ne connaissent pas encore #QGIS ?

      Il s’agit d’un système d’information géographique libre et opensource qui permet de créer, éditer, visualiser, analyser et publier des données géospatiales. Multiplateforme, QGIS est utilisable sur ordinateur, serveur, en application web ou comme bibliothèque de développement.

      QGIS est un logiciel libre développé par de multiples contributeurs dans le monde entier. C’est un projet officiel de la fondation OpenSource Geospatial OSGeo et soutenu par l’association QGIS.org. cf [https:]]

      Un partenariat ?

      ? Nous sommes aujourd’hui heureux d’annoncer notre partenariat stratégique visant à renforcer et à promouvoir QField, l’application mobile de la solution SIG opensource QGIS.

      ? Ce partenariat entre Oslandia et OPENGIS.ch est une étape importante pour QField et les solutions SIG mobiles opensource, qui permettra de consolider la plateforme, en offrant aux utilisateurs du monde entier un accès simplifié à des outils efficaces pour la collecte, la gestion et l’analyse des données géospatiales sur le terrain.

      ? QField, développé par OPENGIS.ch, est une application mobile opensource de pointe qui permet aux professionnels des SIG de travailler en toute efficacité sur le terrain, en utilisant des cartes interactives, en collectant des données en temps réel et en gérant des projets géospatiaux complexes sur des appareils mobiles Android, IOS ou Windows.

      ? QField est multiplateforme, basée sur le moteur QGIS, et permet donc un partage des projets de manière fluide entre les applications bureautiques, mobiles et web.

      ? QFieldCloud ( [https:]] ), la plateforme web collaborative de gestion de projets QField, bénéficiera également du partenariat, et pourra être enrichie pour compléter la gamme d’outils de la solution QGIS.

      On en dit quoi ?

      ? Côté Oslandia, nous sommes très heureux de collaborer avec OPENGIS.ch sur les technologies QGIS. Oslandia partage avec OPENGIS.ch une vision commune du développement de logiciel libre et opensource : une implication forte dans les communautés de développement, un travail dans le respect de l’écosystème, une très grande expertise, et une optique de développement logiciel de qualité industrielle, robuste et pérenne.

      ??? Avec ce partenariat, nous souhaitons proposer à nos clients la plus grande expertise possible sur l’ensemble des composants logiciels de la plateforme QGIS, depuis la captation de la donnée jusqu’à sa diffusion.

      ? Côté OpenGIS.ch, Marco Bernasocchi ajoute :

      Le partenariat avec Oslandia représente une étape cruciale dans notre mission visant à fournir des outils SIG mobiles de premier plan avec un réel crédo OpenSource. La complémentarité de nos compétences permettra d’accélérer le développement de QField ainsi que de QFieldCloud, et de répondre aux besoins croissants de nos utilisateurs .

      L’engagement pour l’opensource

      ? Nos deux entreprises s’engagent à continuer à soutenir et à améliorer QField et QFieldCloud en tant que projets opensource, garantissant ainsi un accès universel à cette solution de SIG mobile de haute qualité sans aucune dépendance à un fournisseur.

      Prêts pour le terrain ?

      ? Et vous, êtes vous prêts pour le terrain ?

      Alors téléchargez QField ( [https:]] ) , créez des projets sur QGIS, partagez-les sur QFieldCloud !

      ? Si vous avez besoin de formation, support, maintenance, déploiement ou développement de fonctionnalités spécifiques sur ces plateforme, n’hésitez pas à nous contacter, vous aurez les meilleurs experts disponibles : infos+mobile@oslandia.com

       

    • sur Iota2 ne fait pas que de la classification, elle fait aussi des indicateurs environnementaux !

      Publié: 13 September 2023, 11:51am CEST par fauvelm
      Contexte scientifique

      Le projet SOCCROP, qui a été financé par l’association Planet A, avait pour objectif de développer un indicateur pour quantifier les échanges annuels de CO2 entre les parcelles cultivées et l’atmosphère. Mesurer les flux permet d’accéder à l’évolution des stocks de carbone des sols agricoles. Cet indicateur peut être utile dans différents contextes :

      • pour les inventaires nationaux d’émissions de gaz à effet de serre (GES),
      • en tant qu’indicateur de l’effet des pratiques sur les bilans de C pour la Politique Agricole Commune (PAC)
      • pour quantifier l’évolution des stocks de C pour les marchés du C en agriculture.

      Cet indicateur ayant été au préalable testé sur de petites zones en Europe, un des objectifs du projet SOCCROP était de tester la possibilité de l’appliquer sur de vastes territoires et dans des contextes pédoclimatiques plus contrastés (i.e. sur plusieurs continents).

      Cet indicateur est calculé en utilisant la chaîne de traitement iota2 à partir des images Sentinel-2 de niveaux 2A afin d’estimer la fixation nette du CO2 trimestrielle sur un an. L’indicateur du projet SOCCROP est basé sur une méthodologie très similaire à celle de l’indicateur “Carbon Tier 1” (CT1) développé dans le cadre du projet H2020 NIVA. Le CT1 NIVA avait été développé en se basant sur la relation empirique décrite par Ceschia et al. (2010) reliant le flux net annuel de CO2 (NEP, pour Net Ecosystem Production) aux nombres de jours où la végétation est photosynthétiquement active (NDAV pour “Number of days of active végétation”) (Figure 1).

      Figure 1: Flux net annuel de CO2 en fonction des jours où la végétation est active

       

      Cette relation s’appuie sur une quarantaine d’années de mesures de flux net de CO2 obtenues par la méthode d’Eddy covariance des fluctuations turbulentes, cumulées sur une quinzaine de sites en Europe (couvrant une large gamme de pédoclimats et types de culture). Cette relation est applicable aux principales grandes cultures en Europe. L’indicateur NIVA CT1 utilise donc cette relation relativement simple pour estimer le flux net de CO2 à partir de l’observation du nombre de jours où la végétation est active (NDAV) :

      NEP = a · NDAV + b (1)

      où les paramètres a et b ont été calibrés sur des mesures de flux du réseau ICOS réalisées en Europe selon  et avec des erreurs respectives de et . Une expression analytique de l’incertitude peut être dérivée pour cet indicateur. Elle combine l’incertitude intrinsèque du modèle de régression (contenue dans l’incertitude des paramètres) avec l’incertitude sur la mesure du NDAV. Elle s’écrit :

      A ce stade, l’idée naturelle est d’utiliser la télédétection pour estimer le NDAV. Cela repose toutefois sur l’hypothèse forte que la végétation verte observée par satellite est toujours active d’un point de vue photosynthèse. A partir d’images optiques, on produit un indice de végétation comme le NDVI. Dans le cadre du CT1 NIVA, nous avons fait l’hypothèse que le NDAV est bien approximé en comptant le nombre de jours où le NDVI est supérieur ou égal à 0.3 qui est une valeur typique caractérisant un sol nu.

      Cependant, dans le cadre du projet SOCRROP, plusieurs améliorations ont été suggérées pour améliorer la précision de l’indicateur. En particulier la prise en compte de variables climatiques comme la température de l’air et le rayonnement global. En effet, en fonction des conditions climatiques, la végétation et le sol n’ont pas le même niveau d’activité.

      Ainsi, une analyse précise des données expérimentales du réseau de stations de flux Européennes labellisées par ICOS montre que le modèle initial (1) peut être modifié sous la forme suivante :

      (2)

      est le nombre de jours vert, est le nombre de jours durant lesquels la respiration du sol est potentiellement plus active car il fait chaud, et c et d sont des paramètres de régression. Dans ce contexte, est défini comme le nombre de jours où NDVI >0.3. est définie comme le nombre de jours tel que NDVI <0.3 et tel que le rayonnement global est supérieur à un certain seuil . La calibration de ce modèle sur les données flux du réseau ICOS permet d’obtenir que , et . Comme pour l’indicateur originel, l’expression analytique de l’incertitude peut être dérivée comme :

      (3)

      Dans le cadre du projet SOCCROP, c’est l’indicateur (2) avec son incertitude (3) qui sont considérés. Cependant, pour des raisons d’analyse, l’information du nombre de jours de vert peut se révéler intéressante. Ainsi, il a aussi été décidé de conserver le nombre de jours de vert par trimestre.

      Enjeux du projet

      L’enjeu essentiel de ce projet pour l’équipe CS GROUP était de démontrer le passage à l’échelle du code développé par l’INRAe sur un environnement cloud en optimisant les temps de calcul et les coûts associés. Pour démontrer ce passage à l’échelle, 180 tuiles Sentinel-2 ont été produites avec cette chaîne. Ces tuiles couvrent, sur une année agricole entière, 4 pays  européens (Belgique, Espagne, Italie et Pays-Bas) ainsi que qu’un ensemble de zones éco-climatiques variées en Australie, au Brésil, aux États-Unis (plus précisément en Géorgie au cœur de la  Corn Belt) et au Sénégal.

       

       

       

      Figure 2 : Répartition des tuiles

      Ce démonstrateur a été déployé sur l’infrastructure d’AWS, sur leur centre de calcul de Frankfurt pour bénéficier d’un accès optimisé aux données Sentinel-2 et de leur service d’orchestration de traitement serverless et managé Fargate. Pour ce faire, les chaînes de traitements MAJA et iota2 ont été instanciées et configurées pour produire rapidement les cartes d’indices voulues en optimisant les coûts. L’objectif final de cette démonstration étant d’anticiper et d’estimer le coût d’une production annuelle de l’indice SOCCROP sur l’ensemble des surfaces continentales.

      Aspects techniques de la chaîne de traitement SOCCROP

      La chaîne de traitement SOCCROP, mise en œuvre par CS Group, est constituée de 2 blocks de traitements, illustrée dans la figure 2, permettant la récupération des données Sentinel-2 et la production de l’indice.

      Figure 3 : Schéma des différents blocs de la chaîne de traitement SOCCROP

       

      Pour les données Sentinel-2 L2A non disponibles sur le site THEIA, la chaîne MAJA est utilisée pour produire des réflectances de surface (niveau 2A) à partir des images Sentinel-2 de niveau 1C. La chaîne MAJA a été choisie car elle permet la détection précise des nuages et de leurs ombres ainsi que la correction des effets atmosphériques sur des séries temporelles d’images. La précision des masques de nuages obtenus par MAJA offre une meilleure précision à l’indicateur SOCCROP qui est très sensible aux altérations du signal (nuage, saturation, ombre). Cette précision est nécessaire car elle évite les propagations d’erreurs lors d’étapes  comme le sur échantillonnage temporel.

      De plus, MAJA, dans ses dernières versions, offre la possibilité de ne produire qu’une partie des sorties (réflectances de surface ou masques) ce qui permet d’optimiser les temps de production et  de réduire les volumes de donnés à stocker sur une année. En effet, seules les bandes rouges et proche-infrarouges et 3 masques (les masques de nuage, de saturation et de bord) sont  nécessaires pour le calcul de l’indice SOCCROP par « iota2 ».

      Le second pipeline encapsule la chaîne iota2 qui calcule l’indice de carbone à partir des bandes rouges et proche-infrarouges des produits L2A. La boite à outils iota2 dispose de nombreuses  fonctions permettant entre autres de calculer des cartes d’indices spectraux. La chaîne gère de manière automatique les données d’entrées, la configuration de la méthode d’interpolation temporelle  et de correction des nuages. Elle offre également la possibilité d’exploiter des données tierces, comme les informations d’ensoleillement et de température disponible dans les données ERA5. De même, pour alléger les coûts de stockage et de calcul, iota2 a été modifié pour ne prendre en compte que les bandes et les masques nécessaires. Grâce à ces améliorations, l’espace stocké des images a pu être réduit de moitié et le temps de production des cartes diminué significativement. Le traitement par tuile natif de iota2 et les traitements hautement parallélisés offert par l’OrfeoToolBox [https:] bibliothèque de traitement d’images sur laquelle les deux chaînes de traitement sont basées, ainsi que les capacités de distribution de traitements du service Fargate d’AWS ont permis de réaliser la production annuelle sur les 180 tuiles en un peu moins d’une semaine (hors temps de récupération des produits L2A depuis Theia).

      Au final, les cartes trimestrielles d’indice carbone  SOCCROP sont produites sous la forme d’une image multi–bandes :

      • Bande 1 : Nombre de jour de vert pour le premier trimestre
      • Bande 2 : Nombre de jour de vert pour le deuxième trimestre
      • Bande 3 : Nombre de jour de vert pour le troisième trimestre
      • Bande 4 : Nombre de jour de vert pour le quatrième trimestre
      • Bande 5 : Indicateur de flux net annuel de CO2 (gC/m²) (Equation 3)
      • Bande 6 : Incertitude de l’indicateur (Equation 4)

        
      Figure 3 : Cartographie du flux net annuel de CO2 pour l’année 2019 en tC de CO2/ha à l’échelle pixel Sentinel 2 (10m) (Gauche).  Cartographie du flux net annuel de CO2 pour l’année 2020 (Droite). Les trois lettres indiquées pour chaque culture correspondent aux codes de cultures du RPG : MIS pour maïs grain, BTH pour blé tendre d’hiver, CZH pour colza d’hiver, SOG pour sorgho, PPH pour prairie permanente, LUZ  pour luzerne, SOJ pour soja, MLO pour mélange d’oléagineux, TRN pour tournesol…voir [https:]

      Le tableau 1 présente les temps moyens de traitement pour chaque étape du pipeline. Le temps requis pour le traitement par MAJA est relativement long dans la mesure où une année entière de  données Sentinel-2 est traitée d’un trait. Un découpage de la période temporelle pourrait être réalisé pour distribuer ces calculs, mais cela peut avoir un impact sur la qualité des produits. Les cartes  de carbone sont produites en environ 7h par iota2. Ici la majorité du temps est dépensée dans l’interpolation temporelle de la série annuelle.

      Temps de traitements des données L1C (peps)

      Temps de traitement des données L2A (théia)

      Traitement par MAJA : 72h

      Téléchargement L2A : 7h

      Traitement iota2 : 7h

      Traitement iota2 : 7h

      Temps de traitement d’une tuile L1C : 79h

      Temps de traitement d’une tuile L2A : 14h

      Tableau 1 : Coût d’exploitation d’une tuile pour une année de données Sentinel-2, dans le cadre SOCCROP

      Conclusion et perspectives

      La collaboration entre l’équipe CS GROUP et l’INRAE a permis de démontrer la possibilité d’un passage à l’échelle du code développé par l’INRAe sur un environnement cloud en optimisant les temps de calcul et les coûts associés. Cet outil nous a permis d’estimer les flux nets annuel de CO2 des principales grandes cultures sur une bonne partie de l’Europe de l’Ouest et sur plusieurs autres zones test dans le monde grâce à l’utilisation des données Sentinel-2 et de la chaine iota2. L’indicateur a montré une bonne cohérence avec les pratiques connues sur le terrain comme la  mise en œuvre de cultures intermédiaires (ex. en Bretagne ou en Géorgie).

      C’est donc une approche assez opérationnelle permettant d’estimer un indicateur lié au bilan C des grandes cultures dans une optique de versement de primes environnementales (éco-schèmes)  pour la PAC ou dans un contexte d’inventaires nationaux d’émissions de GES. Cependant cette approche ne permet pas de prendre en compte l’effet de l’ensemble des pratiques sur les bilans C  des parcelles. Pour ce faire, il faudrait intégrer au calcul de l’indicateur des données relatives aux récoltes et aux amendements organiques (ce qui correspond à la méthode TIER 2 du projet NIVA).  C’est cette méthode qui serait à privilégier dans le cadre d’un financement des agriculteurs en fonction de la quantité de carbone qu’ils stockent. Pour y parvenir, les agriculteurs et les autorités  devraient s’accorder pour que les données de pratiques soient accessibles à l’échelle de la parcelle.

      L’approche a toutefois montré ses limites dans les zones à fort ennuagement comme en Belgique ou au Brésil. Pour une production opérationnelle à l’échelle globale, il serait donc nécessaire d’utiliser des données satellitales radar (ex. Sentinel-1) en complément des données optiques Sentinel-2. L’utilisation des donnes Sentinel-1 pour interpoler de manière opérationnelle les trous dans les séries temporelles de NDVI issues de Sentinel-2 est explorée par plusieurs unités de recherches. Ce n’est donc probablement qu’une question de temps avant que l’approche mise en œuvre dans le cadre de SOCCROP puisse être appliquées de manière opérationnelle à l’échelle globale en s’appuyant sur l’utilisation combinée des données Sentinel 1 et 2.

      Contributeurs

      Pour le CESBIO-INRAe: Ludovic Arnaud, Mathieu Fauvel et Eric Ceschia

      Pour CS-Group: Alice Lorillou, Mickael Savinaud et Benjamin Tardy

    • sur Cartes et données sur le séisme au Maroc (septembre 2023)

      Publié: 11 September 2023, 6:45am CEST

      Le Maroc a été touché dans la nuit du 8 au 9 septembre 2023 par un séisme d'une magnitude de 6,8 à 7 sur l'échelle de Richter dans la province d'Al-Haouz, au sud-ouest de la ville de Marrakech. Près de 3 000 personnes ont perdu la vie et on dénombre plus de 5 500 blessés. L’épicentre a été localisé dans la chaîne du haut Atlas, à une quarantaine de kilomètres du Djebel Toubkal, le point culminant du Maroc. L’épicentre est proche d’Amizmiz et à environ 70 km au sud-ouest de Marrakech et 140 km au nord-ouest de Ouarzazate. La profondeur du foyer a été estimée à 25 km. La secousse a été ressentie à Rabat, à Casablanca, à Agadir et à Essaouira, semant la panique parmi la population. Le séisme a été aussi ressenti dans le sud du Portugal et de l’Espagne, en Algérie et dans les îles de Lanzarote, de Fuerteventura et à Madère. Mais c'est dans le Haut-Atlas que les dégâts sont les plus importants. La province d'Al-Haouz, rurale et assez difficile d'accès, par ailleurs destination de prédilection pour les amoureux de la nature et du tourisme de montagne, déplore plus de la moitié des victimes.
      Carte d'intensité du séisme au Maroc en septembre 2023 (Source : USGS, Wikipédia)

      1) Traitement médiatique de la catastrophe

      « Les images du séisme qui a fait plus de 2000 morts » (Le Parisien). Nombreux sont les Marocains à avoir passé la nuit dans la rue, par crainte de répliques. « Séisme au Maroc : une tragédie nationale en images » (Slate).
      « Toulia, rescapée devenue le visage de la souffrance » (BFM-TV). Au lendemain du drame, son visage a fait la Une de nombreux médias français et étrangers. Elle est désormais sans domicile à Marrakech. Elle n'est "pas très heureuse d'être le symbole de tout ça". Toulia, une mère de famille âgée de 55 ans, est devenue sans le savoir l'un des visages horrifié de la catastrophe qui a frappé le Maroc. La même image médiatique a été reprise par Libération, BBC News, Washington Post, The Telegraph...
      « Cartes : là où le tremblement de terre a frappé le Maroc » (New York Times) avec carte des séismes majeurs au Maroc depuis 1900. Des informations diffusées sur les réseaux sociaux ont indiqué que certains villages n'avaient toujours pas reçu d'assistance plus d'un jour après le séisme. La région compte de nombreuses maisons en briques crues et peu d’infrastructures parasismiques. En raison des routes coupées, de nombreux villages du haut Atlas restent isolés. Des dégâts ont aussi été signalés dans la vieille ville historique de Marrakech. La Médina, site classé au patrimoine mondial de l'UNESCO datant de plusieurs siècles et entourée de murs en grès rouge, a été endommagée et certains bâtiments se sont entièrement effondrés.
      « Séisme au Maroc : pourquoi la catastrophe était imprévisible » (TV5 Monde). 
      Le Maroc se trouve à la frontière de la plaque tectonique africaine, qui s’étend de l’océan Atlantique jusqu’à la Syrie en traversant la mer Méditerranée. Cette situation géographique expose régulièrement le royaume à des séismes dévastateurs, comme celui d'Agadir en 1960, qui a fait plus de 12 000 morts et détruit 75% de la ville ; ou encore à Al Hoceïma en 2004, qui a causé la mort la mort de 628 personnes et des dégâts matériels considérables. Florent Brenguier, de l’Institut des Sciences de la Terre de l’Université de Grenoble, précise cependant que la puissance du séisme de vendredi est inhabituelle : “les zones les plus concernées par les secousses sismiques sont situées à 25 kilomètres plus au Nord, vers les côtes et le Détroit de Gibraltar. Là, l’épicentre ne se situe pas à l'interface entre deux plaques tectoniques. 
      « Le tremblement de terre a pris les scientifiques de court par sa violence dans cette zone  » (20 Minutes). 
      Le Maroc est exposé aux séismes, mais ils surviennent plutôt habituellement 500 km plus au nord, vers Gibraltar, dans une région frontière entre les plaques tectoniques africaine et européenne. On parle d’une bande de 50 à 100 km où l’activité sismique est soutenue, avec des mouvements d’un côté et de l’autre de cette frontière très rapides à l’échelle de la sismologie. De l’ordre de plusieurs millimètres par an. Certes, le Haut Atlas n’est pas très loin de cette zone frontière. Mais l’activité sismique y est considérée jusque-là comme modérée, avec historiquement des séismes de magnitude 4, mais pas plus.
      « Séisme historique au Maroc avec une magnitude surprenante pour les experts ! » (Futura Science). Avec une magnitude de 6,8 à 6,9, il s’agirait là du plus puissant tremblement de terre enregistré jusqu’à présent dans le pays.
      « Le tremblement de terre a pris les scientifiques de court par sa violence dans cette zone  » (20 Minutes). 
      Le Maroc est exposé aux séismes, mais ils surviennent plutôt habituellement 500 km plus au nord, vers Gibraltar, dans une région frontière entre les plaques tectoniques africaine et européenne. On parle d’une bande de 50 à 100 km où l’activité sismique est soutenue, avec des mouvements d’un côté et de l’autre de cette frontière très rapides à l’échelle de la sismologie. De l’ordre de plusieurs millimètres par an. Certes, le Haut Atlas n’est pas très loin de cette zone frontière. Mais l’activité sismique y est considérée jusque-là comme modérée, avec historiquement des séismes de magnitude 4, mais pas plus.
      « Les séismes de cette ampleur sont “rares mais pas inattendus” au Maroc » (Courrier international). Le séisme qui a secoué le Maroc vendredi serait le résultat de la rupture d’une faille inverse, le type de faille qui engendre les montagnes. La faible profondeur de son foyer et sa proximité avec une zone densément peuplée aux constructions fragiles expliquent l’ampleur des dégâts.
      «  Séisme au Maroc : Mohammed VI en première ligne  » (Le Point). Mohammed VI a décrété un deuil national de trois jours, « avec mise en berne des drapeaux sur tous les bâtiments publics » ainsi que « l'accomplissement de la prière de l'absent dans l'ensemble des mosquées du royaume ». Face à l'ampleur des dégâts, la plus haute autorité de l'État a décidé de mettre en place immédiatement une commission interministérielle. Elle sera chargée du déploiement d'un programme d'urgence de réhabilitation et d'aide à la reconstruction des logements détruits dans les zones sinistrées dans les meilleurs délais. Mohammed VI se montre aussi soucieux de contrôler son image dans les médias qu'il semble se méfier de l'aide internationale. «  Séisme au Maroc : le silence gênant de Mohammed VI » (France-Info). 
      «  Un premier bilan du séisme au Maroc en 10 points et 5 cartes et graphiques inédits » (Le Grand Continent). L’efficacité de la réponse politique au séisme et à ses conséquences sociales pourrait se transformer en enjeu clef de politique intérieure. Le président turc Erdogan qui a remporté les élections de mai dernier, avait par exemple vu sa campagne mise en difficulté par les critiques de sa réponse au séisme et du défaut d’anticipation attribué à son gouvernement. Au Maroc, le séisme de 2004 à Al-Hoceima dans la région du Rif, qui avait fait le plus grand nombre de victimes depuis le séisme d’Agadir de 1960, a été suivi de séquences de protestation des populations de cette région qui compte parmi les plus pauvres du Maroc, dénonçant l’arrivée tardive des secours et la mauvaise gestion du gouvernement — région où devait naître 12 ans plus tard, en 2016, l’important mouvement populaire du Rif.
      «  À Marrakech, la peur des répliques, mais aussi celle de voir fuir les touristes » (Le Monde). Marrakech, qui compte un peu moins d'un million d'habitants, a été lourdement frappée par ce tremblement de terre, puisqu'elle n'est située qu'à quelques dizaines de kilomètres au nord de l'épicentre. Les Français sont nombreux à détenir des riads qu’ils louent sur place aux touristes. Ils tentent de rassurer leur clientèle et d’éviter que suite au séisme les voyageurs ne se détournent d’une destination qui retrouvait des niveaux de fréquentation d’avant le Covid. « Un moment de panique: au Maroc, un Français, propriétaire d'un hôtel près de Marrakech, a tout perdu » (BFM-TV). 
      «  Pourquoi certains villages n'ont-ils pas été immédiatement secourus ? » (BFM-TV). Difficilement accessibles par les routes, qui ont été endommagées ou obstruées par des blocs de pierre, des villages isolés du Maroc sont toujours dans l'attente des secouristes, plus de 48 heures après le tremblement de terre.
      «  Une ONG française accuse Marrakech de bloquer l'aide humanitaire » (BFM-TV). Le président de l'association Secouristes sans frontières assure que ses équipes sur place n'ont "toujours pas" reçu l'accord du gouvernement marocain pour intervenir et être "bloquées" par Marrakech. Le Maroc a accepté l'aide officielle de quatre pays, l’Espagne, le Royaume-Uni, le Qatar et les Emirats arabes unis. La France n'est pour l'instant pas dans le lot. Plus de 830 000 Marocains vivent en France tandis que plus de 30 000 Français vivent au Maroc, selon les données des autorités françaises.  
      « Rabat ne veut pas se comporter en pays meurtri que le monde viendrait charitablement secourir » (Le Figaro). Sylvie Brunel, ancienne présidente d'Action contre la Faim, estime que face aux offres d’aide humanitaire aux arrière-pensées géopolitiques, il est légitime que le Maroc se positionne en État souverain. « Les Marocains ont l'expérience des séismes... Il faut faire très attention car l'expérience des séismes montre que le grand risque, c'est l'afflux de bonnes volontés qui provoque un engorgement de l'aide et une impossibilité à agir efficacement... Le Maroc ne veut pas se retrouver dans la situation du proverbe qui dit que "la main qui donne est au dessus de la main qui reçoit" » (interview pour BFM-TV). Géopolitique et gestion des risques : « Pourquoi le Maroc n'accepte pas l'aide de la France ? » (Europe 1). « Maroc : La diplomatie du séisme » (débat sur Public Sénat).
      « Maroc : géopolitique d'une catastrophe » (Le Dessous des cartes). Comment expliquer que la France ne fait pas partie des premiers pays sélectionnés pour apporter de l’aide ?
      « Tremblement de terre au Maroc : le difficile acheminement de l’aide internationale humanitaire » (Libération). » Les premières vingt-quatre à quarante-huit heures sont cruciales pour sauver des vies. Des voix s'élèvent pour faire remarquer qu'en cas de séisme les premières heures sont déterminantes et qu'il peut être dommageable d'attendre une réponse officielle pour décider si le pays a besoin d'aide.
      « L'UNICEF estime qu'environ 300 000 personnes n'ont plus de maisons. Parmi elles, il y aurait environ 100 000 enfants » (BFM-TV). « 530 écoles et 55 internats endommagés selon le ministère marocain de l'Education nationale » (France-Info).
      « Séisme au Maroc : la technologie peut-elle aider à prévoir ou à prévenir les séismes ?  (France-Info). Il faut savoir qu’aujourd’hui, presque tous les mobiles ont un capteur de mouvements suffisamment sensible pour détecter des ondes sismiques. En analysant les vibrations d’un seul téléphone, il y aurait pas mal de fausses alertes. Mais comme cette détection est désormais intégrée d’usine à tous les mobiles Android, cela permet de s’appuyer sur des milliers de téléphones. Notamment, les plus proches de l’épicentre pour prévenir tous les autres. Encore une fois, ce n’est pas une prédiction, mais une alerte.
      « Le séisme au Maroc a aussi dévasté le patrimoine historique, endommageant palais, mosquées et minarets » (Le Monde). Au moins vingt-sept monuments emblématiques de la région de Marrakech ont été détruits ou endommagés par le tremblement de terre qui a tué plus de 2 900 personnes. « Séisme au Maroc : l'Unesco dresse un premier bilan des monuments touchés » (LeMatin.ma).
      « Comment se relever ? Le défi maintenant, c’est que tout ne soit pas reconstruit en béton » (Libération). L’entrepreneur Oussama Moukmir, fondateur d’une coopérative dédiée à la bioconstruction, promeut un bâti conforme aux normes sismiques, mais confectionné à partir de matériaux locaux et durables, en usant de méthodes anciennes. « Séisme au Maroc : les maisons en terre crue critiquées à tort » (Reporterre). 
      « Le phénomène controversé des "lumières sismiques" intrigue internautes et scientifiques » (France-Info). Depuis le séisme du 8 septembre au Maroc, des vidéos amateurs montrant des phénomènes lumineux présentés comme liés au tremblement de terre circulent sur les réseaux sociaux. Ils sont parfois décrits comme des "lumières sismiques", un phénomène que la science peine à expliquer.
      « Séisme au Maroc : raconter un événement exceptionnel à l’étranger, le défi de la presse régionale » (La rvue des médias). Sans bénéficier des mêmes moyens que la presse nationale, les quotidiens régionaux déploient des techniques pour articuler ces actualités à l'échelle locale. Aussi exceptionnel soit-il, un événement survenu à l’étranger n’est pas forcément traité en une. Pour les inondations survenues en Libye quelques jours après le séisme au Maroc, par exemple, la couverture médiatique de la PQR est moindre. 

      2) Pistes d'analyse scientifique en termes d'aléa/risque/vulnérabilité et enjeux

      Séisme au Maroc : "C'est une rareté d'avoir de si gros séismes dans cette zone" (France24)Le Centre national pour la recherche scientifique et technique (CNRST) basé à Rabat a indiqué que le séisme était d'une magnitude de 6,8 degrés sur l'échelle de Richter et que son épicentre se situait dans la province d'Al-Haouz, au sud-ouest de la ville de Marrakech. Il s'agit du plus puissant séisme à frapper le royaume à ce jour. Un phénomène "surprenant", selon Florent Brenguier, sismologue à l’Institut des Sciences de la Terre de l’Université de Grenoble, car la zone où se trouve l'épicentre ne se situe pas "à l'interface entre deux plaques tectoniques". 
      « Séisme au Maroc. "Marrakech n’est pourtant pas la zone la plus active du pays" » (Challenge.ma).
      En Turquie, on était sur un mouvement horizontal, puisque la Turquie s’échappe en gros vers l’ouest, elle « part » vers la Grèce. Il y a un coulissement horizontal des plaques. Là, on est plutôt sur une convergence entre l’Afrique et l’Eurasie ou l’Ibérie, la partie espagnole, et sur des failles chevauchantes : le relief du Haut-Atlas est en train de monter sur l’avant-pays au nord. Mais on est toujours dans un contexte de limite de plaques. Il faut voir à quelle magnitude le séisme va se fixer. On est autour de 6,8 ou 6,9, ce qui est une intensité assez forte. Cela correspond en gros à un déplacement moyen sur la faille de l’ordre d’un mètre, en quelques secondes, sur plusieurs kilomètres. Forcément, ça secoue énormément la région (Philippe Vernant, enseignant-chercheur à l’université de Montpellier (sud) et spécialiste en tectonique active, notamment au Maroc).
      En 2011, un nouveau règlement de construction parasismique (RPS 2000) a été mis en place, et est appliqué dans la majorité des nouvelles constructions des zones urbaines marocaines. Mais selon Philippe Guéguen, directeur de recherche à l’Institut des Sciences de la Terre de l’Université de Grenoble, de nombreux bâtiments plus anciens et monuments historiques échappent à ces nouvelles normes : “la réglementation n’est pas faite pour ce type de bâtiment, il n’y a pas de règle particulière. Il faudrait les renforcer, ou les remplacer par des bâtiments plus récents, plus modernes. Mais personne ne fait ça. Et la mise en application des normes demande du temps.”
      Michel Sébrier, Lionel Siame, El Mostafa Zouine, Thierry Winter, Yves Missenard, Pascale Leturmy (2006). Tectonique active dans le Haut Atlas marocain. Comptes Rendus Geoscience, Vol. 338, 1–2, January 2006, Pages 65-79. La révision critique des données sismologiques et structurales, associée à l'acquisition de nouvelles données topographiques, géomorphologiques et sur la géologie du Quaternaire permet de situer les failles actives majeures du Haut Atlas aux niveaux des failles bordières nord et sud. La segmentation de ces failles suggère qu'elles ont le potentiel pour générer des séismes de magnitude 6,1 à 6,4.
      Taj-Eddine Cherkaoui & Ahmed El Hassani, Seismicity and Seismic Hazard in Morocco 1901-2010Bulletin de l’Institut Scientifique de Rabat, section Sciences de la Terre, 2012, n° 34, p. 45-55. Voir également le site personnel de Taj-Eddine Cherkaoui sur la sismicité et l'aléa sismique au Maroc.

      B. Theilen-Willige, R. Löwner, F. El Bchari, H. Wenzel (2013). Remote Sensing and GIS Contribution to the Detection of Areas Susceptible to Local Site Effects during Earthquakes and to Tsunami Waves in W-MoroccoVienna Congress on Recent Advances in Earthquake Engineering and Structural Dynamics 2013 (VEESD 2013). Lorsque des tremblements de terre ou des tsunamis se produisent, des actions immédiates et efficaces sont nécessaires pour réduire les dommages matériels et les pertes humaines. Les techniques de télédétection et SIG sont étudiées dans le cadre du projet W-Maroc afin de contribuer à l'inventaire systématique et standardisé des zones les plus sensibles aux mouvements du sol.
      Abdelouahad Birouk, Aomar Ibenbrahim, Azelarab El Mouraouah & Mohamed Kasmi (2020). New Integrated Networks for Monitoring Seismic and Tsunami Activity in MoroccoAnnals of Geophysics, 63, 2, SE220, 2020. Un certain nombre de réseaux ont été déployés pour mesurer le niveau de la mer et surveiller l'activité sismique en temps réel au Maroc, qui a connu plusieurs tremblements de terre destructeurs au cours de son histoire. Ce nouveau réseau sismique consiste en un hub pour la gestion des données satellites et les 48 stations sismiques au sol, toutes reliées à une Unité centrale d’acquisition, de traitement et de stockage des données à Rabat. Par rapport au réseau précédent, le nouveau réseau a permis d'enregistrer cinq fois plus d'événements par an et a contribué à abaisser le seuil des magnitudes détectées. Une surveillance 24h/24 et 7j/7 a été mise en place pour cette surveillance et pour fournir une alerte sismique rapide aux autorités nationales compétentes dans le cadre de la gestion des risques sismiques.
      Pour comprendre l'origine du séisme, l'Observatoire éducatif méditerranéen (EdumedObs) met à la disposition des enseignants un dossier à ouvrir dans Tectoglob3D. L'outil se présente comme un globe virtuel en 3D. Le logiciel Tectoglob3D permet d'étudier des sismogrammes, de réaliser des coupes, d'ajouter des foyers et de faire de la tomographie sismique. L'application peut être utilisée directement en ligne sur le site SVT de l'académie de Nice (voir cette vidéo de présentation).
      « Maroc, Lybie, Grèce : plus la société est inégalitaire, plus la catastrophe est meurtrière » (Futura Sciences). L’investissement dans les biens communs, la répartition des richesses et celle du pouvoir déterminent la vulnérabilité des populations aux catastrophes naturelles, explique Jean-Paul Vanderlinden qui est professeur en économie écologique à l’Université de Versailles Saint-Quentin-en-Yvelines et membre du laboratoire CEARC (cultures, environnements, Arctique, représentations, climat) de l’Observatoire de Versailles Saint-Quentin. Ses travaux portent sur l’analyse du risque existentiel au niveau local et son articulation avec le changement climatique.

      « Pour une analyse géographique des catastrophes : le cas du séisme du 8 septembre au Maroc » (Le Grand Continent). David Goeury rappelle la nécessité de procéder à une analyse géographique des catastrophes pour comprendre comment peut se déployer une aide d’urgence. La polémique stérile sur l’aide internationale est venue masquer la réalité du territoire touché et les spécificités du déploiement des secours d’urgence en zone de haute montagne. L’émotion, les élans de générosité et l’incompréhension de réalités territoriales complexes ont nourri des discours particulièrement confus.
      « Séisme : géopolitique du désastre marocain » (Blast). Aboubakr Jamaï, Professeur des relations internationales à Aix-en Provence, décrypte et analyse ce que cet évènement tragique révèle de la situation politique et sociale du royaume chérifien ainsi que de ses relations diplomatiques, plus que tendues, avec la France.

      3) Cartes et données SIG à visualiser en ligne ou à télécharger

      Cartographie du tremblement de terre par l'United States Geological Survey (USG) avec l'intensité sismique, les failles tectoniques, la densité de population, etc...
      Cartographie du séisme et de la zone impactée par l'United Nations Satellite Centre (UNOSAT-UNITAR) avec analyse de la population exposée.
      Ressources fournies par le Global Disaster Alert and Coordination System (GDACS).
      Ressources mises à disposition par le Centre Sismologique Euro-Méditerranée (CSEM).
      Données SIG sur le Maroc mises à disposition sur Humanitarian Data Exchange (HDX), site dédié au partage de données humanitaires.
      Cartographie des villages en attente d'aide (fichier kml sur Google Maps).
      Tous les villages et douars situés à moins de 50 km de l’épicentre du séisme (fichier kml sur Google Maps).
      Cartes et données SIG élaborées par le Service de gestion des urgences CopernicusEMS (dégâts estimés à partir de l'observation d'images satellites).
      Images Maxar en haute résolution diffusées en données ouvertes avec possibilité de comparer les images avant et après la catastrophe sur le visualisateur en ligne. Inscription sur le site nécessaire pour pouvoir télécharger des images prêtes à l'analyse. Voir ce tutoriel pour optimiser le téléchargement et faciliter la réutilisation des images Maxar dans Q-Gis.
      Fichiers des plaques tectoniques à télécharger au format shp ou geojson. Carte des séismes dans le monde sur la période 1900-2018 disponible en pdf.
      Base de données des tremblements de terre dans le monde (NCEI - NOAA) avec la géolocalisation, la magnitude, la distance du foyer par rapport à l'épicentre, les pertes humaines, les dégâts matériels.
      Séisme au Maroc : la déformation du sol vue par satellite (Futura Sciences). Les secours ont eu accès rapidement aux images satellitaires de la zone dévastée par le séisme au Maroc grâce à la Charte internationale « Espace et catastrophes majeures ». Mais les satellites sont également capables d’observer très finement la déformation du sol. Des données essentielles pour mieux comprendre ce qui s’est passé dans la nuit du 8 au 9 septembre.2
      Des images et des analyses à partir d'images satellites Pléiades (CNES) sont mises à disposition dans le cadre de la Charte internationale « Espace et catastrophes majeures ». Cartes réalisées par UNITAR / UNOSAT. Certaines images permettent d'étudier la déformation au sol vue depuis les satellites.

      4) Utilisation de la cartographie pour organiser l'aide humanitaire
      La communauté OpenStreetMap s'est mobilisée en urgence pour mettre à jour la cartographie de la zone touchée par le séisme, faciliter les secours et organiser la logistique. L'équipe humanitaire HOT Osm (@hotosm) a appellé tous les volontaires à une grande opération de cartographie collaborative dans le cadre de la procédure « Disaster Response » qu'elle a mise en place pour couvrir ce type de catastrophe. Pour participer à cette cartographie à distance : [https:]]
      Données SIG déjà mises à disposition sur le site HOT Osm. Les données concernant les bâtiments sont régulièrement mises à jour.
      « Dans la province d’El Haouz, dans les zones rurales, les maisons sont construites en terre, les unes à coté des autres ce qui rend parfois difficile de séparer les bâtiments de leur entourage, surtout si il y des arbres à côté. Je propose de cartographier la bâtiment selon leur contour extérieur, indépendamment de la forme intérieur du bâtiment » (témoignage de Fatima Eddaoudi responsable Tasking Manager de HOT). Les discussions portent également sur le périmètre à prendre en compte (disponible en geosjson) et l'avancée du travail de saisie cartographique qui nécessite des processus réguliers de validation (voir la grille de tâches en geojson).

      Rapport d'impact 2022-23 sur les opérations conduites par HOT Osm « Cartographions notre monde ensemble »
      « Qualité des données : un voyage sur la plateforme humanitaire d'OpenStreetMap » (Geotribu). Delphine Montagne parle de son travail bénévole et solidaire de validation au sein des campagnes d'HOT OSM, le volet humanitaire d'OpenStreetMap.
      Réponse au tremblement de terre en Turquie et en Syrie (février 2023) : les ressources mises à disposition permettent de mettre en évidence l'intérêt de la cartographie humanitaire et l'expérience déjà acquise par HOT Osm lors du séisme en Turquie et Syrie.
       
      Articles connexes
      Cartes et données sur les séismes en Turquie et en Syrie (février 2023)
      Cartes et données sur les tremblements de terre au Japon depuis 1923
      Simuler des scénarios de tremblement de terre en utilisant des cartes

      Un nouveau modèle de plaques tectoniques pour actualiser notre compréhension de l'architecture de la Terre

      Carte-poster des tremblements de terre dans le monde de 1900 à 2018 (USGS)

      Cartes-posters sur les tsunamis, tremblements de terre et éruptions volcaniques dans le monde (NOOA, 2022)

      Analyser et discuter les cartes de risques : exemple à partir de l'Indice mondial des risques climatiques

      Une anamorphose originale montrant l'exposition accrue des populations au risque volcanique

      Les éruptions volcaniques et les tremblements de terre dans le monde depuis 1960

      L'évolution de la cartographie humanitaire au sein de la communauté OpenStreetMap

    • sur 30e Conférence Internationale sur l’Histoire de la Cartographie (ICHC) - Lyon 1er-5 juillet 2024

      Publié: 6 September 2023, 8:30pm CEST


      La 30e Conférence Internationale sur l’Histoire de la Cartographie (ICHC) aura lieu à Lyon du 1er au 05 juillet 2024 sur le thème « Confluences - Interdisciplinarité et nouveaux défis dans l'histoire de la cartographie ». La conférence est ouverte à tous ceux qui travaillent sur l'histoire de la cartographie, indépendamment de la région géographique, de la langue, de la période ou du sujet. La conférence encourage la coopération et la collaboration libres et sans entraves entre les spécialistes de la cartographie de nombreuses disciplines universitaires, les conservateurs, les collectionneurs, les marchands et les institutions par le biais de conférences illustrées, de présentations, d'expositions et d'un programme social.

      L’appel à contributions est ouvert sur le site [https:]] du 1er septembre 2023 au 20 novembre 2023 pour des communications orales individuelles, des sessions thématiques (groupe de communications individuelles), des posters et des ateliers sur les possibilités d’intégrer une démonstration technique d’analyse associées à l’histoire de la cartographie. La langue officielle de la conférence sera l’anglais, et toutes les présentations devront être faites dans cette langue (il n’y aura pas de traduction simultanée). Toute présentation (communication orale, poster ou atelier) implique que la personne responsable vienne à Lyon pour la faire en présentiel.

      La 30e édition de l'ICHC encourage particulièrement des présentations sur les thèmes suivants :

      • Cartographie des déplacements, voyages et rencontres en cartographie.

      Englobe la production de cartes pour aider les voyageurs et les touristes à atteindre leurs objectifs, à organiser l'hébergement et le transport, et la manière dont les territoires sont mis en valeur.

      • Cartes et réseaux - Utilisation, échange et circulation des cartes

      Explore les interrelations entre les producteurs de cartes, en tenant compte de la diffusion de nouveaux champs d'intérêt, de nouvelles utilisations, de l'introduction de nouvelles techniques et des réseaux de partage.

      • Cartographie de la nature, des espaces sauvages et de l'agriculture

      Vise une nouvelle compréhension de la manière dont les espaces naturels, sauvages et agricoles ont été traités, y compris la végétation, les montagnes, les étendues d'eau, les productions agricoles, les environs des villes et les risques naturels.

      • Le développement de l'urbanisme et de la cartographie

      La planification implique ou suppose une connaissance précise de la réalité topographique, ce qui a conduit à des améliorations de la cartographie, tant au niveau des techniques de mesure que de la conceptualisation, et récemment à l'introduction de la cartographie numérique.

      • Nouvelles perspectives sur la transition numérique

      Étudie la manière dont la dématérialisation introduit de nouvelles problématiques : décomposition en couches vectorielles à assembler et organiser pour de nouveaux usages, nouveaux rapports entre données et expression graphique, big data, conservation (ou mise au rebut) des données historiques/anciennes et des cartes numériques.

      • Et tout autre aspect de l'histoire de la cartographie. 

      L’appel à communications propose 4 types d’interventions :

      • Communication orale : présentation de 15 à 20 minutes sur une recherche en cours
      • Posters : présentation dédiée à montrer une analyse de dispositifs visuels accompagnées de textes succincts 
      • Ateliers/Workshops : possibilités d’intégrer une démonstration technique des possibilités d’analyse associées à l’histoire de la cartographie
      • Session thématique : proposition d’une séance de communications orales (les résumés des différentes interventions doivent être communiqués au comité scientifique)

      Dates importantes : appel à communications/ateliers/posters - du 01/09/2023 au 20/11/2023

      Réponse du comité scientifique : janvier 2024

      Exposition organisée à la Bibliothèque Municipale de Lyon, dans le cadre des "Conférences Internationales d'Histoire de la Cartographie" (ICHC) 2024.

      Exposition organisée à la Bibliothèque Denis Diderot, dans le cadre des "Conférences Internationales d'Histoire de la Cartographie" (ICHC) 2024.


    • sur Contribution des pays du Bassin du Congo à la déforestation

      Publié: 6 September 2023, 1:50pm CEST par Françoise Bahoken

      A la suite du billet précédent sur les paysages forestiers intacts, on peut logiquement s’interroger sur la déforestation ces dernières années, sur la contribution des différents pays du Bassin du Congo.

      Pour ce faire, j’ai mobilisé les données disponibles dans le dernier rapport sur l’État des forêts (EDF) publié par le Partenariat pour les forêts du Bassin du Congo (PFBC), pour “présenter les écosystèmes forestiers d’Afrique centrale et leur environnement de gestion”. Ce rapport fait notamment état de données qui fournissent des mesures sur la déforestation réalisées de 2009 à 2020.

      M’étant fixée pour objectif de cartographie la répartition des pays du point de vue de la déforestation, j’ai réalisée une carte descriptive combinant le stock de surfaces déforestées (en hectares) et le taux illustrant la contribution en pourcentage de l’ensemble des pays concernés à la déforestation du Bassin du Congo, sur la période 2009-2020.

      En examinant les premiers résultats cartographiques obtenus, j’ai finalement réalisé deux cartes prenant en compte ou non la contribution du Cameroun, pour lequel les données n’étaient disponibles, dans les sources que j’ai consultées, que jusqu’en 2018 (carte 1).

      Carte 1. Profil des pays du Bassin du Congo en termes de déforestation de 2009 à 2018

      Si l’on étend la période de représentation à 2020, en conservant le Cameroun, la configuration des pays change de de manière importante (Carte 2), puisque le Cameroun qui avait la contribution la plus importante jusqu’en 2018, à plus de 35% voit, cède sa place, par simple permutation, au Gabon.

      Carte 1. Profil des pays du Bassin du Congo en termes de déforestation de 2009 à 2020

      Au delà du changement de position du Cameroun et du Gabon, ces deux cartes permettent aussi de montrer comment la présence de données manquantes ou lacunaires peut conduire à travestir la réalité et, surtout, à empêcher la mesure de la déforestation à l’œuvre depuis 2009 dans les pays du Bassin du Congo. Du coup, on aimerait bien savoir pourquoi les données sont manquantes pour le Cameroun…

      Billet lié :
      Que reste t-il de nos forêts ?

      Source :
      Partenariat pour les forêts du Bassin du Congo (PFBC), 2021, État des forêts, Rapport

       

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur [MUSCATE & THEIA] Production of Sentinel-2 L2A is late

      Publié: 5 September 2023, 6:19pm CEST par Olivier Hagolle

      Update on 25 september 2023 : we have no backlog left in Europe, and the system is catching up on the other regions of the world

      Update on 9 september 2023 : 25 days processed in a week over France ! We are catching up a bit

      CNES has bought and built a new HPC cluster, named T-Rex, that will soon replace the former one, HAL. T-Rex will drastically improve our processing capacity ! T-Rex started its operations this summer, but the transition is complex, as T-Rex reuses the most powerful nodes of HAL, needs a synchronisation of all the data sets (the data volumes to copy are huge), and of course, has a different OS version and a new scheduler. We have anticipated the changes in our systems, using a simulated environment to test our softwares, but, you know, simulations are not the reality.

      As a result, the production of MUSCATE (THEIA) is still running on HAL, but some of the best processors of HAL have been migrated to T-REX, reducing our production capacity. moreover, we have been asked to stop producing on week-ends, to allow a faster copy of the data from HAL to T-Rex.

      As a result, yet, we have not been able to catch-up the production that we had halted for a few weeks when the new version of CAMS was put in production, and for some sites, for instance, in France, we are late by one month. Please be assured that the teams are doing their best to catch it up.

    • sur QGIS rencontre AWS S3

      Publié: 4 September 2023, 10:50am CEST par Jacky Volpes

      Depuis QGIS 3.22 Bia?owie?a, il est possible de lier des documents externes (documents stockés sur des plateformes utilisant le protocole WebDAV, telles que Nextcloud, Pydio, etc.) à des données géographiques. Cette fonctionnalité permet d’introduire une composante de Gestion Électronique de Documents (GED) dans les SIG.

      La livraison de cette fonctionnalité auprès de la communauté QGIS s’est faite grâce au financement de la Métropole de Lille, et elle se voit aujourd’hui enrichie grâce à l’implication et au financement de la Métropole de Lyon qui utilise une infrastructure de GED basée sur le stockage d’objets dans le cloud, qu’elle souhaite pouvoir exploiter à travers son SIG.

      C’est un bel exemple de cercle vertueux où des utilisateurs mutualisent des financements afin d’enrichir les fonctionnalités de QGIS au bénéfice du plus grand nombre : les contributions se sont enchainées pour améliorer les jalons posés par d’autres utilisateurs.

      Amazon Simple Storage Service (AWS S3)

      Depuis QGIS 3.30 ‘s-Hertogenbosch, il est donc possible d’utiliser le type de stockage AWS S3 lors de la configuration du widget Pièce jointe, ainsi que le nouveau type d’authentification dédié :

      Nouveau type d’authentification AWS S3

      Notre article précédent présente un guide sur la configuration du formulaire de la couche géographique, afin de disposer d’une interface ergonomique permettant de visualiser les documents, et les envoyer sur le système de stockage directement via le formulaire de l’entité géographique.

      Aperçu d’un fichier joint

      Il suffit à présent de sélectionner AWS S3 comme type de stockage et d’authentification :

      Nouveau type de stockage AWS S3

      Stockage d’objet cloud compatible

      MinIO est un système de stockage d’objet cloud compatible AWS S3, opensource, et facilement mis en place via Docker par exemple, pour stocker des documents et y accéder via QGIS.

      A venir

      Nous cherchons à améliorer cette fonctionnalité pour les prochaines version de QGIS : nous aimerions par exemple :

      • ajouter de nouveaux types de stockage,
      • améliorer le rendu des photos dans les fonds de carte,
      • charger un projet directement à partir d’un stockage externe,
      • etc ! on peut imaginer de nombreux usages complémentaires. N’hésitez pas à nous faire part de vos besoins

      Si vous souhaitez contribuer ou simplement en savoir plus sur QGIS, n’hésitez pas à nous contacter à infos@oslandia.com et consulter notre proposition de support à QGIS.

    • sur Que reste t’il de nos forêts ?

      Publié: 4 September 2023, 7:45am CEST par Françoise Bahoken

      Le changement climatique, la chaleur suffocante et maintenant, la soudaine tombée du froid. Est-ce que cela pourrait être dû à la baisse du couvert végétal ? Je demande…

      A la faveur d’une collaboration en cours avec la FPAE, je suis sortie de ma zone de confort cet été pour essayer de prendre l’air, en m’intéressant aux forêts du Bassin du Congo ; le lien entre les très fortes températures et les épisodes de sécheresse que nous connaissons en Europe de l’ouest, le changement climatique et le lien avec le couvert végétal m’intéressant a priori.
      N’étant pas familière avec ces sujets liés aux paysages végétaux, je suis entrée dans le sujet en commençant par me promener au cœur de bases de données librement accessibles en ligne  – des bases de données que j’ai d’abord dû identifier. Je ne vais pas entrer dans trop de détail sur les données et les traitements réalisés, juste présenter quelques résultats cartographiques ci-après et probablement dans de prochains billets.

      Alors, pour commencer sur ce sujet des forêts, intéressons-nous aux forêts « encore intactes ». Cela tombe bien, un groupe de chercheurs à publié différents articles sur le sujet (voir notamment Potapov et al. 2017) qu’ils partagent sur www.intactforests.org, permettant alors de les caractériser et de les cartographier.

      Un « paysage forestiers intact (PFI) est une étendue ininterrompue d’écosystèmes naturels à l’intérieur de la forêt actuelle, sans aucun signe d’activité humaine détectée à distance et suffisamment vaste pour que toute la biodiversité autochtone, y compris les populations viables d’espèces à large répétition, puisse être maintenue.

      Pour les besoins d’évaluation globale, un PFI est défini [harmonisé au niveau mondial] comme un territoire formé d’écosystèmes forestiers et non forestiers très peu influencés par l’action anthropique, avec (i) une superficie d’au moins 500 km² (50 000 ha), (ii) une largeur minimale de 10 km (mesurée comme le diamètre d’un cercle englobant minimum le territoire concerné), et (iii) une largeur minimale de corridor/appendice de 2 km.

      Les zones présentant des traces de certains types d’influence humaine sont considérées comme perturbées ou fragmentées et ne peuvent donc être incluses dans le PIF ».
      Greenpeace, 2023 (trad. F. Bahoken),

      Une base de données disponible à plusieurs dates a également été construite sur ces PFI par un collectif de cartographes : l‘Impact Forest Landscape mapping team appartenant à Greenpeace, WRI, WCS, Département de Géographie de l’Univ. du Maryland, Transparent World et WWF (Russie),

      J’ai été très très surprise de voir l’état de l’extension forestière en 2020 (dernière date disponible), particulièrement en Afrique et dans le bassin du Congo. La carte réalisée est littéralement dramatique. Jugez-en par vous mêmes.

      Paysages forestiers « encore intacts » en 2020 dans le bassin du Congo

      La forêt a t-elle été réduite rapidement ? Quelle était son emprise en 2000, par exemple ?

      Paysages forestiers intacts en 2000 dans le bassin du Congo

      Ce n’est pas vraiment mieux qu’en 2000 et c’est le moins que l’on puisse dire. Pour mieux se rendre compte de l’étendue du désastre, j’ai superposé les deux cartes précédentes sur l’extension historique du couvert forestier

      Évolution du couvert forestier dans le bassin du Congo entre 2011 et 2020

      Références :

      – Potapov, P., Hansen, M. C., Laestadius L., Turubanova S., Yaroshenko A., Thies C., Smith W., Zhuravleva I., Komarova A., Minnemeyer S., Esipova E. “The last frontiers of wilderness: Tracking loss of intact forest landscapes from 2000 to 2013” Science Advances, 2017; 3:e1600821

      – Bases de données IFL mapping team Intact Forest Landscapes 2000/2013/2016/2020.

      www.intactforests.org

      Françoise Bahoken

      Géographe et cartographe, Chargée de recherches à l'IFSTTAR et membre-associée de l'UMR 8504 Géographie-Cités.

      More Posts

    • sur Les stations de ski fantômes : mythes et réalité d’un angle mort de la géographie du tourisme

      Publié: 3 September 2023, 10:41pm CEST par r.a.

      Par Pierre-Alexandre Metral
      Doctorant en géographe – Université Grenoble Alpes

      Pierre-Alexandre Metral qui réalise actuellement une thèse à l’UGA dans le cadre du Labex Innovations et Transitions Territoriales en Montagne (ITTEM) intitulée « La montagne désarmée, une analyse des trajectoires territoriales des stations de ski abandonnées » est intervenu le 18 avril 2023 à Chambéry dans le cadre d’un Café Géographie.

      En guise de préambule, l’intervenant est revenu sur ce « phénomène des stations de ski fermées qui revient de plus en plus fréquemment dans les médias à travers le mythe de la station de ski fantôme ». Selon lui, le terme de « station de ski fantôme » est une dénomination bien particulière qui fait éminemment référence à une activité ancienne qui viendrait marquer l’histoire d’un territoire vécu et qui s’ancrerait comme un traumatisme qui ne passe pas.

      Pour ce dernier, la station de ski fantôme renvoie à l’omniprésence des friches constituées d’un certain nombre de bâtiments et d’infrastructures délaissés, qui s’établissent comme des marqueurs de déprises sur les territoires, symbolisés par la rouille de ces installations. Des friches qu’il caractérise comme des espaces en « accès libre pour des pratiques contre culturelles ».

      A partir de ce cadrage, Pierre-Alexandre Metral propose la problématique suivante pour ce Café géo : Est-ce que le mythe de la station de ski fantôme est représentatif de la mise à l’arrêt des domaines skiables français ?

      1/ La « fin touristique » : normalité ou anomalie ?

      Pour l’intervenant, la vie de tout produit économique est marquée par l’idée de cycle de vie allant d’une introduction sur un marché jusqu’à son retrait. Pour transposer ce cycle de vie au cadre du tourisme, il évoque les travaux de Michel Chadefaud pour qui « le tourisme est un bien non durable […] marqué par une activation et une désactivation ». Pour illustrer ses propos, Pierre-Alexandre Metral projette la figure du cycle de vie d’un bien touristique.

      Fig 1 : cycle de vie des produits touristiques – Michel Chadefaud 1988

       

      A l’issue de la présentation de cette figure, le doctorant a proposé une série d’illustrations de proximité au public en présentant diverses « fins touristiques » du bassin chambérien. Il a notamment évoqué le cas de l’abandon du téléphérique du Mont Revard qui a fonctionné jusqu’à la fin de la décennie 1960 en lien avec l’activité thermale de la ville d’Aix-les-Bains.

      Fig 2 : La gare de départ en 2022 – P-A Metral

      2/ Pourquoi un domaine skiable ferme-t-il ?

      En réponse à cette interrogation, Pierre-Alexandre Metral évoque des conditions d’exploitation de plus en plus vulnérables :
      – Obsolescence des conditions d’exploitation liée au manque de neige
      – Obsolescence face à la concurrence entre petits et grands domaines skiables
      – Obsolescence du site d’implantation en raison d’accès routiers complexes
      – Obsolescence de l’équipement avec des coûts d’exploitation et de maintenance de plus en plus onéreux corrélé au vieillissement des installations
      – Obsolescence de certains modèles de développement en lien avec la disparition des classes de neige par exemple

      Concrètement, il lui est possible d’identifier 3 causes majeures de fermeture. En premier lieu et principalement, le motif économique avec des domaines skiables non rentables (ex : Pugmal dans les Pyrénées et ses 9,2 millions d’euros d’endettement). Vient ensuite l’épuisement des ressources humaines avec le départ en retraite d’exploitants privés sans transmission du capital touristique. Ce fut par exemple le cas dans le Jura où le petit téléski des Clochettes cessera son exploitation à la suite au décès de son fondateur et exploitant. Enfin, le cas des fermetures stratégiques liées à la mauvaise qualité des sites d’implantation et au redéploiement des activités sur de meilleures pentes. Pierre-Alexandre Metral évoque pour cela l’éphémère domaine de Supervallée à la Bresse (5 années d’exploitation), implanté sur un secteur pluvieux, qui deviendra suite à son déplacement en altitude la station de La Bresse, plus grand domaine skiable du massif vosgien.

      Fig 3 : stade de neige du Puigmal en 2020, P-A Metral

      3/ Quelle est la géo-histoire du phénomène de fermeture ?

      Cette troisième partie est l’occasion pour l’intervenant de mettre en avant l’absence d’inventaire des domaines fermés. Pour remédier à cet écueil, il s’est attaché dans le cadre de sa thèse à réaliser un inventaire exhaustif à partir de différentes sources qu’il présente au public : ouvrages et articles scientifiques anciens sur le ski, articles de presses locales, cartes topographiques, cartes postales et vues aériennes anciennes … Tout cela lui permettant « d’établir une base de données spatialisée des sites fermés en France. S’ensuit la présentation d’une animation cartographique qui présente les ouvertures et les fermetures de stations sur l’hexagone entre 1920 et 2022.

      Fig 4 : Carte de localisation des sites français fermés et actuellement actifs en 2022 – BD STATIONSFERMEES, P-A Metral, 2022

      A l’issue de cette animation Pierre-Alexandre Metral indique que ce phénomène de fermeture de stations touche tous les massifs montagneux en France (sauf la Corse) avec un épicentre dans les Alpes compte tenu de l’ampleur de ce dernier. Il présente également un taux de fermeture (rapport entre le nombre de sites fermés et actifs) tiré de ces travaux de thèse à hauteur de 31 %. Un taux apparaissant inégal en fonction des massifs de montagne : la moyenne montagne apparaissant en moyenne bien plus marquée par le phénomène de fermeture. Il termine son analyse statistique en cherchant à recontextualiser l’ampleur des fermetures en France : « les petits domaines skiables de basse ou moyenne montagne apparaissent donc les plus fragiles. Ils représentent au total 350 kilomètres de pistes en cumulé, soit une perte sèche de 3,34 % du domaine skiable français actuel ».

      4/ Les stations fantômes sont-elles réellement des stations ?

      Cette nouvelle interrogation proposée par Pierre-Alexandre Metral, lui permet de faire remarquer qu’un grand nombre de « stations fantômes » sont en réalité : des centres de ski (135/186) , soit des sites mono-spécialisés dans la pratique du ski, parfois rudimentaires, ne comptant uniquement les équipements essentiels à la pratique (parking + remontée mécanique) des stades de neige (43/186) auquel il faut ajouter la fonction de services touristiques in situ (location de ski, petite restauration…) et enfin de toutes petites stations touristiques (8/186) qui comptaient quelques lits marchands pour une offre de séjours. Il conclut ce quatrième temps en indiquant qu’en réalité les sites apparentés à de « petites stations touristiques » sont encore peu concernés par les mises à l’arrêt de leurs domaines skiables. Pour autant, la dynamique de ces 20 dernières années expose que ces sites tendent de plus en plus à être touchés par l’arrêt de l’offre de ski.

      5/ Une incarnation de la station fantôme : la friche touristique

      Ce cinquième temps proposé par le doctorant lui permet d’évoquer les pistes possibles de reconversion des appareils de remontées mécaniques définitivement mis à l’arrêt. Néanmoins, il avertit d’emblée le public que ces reconversions sont pour beaucoup illusoires : les réactivations des domaines skiables sont risquées, la mono-spécialisation des équipements fait que le réemploi du matériel pour des loisirs d’été est extrêmement rare, que le marché de l’occasion est devenu une niche impénétrable faute à un matériel vieillissant et totalement obsolète.

      Toujours en lien avec cette question de la friche touristique, l’intervenant aborde la question du démontage des appareils dont le coût est très élevé (entre 5000 et 20 000 € pour un téléski), avec bien souvent à la sortie des installations laissées en place et qui se détériorent faute de financements et parfois même à l’oubli des appareils le temps passant. Le « bilan comptable » du délaissement des appareils des sites fermés français est ainsi présenté : 92 appareils en friche en France en 2023 répartis en 3 catégories : 87 téléskis, 3 télésièges, 2 téléphériques. Si la majeure partie des appareils délaissés sont issus de fermetures récentes et qu’ils pourront éventuellement être réactivés, 30 appareils ont tout de même été abandonnés il y a plus de 20 ans ; les plus anciens depuis 1951.

      6/ Vers la fin des friches touristiques ?

      Cet avant-dernier point permet à Pierre-Alexandre Metral de revenir sur les initiatives nouvelles visant à accompagner le démontage et contenir le phénomène de délaissement. Au premier chef, les dispositions de la Loi Montagne II (2016) fixant notamment un échéancier dans le temps pour aboutir à un démontage. Le doctorant dans une posture plus critique pointe cependant ses limites, notamment la non-rétroactivité de ces dispositions faisant que les appareils d’ores et déjà délaissés ne sont pas concernés.

      Par la suite, les corps intermédiaires engagés dans le démantèlement sont présentés. D’une part, Mountain Wilderness, l’acteur historique du démontage des installations obsolètes qui depuis 2001) a opéré par la voie bénévole au retrait d’une vingtaine d’appareils. D’autre part, la chambre professionnelle des exploitants de domaines skiables (Domaines Skiables de France) est engagée à l’organisation du démontage de 3 appareils délaissés par ans avec le concours d’opérateurs régionaux encore actifs qui vont réaliser les travaux dans une logique de solidarité.

      Fig 5a et 5b : Le démantèlement des téléskis de Sainte-Eulalie (07) – P-A Metral, 2020

      7/ La reconversion des anciennes stations de ski

      Ce dernier temps proposé par l’intervenant est l’occasion de dresser des perspectives en matière de revivification des sites après la fermeture des domaines alpins. Il identifie ainsi un ensemble de trajectoires : le retour à l’état pré-touristique (alpages, forêt) et des activités agro-sylvo-pastorales. La reconversion des sites en bases de loisirs de montagne avec le développement d’activités organisées sur la saison d’été. Le réinvestissement des logements touristiques pour de l’habitat permanent, transformant ainsi les anciennes stations en hameaux de montagne. Enfin, Pierre-Alexandre Metral ne minore pas les pratiques récréatives réalisées en autonomie (ski de randonnée, vtt…), parfois aussi furtives, dissidentes et contre-culturelles (free party, street ski, street art…) qui dans une logique de réappropriation, redonnent de la vie et du sens aux anciens sites abandonnés.

      Conclusion :

      Pour Pierre-Alexandre Metral « le phénomène de fermeture est important en effectif avec 186 sites concernés », néanmoins la plupart sont de tailles insignifiantes, bien loin de l’image de la station fantôme évoquée en introduction. Ce mythe s’ancre en réalité sur « des cas sensationnels, très visuels et au final peu représentatifs du paysage réel des fermetures françaises ». Ces mises à l’arrêt illustrent, « plus que la fin du ski », la disparition d’un modèle de développement spécifique aujourd’hui presque disparu : les centres de ski. La carte du ski français se voit progressivement amputée des sites « de proximité », dédiés à l’apprentissage ; un ski de village, résolument social, où les tarifs pratiqués étaient aux antipodes des grands domaines alpins qui font la renommée du ski français.

      Il termine ce café géo par ces mots « la station fantôme c’est le temps de l’incertitude, l’enjeu demain c’est de pouvoir anticiper en amont des fermetures la question de la remise en état des sites et leurs éventuelles reconversions ».

      Par Yannis NACEF
      Professeur agrégé de Géographie
      Doctorant en Géographie – UMR 5204 EDYTEM – Université Savoie Mont Blanc – CNRS

    • sur L’épicerie du monde. La mondialisation par les produits alimentaires du XVIIIe siècle à nos jours

      Publié: 3 September 2023, 7:30pm CEST par r.a.

      Pierre Singaravélou et Sylvain Venayre ont convié à l’écriture « d’une histoire du monde par les produits alimentaires » de très nombreux auteurs. Pas moins de 400 pages qui se dévorent à pleines dents. Vous ne serez pas surpris que le chapitre sur le vin soit confié à Jean-Robert Pitte et que Christian Grataloup vous invite à la consommation du thé et à la dégustation de la baguette de pain tandis que Philippe Pelletier vous propose sushi et saké. Emmanuelle Perez Tisserant offre le chili con carne et le guacamole. Sylvain Venayre nous sert des charcuteries et du ketchup, Pierre Singaravélou opte pour le whisky et le rhum. Une centaine de produits sont proposés, dans un inventaire à la Prévert, où chacun pourra tout à la fois s’instruire gaiement et se mettre l’eau à la bouche. A vous tous, gourmands ou gourmets, ils offrent un savoureux voyage dans la grande « épicerie du monde ». Vous terminerez avec une coupe de champagne proposée par Stéphane Le Bras.

      L’épicerie, magasin consacré aux produits alimentaires, se généralise au milieu du XVIIIe siècle. Mais le commerce des épices est bien plus ancien. En Angleterre la guilde des poivriers date de 1180 et l’épicerie est « magasin d’épices » avant de devenir boutique de produits alimentaires. La Révolution industrielle et la révolution des transports vont mondialiser les désirs identitaires, dont ceux liés à la gastronomie. Les expositions universelles apporteront à leur tour une mondialisation des offres. La baguette française, le roquefort et bien sûr les vins français doivent paraître sur les grandes tables, au XXe siècle.
      Qui ne connaît à présent le Christmas pudding, emblème de l’empire britannique, la pizza italienne, le saké japonais, la féta grecque ou le ceviche péruvien ! Mais êtes-vous sûrs de connaître la patrie du couscous, du houmous, de la vodka ?

      L‘accès aux produits alimentaires est vital pour les populations. Des guerres peuvent éclater ici ou là. Les historiens ont noté la destruction du thé britannique par les colons de Boston en 1773. Dans un contexte différent, la guerre entre l’Ukraine et la Russie (ou plus exactement l’invasion de l’Ukraine), enclenchée en février 2022, comporte un volet alimentaire : celui des céréales exportées par l’Ukraine mais à présent retenues par les navires russes. Cela va provoquer des crises alimentaires graves, deux milliards de personnes restant frappés de malnutrition.

      Les pratiques sociétales évoluent. Il n’y a pas si longtemps on pouvait rester plusieurs heures à table lors des repas dominicaux ; il y avait l’heure du thé en Angleterre, l’heure du raki en Turquie. Les femmes au foyer préparaient « avec amour » des plats appétissants. Mais la généralisation du travail féminin a conduit à la consommation de boîtes de conserves puis de plats surgelés. La publicité s’est chargée de vous faire acheter du Coca Cola dès 1916 !
      Au début du XXIe siècle, la restauration doit être rapide, autour d’une baraque à frites ou à hot-dogs, ou à hamburgers. Le fish and chips eut son heure de gloire, mais s’affirmer végétarien ou vegan, c’est « être tendance » dans les années 2020.

      Consommer tel ou tel produit pouvait être recommandé par le corps médical. Ainsi le whisky et le vin de Porto facilitaient la digestion ou bien soignaient la goutte. Mais aujourd’hui l’OMS nous met en garde en listant des produits cancérigènes ou favorisant l’obésité… On ne sait plus à quel saint se vouer… Rassurez-vous, les Appellations d’Origine Contrôlée (AOC) vont nous permettre non seulement de choisir les meilleurs produits mais aussi ceux qui bénéficient d’un contrôle sanitaire.

      Dans l’introduction de l’ouvrage, on peut lire une citation de Roland Barthes qui déclarait que la nourriture suscitait trois sortes de plaisir : celui de la convivialité, par le fait de partager le même plat ; celui de la réminiscence, qui nous fait retrouver les goûts de notre enfance ; et celui du nouveau, de l’insolite qui nous attire vers celles et ceux que nous ne connaissons pas encore.
      Un savoureux voyage à ne rater sous aucun prétexte.

       

      Maryse Verfaillie, août 2023

    • sur HR TIR DA IRL (High Resolution Thermal Infra-Red Directional Anisotropy In Real Life)

      Publié: 1 September 2023, 12:06pm CEST par Julien Michel

       =>

      Dans le cadre de la préparation de la mission Trishna, une question importante concerne la nécessité de corriger les effets directionnels dans les images, ainsi que la méthode à appliquer. Certains d’entre vous sont sans doute familiers de l’effet dit de « hotspot » dans le domaine réflectif, qui a été bien illustré sur notre blog. Dans le domaine de l’Infra-Rouge Thermique, les effets directionnels ne sont pas provoqués par une réflexion directe de la lumière du soleil, mais plutôt par un changement de proportion entre des éléments à l’ombre – donc plus froids – et des éléments au soleil – donc plus chauds – au sein du pixel. Un autre effet, connu sous le nom de gap fraction, est également relié au changement de proportion entre la fraction visible de sol nu et celle de végétation, qui ont des émissivités ou des températures bien différentes. Ces proportions changent continuellement avec les angles de vue du satellite, et quand ces angles sont parfaitement alignés avec les angles solaires, les éléments à l’ombre deviennent invisibles dans le pixel, ce qui cause une température observée plus élevée. Étant donné le champ de vue de +/-34° prévu pour Trishna, ce phénomène se produira régulièrement en fonction de la saison et de la localisation sur le globe.

      Il est important de noter que la température de surface (LST pour Land Surface Temperature) n’est pas stable dans le temps comme peut l’être la réflectance de surface (SR pour Surface Réflectance). En effet les facteurs d’évolution principaux de la température de surface sont la météo et le cycle quotidien du soleil. C’est pourquoi, si les effets directionnels dans le domaine Infra-Rouge sont bien modélisés dans des codes de transfert radiatif comme SCOPE ou DART, et parfois observés lors des campagnes terrains instrumentés, ils sont plutôt difficile à observer dans les données satellites réelles, en particulier dans la gamme des Hautes Résolutions (en dessous de 100 mètres). Au CESBIO, nous sommes parti à la chasse (ou plus exactement à la pêche) dans le grand lac des données publiques de télédétection, et – coup de bol – nous avons eu une touche. Vous pouvez trouver notre récit complet ici (ou dans le preprint sur HAL):

      Julien Michel, Olivier Hagolle, Simon J. Hook, Jean-Louis Roujean, Philippe Gamet, Quantifying Thermal Infra-Red directional anisotropy using Master and Landsat-8 simultaneous acquisitions, Remote Sensing of Environment, Volume 297, 2023, 113765, ISSN 0034-4257, [https:]] .

      En cherchant des acquisitions quasi-simultanées entre Landsat-8 et le capteur aéroporté avec un grand champ de vue MASTER de la NASA (avec l’aide précieuse du JPL),  nous avons pu observer la LST quasiment au même moment (à moins de 15 minutes d’intervalle), acquise sous deux angles de vue différents pour 9 scènes en Californie, dont 3 sont proches des conditions de hotspot, comme montré dans la figure ci-dessous (tracks (2), (8) et (12)) :

      Différence de température entre MASTER et Landsat-8, en fonction des angles de visée azimut et zénith  de MASTER. La couleur rouge (resp. bleue) signifie que MASTER est plus chaud (resp. plus froid) que Landsat-8. La position du soleil est marquée par une étoile orange.

      Nous avons observé des différences de LST jusqu’à 4.7K à l’intérieur du champ de vue prévu pur Trishna. En utilisant ces données pour estimer les paramètres de modèles de correction issus de la littérature, nous avons pu ramener cette erreur sous la barre des 2K dans tout les cas, même si nos expériences n’ont pas permis d’identifier le modèle le plus performant. La figure ci-dessous montre à quel point les différents modèles collent aux effets directionnels observés, quand leurs paramètres sont estimés à partir de toutes les observations.

      Estimation aux moindres-carrés des paramètres de cinq modèles directionnels à partir des différences de température observées. L’axe vertical représente le pourcentage de variation de la température entre Landsat (considéré comme Nadir) et MASTER. Dans cette figure, les paramètres conjointement sur l’ensemble des données. Les lignes verticales en pointillés bleus représentent le champ de vue de Trishna.

      Un autre constat intéressant concerne la sensibilité des effets directionnels à l’occupation du sol et au stades de croissance de la végétation. En théorie, les paramètres des modèles devraient dépendre de ces facteurs. En effet, le mélange entre parties à l’ombre et au soleil, ainsi qu’entre végétation et sol nu, devrait changer de manière plus importante pour les couverts végétaux intermédiaires. Cependant, nous avons essayé de corréler les différences de températures observées entre MASTER et Landsat-8 avec une combinaison des cartes d’occupation du sol fournies par Copernicus (Copernicus Global Land Service Maps) et du NDVI fourni par Landsat-8. Nous n’avons pas observé de changement significatif des tendances entre les différentes classes et stades végétatifs, comme le montre la figure ci-dessous. Ceci ne veut pas dire que l’occupation du sol et le stade de croissance de la végétation n’est pas important pour la correction des effets directionnels, mais plutôt que les sources de données disponibles pour ces variables sont sans doute trop imprécises pour être utilisées de cette manière.

      Moyenne ± écart-type des différences de température entre MASTER et Landsat-8, en fonction de l’angle de visée zénithal de MASTER, pour les classes principales ( >15% ) de chaque site.

      Même s’il reste beaucoup à faire pour intégrer la correction des effets directionnels dans les segments sols à venir, cette étude montre que sur un ensemble limité d’observations réelles (en Californie), les modèles paramétriques de la littérature avec un paramétrage statique peuvent être utilisés pour diminuer l’impact de ces effets. Cette étude plaide également pour des campagnes aériennes plus importantes dédiées à ce sujet (hors de la Californie), avec des survols simultanées de Landsat-8, afin de pouvoir qualifié et calibrer ces modèles avec un panel plus large de paysages et de conditions d’observations.

    • sur HR TIR DA IRL (High Resolution Thermal Infra-Red Directional Anisotropy In Real Life)

      Publié: 1 September 2023, 12:04pm CEST par Julien Michel
      => 

      In the frame of the preparation of the Trishna mission, one important question is : do we have to correct for directional effects, and how should we do it ? Some of you may be familiar with the so-called hotspot effect in the reflective domain, which is well illustrated on our blog. Well in Thermal Infra-Red domain, directional effects are not caused by direct reflection of the sun light, but rather by the change of proportion between shaded, cooler elements and sunlit, hotter elements within the pixel. Another effect, called gap fraction, also relates to a change in proportion between vegetation and ground seen in the pixel, since they have very different emissivities. Those proportions continuously change with the satellite viewing angles, and when the viewing angles of the satellite perfectly align with the sun angles, the shaded elements become invisible in the pixel, resulting in a higher observed temperature. Given the wide field of +/-34° of Trishna sensor, this will be occuring quite often depending on the season and the location.

      It is noteworthy that the Land Surface Temperature (LST) is not as stable in time as Land Surface Reflectance (SR), since temperature is mainly driven by meteorological forcing and daily sun cycle. Therefore, if directional effects in TIR domain are well modeled by radiative transfer codes such as SCOPE or DART, and sometimes captured by instrumented field studies, they are quite hard to observe in real satellite data, especially in the High Resolution range (below 100 meter). At CESBIO, we went on a hunt (well actually, more a fishing party) in the wide lake of publicily available remote sensing data, and – luckily – we got a catch. You can read the full story here (or the preprint on HAL):

      Julien Michel, Olivier Hagolle, Simon J. Hook, Jean-Louis Roujean, Philippe Gamet, Quantifying Thermal Infra-Red directional anisotropy using Master and Landsat-8 simultaneous acquisitions, Remote Sensing of Environment, Volume 297, 2023, 113765, ISSN 0034-4257, [https:]

      By leveraging the MASTER airborne wide field of view sensor from NASA (with the kind support from JPL) and Landsat-8 near simultaneous acquisitions, we were able to observe the LST almost simultaneoulsy (less than 15 minutes appart) acquired under different viewing angles, for 9 scenes in California, 3 of which are close to hotspot conditions, as can be seen in the figure below (tracks (2), (8) and (12)).

      Differences in temperature between MASTER and Landsat-8, depending on MASTER azimuth and zenith viewing angles. Red (resp. blue) mean MASTER is hotter (resp. cooler) than Landsat-8. The sun position marked by an orange star.

       

      We observed a LST difference of up to 4.7K within the future viewing angle of Trishna. By fitting parametric models from the litterature, we were able to reduce this error below 2K in all cases, though our experiments did not allow to determine which model should be preferabily used. The figure below shows how well the different models fitted the directional effects, when fitted on all tracks at once.

      Least-Square fitting of five TIR directional models on SBT differences. Vertical axis represent the percentage of variation of SBT between Landsat-8 (considered as Nadir) and MASTER. In this figure, each model is jointly fitted on all tracks.Blue dashed vertical lines indicate Trishna field of view.

      Another interesting outcome of this study is the sensitivity to land cover and vegetation growing stage. In theory, model parameters should be driven by those factors. Indeed, the mix between shadow/sunlit and vegetation/bare soil should change more dramatically with intermediate vegetation covers. However, when we tried to relate the difference between MASTER and Landsat-8 observed temperature to a combination between a landcover class from Copernicus (Global Land Service maps)  and NDVI stratas from Landsat-8 for the growing stage, we did not observe significant trends: all classes behave alike, as shown in the figure below. From this experiment we should not conclude that land-cover and vegetation growth stage is not important for directional effects mitigation, but rather that current available sources of land-cover are probably too coarse and imprecise to be used for the correction of directional effects.

      Mean ± standard-deviation of unbiased SBT difference with repect to MASTER signed view zenith angle for the major land-cover classes (> 15%) of each track.

      While there is still a lot to do to get operational directional effects corrections in up-coming ground segments, this study shows that on a limited set of real life scenes (from California), parametric models from the litterature with a fixed set of parameter can be used to mitigate the impact of those effects. It also advocates for larger dedicated airborne campaigns (outside of California) with simulatenous flight with Landsat-8, so as to qualify and calibrate those models on a wider range of landscape and conditions.

    • sur Rechercher du texte sur les cartes de la collection David Rumsey

      Publié: 31 August 2023, 12:42pm CEST


      Mis en place en août 2023, le nouvel outil Text-on-Maps permet de rechercher du texte par reconnaissance de caractères sur les cartes de la collection David Rumsey (au total 100 millions de mots indexés sur 57 000 cartes). Jusque là, on ne pouvait interroger que les données et métadonnées du catalogue. Désormais il est possible de chercher des cartes en fonction du texte qu'elles contiennent. Qu'il s'agisse des noms de lieux, de rues, de monuments, de rivières, etc..., les cartes anciennes constituent une source inestimable d'informations historiques et géographiques. La reconnaissance automatique de caractères (OCR) permet d'identifier et d'extraire ces éléments, donnant la possibilité d'étudier et d'analyser l'évolution des paysages, de l'occupation du sol, de l'urbanisme ou des changements géographiques. Une fois le mot saisi et les résultats affichés, il suffit de cliquer sur les étiquettes pour accéder aux cartes correspondantes.

      Résultats de recherche avec le mot "Reunion" (507 occurrences) - Source : David Rumsey Collection


      Il n'est pour l'instant pas possible de rechercher des mots dans des alphabets non latins, mais l'équipe du site travaille à améliorer les performances de l'outil de machine learning mapKurator afin qu'il soit progressivement utilisable dans toutes les langues. Les recherches ne sont pas sensibles à la casse et ne peuvent pas non plus accepter les expressions. Les recherches multi-mots sont toutefois possibles lorsque les mots adjacents se trouvent à une distance de moins de deux caractères par rapport aux deux points les plus éloignés du polygone de délimitation. On peut par exemple repérer les cartes qui utilisent les deux noms "Réunion" et "Bourbon". L'ordre des mots, les différences de graphie et le fait qu'ils soient indiqués (ou non) entre parenthèses apportent des informations intéressantes (pour savoir par exemple combien de temps le nom de Bourbon a été conservé sur les cartes).

      Résultats de recherche avec les mots "Reunion" et "Bourbon" (507 occurrences) - Source : David Rumsey Collection

      La qualité des résultats varie en fonction des couleurs du fond, des polices de caractères, de la technique d'impression, de la langue, de l'état de conservation de ces cartes anciennes. La graphie d'un même nom a pu également évoluer. Il peut être intéressant par exemple de chercher comment on écrivait et représentait l'Équateur. On peut utiliser Text-on-Maps aussi pour trouver des points d'intérêt, par exemple une mine d'or, un phare, un moulin, une église, un bureau de poste, etc...

      Résultats de recherche avec le mot "Equator" (507 occurrences) - Source : David Rumsey Collection

      Les utilisateurs de la collection David Rumsey sont invités à corriger les erreurs éventuelles en proposant une meilleure transcription et/ou à un cadre de délimitation plus précis. Il arrive que certaines cartes portent des noms légendaires ou renvoient à des lieux imaginaires, comme par exemple les fameux Monts de Kong en Afrique... qui n'ont j'amais existé ! On peut chercher des lieux mythiques, par exemple l'Eldorado, l'Atlantide, l'Enfer, le Paradis, etc... 

      Résultats de recherche avec le mot "Kong" (3 133 occurrences) - source : David Rumsey Collection

      Il est possible retrouver des cartogrammes et des graphiques contenus dans des Atlas anciens en saisissant par exemple le terme "data"

      Résultats de recherche avec le mot "data" (3 133 occurrences) - source : David Rumsey Collection


      Si vous souhaitez affiner les résultats de votre requête avec des filtres basés sur les données du catalogue, vous devez utiliser les fonctionnalités de la recherche avancée. Consultez l'aide détaillée de Text-on-Maps pour obtenir des descriptions complètes sur l'utilisation de cette nouvelle fonctionnalité intéressante.

      MapKurator est un outil de machine learning développé par le Knowledge Computing Lab de l'Université du Minnesota pour traiter un grand nombre d'images de cartes historiques numérisées. Les sorties incluent les étiquettes de texte, les polygones de délimitation des étiquettes, les étiquettes après correction post-OCR et un identifiant de géo-entité OpenStreetMap.

      The mapKurator System : A Complete Pipeline for Extracting and Linking Text from Historical Maps :
      [https:]]

      Pour accéder à mapKurator sur Github :
      [https:]]


      Pour compléter

      Google Lens, intégré au moteur Google Image, permet également de reconnaître des noms sur une image ou sur une carte, en important le fichier ou en saisissant simplement son URL. Ce qui permet de récupérer de nombreux toponymes et éventuellement de les traduire en français. 

      Détection automatique de texte sur des images ou des cartes avec Google Lens

      Qu'il s'agisse du moteur interne du site David Rumsey ou du moteur de recherche sur Internet Google Lens, ces outils de reconnaissance de caractères à partir d'images numérisées viennent considérablement enrichir les possibilités de recherche, de sélection et d'analyse en utilisant les nomenclatures que l'on peut trouver sur les cartes. La carte, on l'oublie souvent, c'est du texte aussi bien que de l'image !

      « De la reconnaissance de caractères au panoptisme historique en toponymie et cartographie ? Questions et premiers enseignements d’une évolution qui vient » (Géographies linguistiques).

      Interview de D. Rumsey
      "Les cartes dépassent les frontières de l’art et de la technologie. La construction de ma base de données en ligne de 125 000 cartes est devenue une œuvre d’art en soi : un collage d’éléments visuels reliés par des chemins menant à des lieux inattendus" [https:]]

      — Sylvain Genevois (@mirbole01) September 18, 2023

      Articles connexes

      Geonames, une base mondiale pour chercher des noms de lieux géographiques
      Les nouvelles perspectives offertes par la cartographie des odonoymes et autres toponymes
      Une carte des suffixes les plus fréquents par région des noms de villes françaises

      Les monts de Kong en Afrique : une légende cartographique qui a duré près d'un siècle !

      La Lémurie : le mythe d'un continent englouti. La cartographie entre science et imaginaire
      L'histoire de La Réunion par les cartes

      L'histoire par les cartes : 18 globes interactifs ajoutés à la collection David Rumsey

      Annoter et partager des images et des cartes numériques en haute résolution en utilisant des outils IIIF

      Des cadres qui parlent : les cartouches sur les premières cartes modernes

      Comment géoréférencer une carte disponible dans Gallica ?


    • sur Séminaire, octobre 2022

      Publié: 31 August 2023, 10:13am CEST par admin

      Brainstorming, ateliers de travail, balade en fat bike sur la plage…

      L’air marin a permis aux collaborateurs de faire émerger de nouvelles idées qui confirment la vision commune des deux entreprises.

      Retour en images sur le séminaire organisé pour les équipes de GEOFIT GROUP et de NEOGEO.