Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
5900 éléments (29 non lus) dans 55 canaux

-
Cybergeo (8 non lus)
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique
-
Mappemonde (10 non lus)
-
Dans les algorithmes (1 non lus)

-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN (6 non lus)
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR

-
Géoblogs (GeoRezo.net)
-
Conseil national de l'information géolocalisée
-
Geotribu
-
Les cafés géographiques
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Icem7
-
Séries temporelles (CESBIO)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies (1 non lus)
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques (2 non lus)
-
Veille cartographie (1 non lus)
-
Makina Corpus
-
Oslandia
-
Camptocamp
-
Carnet (neo)cartographique
-
Le blog de Geomatys
-
GEOMATIQUE
-
Geomatick
-
CartONG (actualités)
Éléments récents
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
11:00
Mappery: At Queens Museum
sur Planet OSGeoTom MacWright posted a pic of this massive panorama at Queens Museum, NY.
“The Panorama of the City of New York is an urban model of New York City that is a centerpiece of the Queens Museum. It was originally created for the 1964 New York World’s Fair.” Wikipedia
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:46
Free TV & Radio Maps
sur Google Maps Maniatvgarden is an interactive map that brings the world of live television to your fingertips. Inspired by the long running success of Radio Garden (which allows users to explore global radio stations through an interactive 3D map,) tvgarden applies the same concept to television, offering a seamless and engaging way to watch live TV from around the world.Features and User ExperienceOne of
-
7:00
L’IA raisonne-t-elle ?
sur Dans les algorithmesMelanie Mitchell est certainement la plus pédagogue des spécialistes de l’IA. Son livre, Intelligence artificielle, triomphes et déceptions (Dunod, 2021) est une excellente ressource pour comprendre l’histoire et le fonctionnement de l’IA, tout comme sa newsletter. Dans sa récente chronique pour le magazine, Science, elle revient sur la capacité de l’IA à “raisonner”. Pour cela, elle prend un petit exemple logique simple. “Julia a deux sœurs et un frère. Combien de sœurs son frère Martin a-t-il ?”. Le résoudre demande à chacun de nous quelques secondes d’attention. Mitchell a soumis cette énigme à plusieurs reprises à la version la plus récente de GPT-4 (4o), qui lui a donné la mauvaise réponse à chaque fois, affirmant que Martin avait deux sœurs. Pour remédier à ce type de problème, les grandes entreprises de l’IA développent de nouveaux systèmes qu’elles appellent les Grands modèles de raisonnement (Large reasoning models, LRM).
Quand on soumet cet exemple logique à un LRM, comme les modèles o1 et o3 d’OpenAI, Claude d’Anthropic, Gemini 2.0 Flash Thinking Experimental de Google et le modèle R1 de l’entreprise chinoise DeepSeek… ces modèles déploient une chaîne de pensée qui énoncent un processus de raisonnement apparemment plausible. o1 d’OpenAI décompose sa réponse : “1. Julia a deux sœurs. Cela signifie qu’il y a trois filles au total (Julia + deux autres). 2. Julia a également un frère, prénommé Martin. 3. Au total, il y a quatre frères et sœurs : trois filles et un garçon (Martin). 4. Du point de vue de Martin, ses sœurs sont toutes les trois des filles (Julia et ses deux sœurs). 5. Martin a donc trois sœurs.”… Ce qui ressemble beaucoup à un raisonnement humain que chacun d’entre nous pourrait tenir pour résoudre l’énigme. On comprend alors que ces modèles soient en train de devenir le corps de l’offre commerciale des entreprises d’IA… Reste à savoir si ces modèles “réfléchissent et raisonnent vraiment, ou s’ils font juste semblant” ?
Mitchell rappelle que les LRM sont construits sur des LLM. Les LLM sont pré-entraînés pour prédire une partie de mots (un token ou jeton) dans une séquence de texte. Pour devenir LRM, “le modèle est ensuite post-entraîné, c’est-à-dire entraîné davantage, mais avec un objectif différent : générer spécifiquement des chaînes de pensée, comme celle générée par o1 pour l’énigme des “sœurs”. Après cette formation spéciale, lorsqu’un problème lui est posé, le LRM ne génère pas de jetons un par un mais génère des chaînes entières”. Pour le dire autrement, les LRM effectuent beaucoup plus de calculs qu’un LLM pour générer une réponse. D’où le fait qu’on parle d’un progrès par force brute, par puissance de calcul, avec des systèmes capables de tester en parallèle des milliers de réponses pour les améliorer. “Ce calcul peut impliquer la génération de nombreuses chaînes de réponses possibles, l’utilisation d’un autre modèle d’IA pour évaluer chacune d’elles et renvoyer celle la mieux notée, ou une recherche plus sophistiquée parmi les possibilités, semblable à la recherche par anticipation que les programmes de jeu d’échecs ou de go effectuent pour déterminer le bon coup”. Quand on utilise un modèle de raisonnement, l’utilisateur ne voit que les résultats de calculs démultipliés. Ces modèles qui fonctionnent surtout selon la méthode d’apprentissage par renforcement non supervisé sont récompensés quand ils produisent les étapes de raisonnement dans un format lisible par un humain, lui permettant de délaisser les étapes qui ne fonctionnent pas, de celles qui fonctionnent.
Un débat important au sein de la communauté rappelle Mitchell consiste à savoir si les LRM raisonnent ou imitent le raisonnement. La philosophe Shannon Valor a qualifié les processus de chaîne de pensée des LRM de “sorte de méta-mimétisme”. Pour Mitchell, ces systèmes génèrent des traces de raisonnement apparemment plausibles qui imitent les séquences de “pensée à voix haute” humaines sur lesquelles ils ont été entraînés, mais ne permettent pas nécessairement une résolution de problèmes robuste et générale. Selon elle, c’est le terme de raisonnement qui nous induit en erreur. Si les performances de ces modèles sont impressionnantes, la robustesse globale de leurs performances reste largement non testée, notamment pour les tâches de raisonnement qui n’ont pas de réponses claires ou d’étapes de solution clairement définies, ce qui est le cas de nombreux problèmes du monde réel.
De nombreuses études ont montré que lorsque les LLM génèrent des explications sur leurs raisonnement, celles-ci ne sont pas toujours fidèles à ce que le modèle fait réellement. Le langage anthropomorphique (puisqu’on parle de “raisonnement”, de “pensées”…) utilisé induit les utilisateurs en erreur et peut les amener à accorder une confiance excessive dans les résultats. Les réponses de ces modèles ont surtout pour effet de renforcer la confiance des utilisateurs dans les réponses, constate OpenAI. Mais la question d’évaluer leur fiabilité et leur robustesse reste entière.
-
23:18
Sean Gillies: Bear training week 6 recap
sur Planet OSGeoA productive week six is done!
22.8 miles running
11 hours, 39 minutes all training
2,277 ft D+
That's not a lot of running, but it's the most I've done in a week since last July. I did two hill workouts outside on a 10% grade stretch of single track above Pineridge open space, Tuesday and Thursday. Today, Sunday, I did an easy long run from my house to the same dirt climb, and went up to the bench one time. My left Achilles, which has been nagging me, feels better. Weather permitting, I'll run 3-4 days next week, and increase my mileage to 25-26.
-
14:47
Federal Funding & Jobs Slashed
sur Google Maps ManiaThe White House has mandated deep cuts to federal funding for scientific research, threatening breakthroughs that save lives and fuel economic growth. The National Institutes of Health (NIH) - a cornerstone of medical progress - supports critical research on cancer, diabetes, dementia, heart disease, stroke, mental illness, and other pressing health challenges. These devastating cuts include a
-
12:00
Mappery: A box of wine
sur Planet OSGeoRaf shared this – cardboard cube containing 3 litres of Dolmens wine from wine making region Empordà in Catalunya by Celler Cooperatiu d’Espolla.
The title to this post is a little homage to “Box of Rain” by Phil Lesh of the Grateful Dead who passed a few months ago (a bit off track I know, but hey!)
-
22:38
Free and Open Source GIS Ramblings: The quest for a fair TimeGPT benchmark
sur Planet OSGeoAt the end of yesterday’s TimeGPT for mobility post, we concluded that TimeGPT’s trainingset probably included a copy of the popular BikeNYC timeseries dataset and that, therefore, we were not looking at a fair comparison.
Naturally, it’s hard to find mobility timeseries datasets online that can be publicized but haven’t been widely disseminated and therefore may have slipped past the scrapers of foundation models builders.
So I scoured the Austrian open government data portal and came up with a bike-share dataset from Vienna.
DatasetSharedMobility.ai dataset published by Philipp Naderer-Puiu, covering 2019-05-05 to 2019-12-31.
Here are eight of the 120 stations in the dataset. I’ve resampled the number of available bicycles to the maximum hourly value and made a cutoff mid August (before a larger data collection cap and the less busy autumn and winter seasons):
Models
To benchmark TimeGPT, I computed different baseline predictions. I used statsforecast’s HistoricAverage, SeasonalNaive, and AutoARIMA models and computed predictions for horizons of 1 hour, 12 hours, and 24 hours.
Here are examples of the 12-hour predictions:
We can see how Historic Average is pretty much a straight line of the average past value. A little more sophisticated, SeasonalNaive assumes that the future will be a repeat of the past (i.e. the previous day), which results in the shifted curve we can see in the above examples. Finally, there’s AutoARIMA which seems to do a better job than the first two models but also takes much longer to compute.
For comparison, here’s TimeGPT with 12 hours horizon:
You can find the full code in [https:]]
ResultsIn the following table, you’ll find the best model highlighted in bold. Unsurprisingly, this best model is for the 1 hour horizon. The best models for 12 and 24 hours are marked in italics.
Model Horizon RMSE HistoricAverage 1 7.0229 HistoricAverage 12 7.0195 HistoricAverage 24 7.0426 SeasonalNaive 1 7.8703 SeasonalNaive 12 7.7317 SeasonalNaive 24 7.8703 AutoARIMA 1 2.2639 AutoARIMA 12 5.1505 AutoARIMA 24 6.3881 TimeGPT 1 2.3193 TimeGPT 12 4.8383 TimeGPT 24 5.6671 AutoARIMA and TimeGPT are pretty closely tied. Interestingly, the SeasonalNaive model performs even worse than the very simple HistoricAverage, which is an indication of the irregular nature of the observed phenomenon (probably caused by irregular restocking of stations, depending on the system operator’s decisions).
Conclusion & next stepsOverall, TimeGPT struggles much more with the longer horizons than in the previous BikeNYC experiment. The error more than doubled between the 1 hour and 12 hours prediction. TimeGPT’s prediction quality barely out-competes AutoARIMA’s for 12 and 24 hours.
I’m tempted to test AutoARIMA for the BikeNYC dataset to further complete this picture.
Of course, the SharedMobility.ai dataset has been online for a while, so I cannot be completely sure that we now have a fair comparison. For that, we would need a completely new / previously unpublished dataset.
-
11:00
Mappery: Ticket to Ride
sur Planet OSGeoBarry shared this, he said “Ticket to Ride UK+Ireland game map. With enough resources you can even run a transatlantic boat service…”
-
10:14
The Nationwide Sakura Map
sur Google Maps ManiaEvery spring, Japan transforms into a breathtaking canvas of pink and white as cherry blossoms, or sakura (?), bloom across the country. This fleeting yet spectacular display is deeply ingrained in Japanese culture, symbolizing renewal, beauty, and the impermanence of life. People gather under the blossoms for hanami (flower viewing), a cherished tradition that brings friends and families
-
0:00
Ecodiv.earth: Fix references in space-time dataset after renaming a mapset
sur Planet OSGeoThe problemGRASS GIS offers powerful tools for working with temporal data. You can create space-time raster or vector datasets, and register these in a temporal database that’s automatically managed by GRASS. A key feature of this temporal framework is that the temporal database is mapset-specific. So, space-time datasets and registered time series maps in a mapset are stored in a temporal database inside the same mapset.
The way GRASS handles spatial data is intuitive and powerful. Yet, I ran into a problem after I renamed a mapset. As it turns out, the mapset name is integral part of how temporal data sets and data layers are registered in the temporal database. And changing the mapset name doesn’t automatically update those references. So renaming the mapset rendered my space-time datasets inaccessible. As far as I could tell, there’s no built-in mechanism in GRASS to resolve this.
A possible solutionBy default, GRASS stores the temporal database as a SQLite3 file located in the
Cautiontgis
folder inside the mapset. This means that, in principle, you could manually open that database and replace all references to the old mapset name with the new mapset name.It is generally not advisable to make any manual changes to a GRASS database. Only do this when you are really sure what you are doing, and always make a backup first.
Still, I decided to give it a go. Rather than modifying the SQLite database directly, I opted for a safer approach. I dumped the contents of the database to a text file, made the changes there, and then restored the database from the modified dump.
First step, obviously, is to make a backup of the SQLite file. Next, I exported the entire SQLite database using the
.dump
command. This creates a text-based SQL script of the database.> cd path_to_the_temporal_db/sqlite.db > cp path_to_the_temporal_db/sqlite.db backup-location/sqlite_backup.db > sqlite3 sqlite.db > .output temp_dump.sqlite > .dump > .exit
I then opened the
temp_dump.sql
file in a text editor and used a simple search-and-replace to update all occurrences of the old mapset name to the new one. Finally, I recreate the SQLite database using the.restore
function with the updatedtemp_dump.sql
file as input.> cd path_to_the_temporal_db/sqlite.db > sqlite sqlite.db > .read temp_dump.sqlite > .exit
The result, all the space-time data sets are available again from within GRASS :-).
Wrapping it upTo make this repeatable (and reduce the chance of messing up manual steps), I wrapped the process in a simple Python script. The script backs up the database, dumps its contents, performs the replacement, and restores the modified version. You can optionally specify a backup location, but if you don’t, it will create the backup in the same folder.
import sqlite3 import subprocess import os import shutil def replace_string_in_qlite(input_db, old_string, new_string, backup_name=None): # Step 1: Define backup path if not backup_name: backup_name = input_db + ".backup" # Step 2: Create backup if os.path.exists(backup_name): raise FileExistsError( f"Backup file '{backup_name}' already exists. Aborting to prevent overwrite." ) shutil.move(input_db, backup_name) print(f"Original database backed up to: {backup_name}") # Step 3: Dump the SQL from backup DB dump_file = "temp_dump.sql" with open(dump_file, "w", encoding="utf-8") as f: subprocess.run(["sqlite3", backup_name, ".dump"], stdout=f) # Step 4: Read, modify, and write the dump with open(dump_file, "r", encoding="utf-8") as f: sql_content = f.read() modified_sql = sql_content.replace(old_string, new_string) with open(dump_file, "w", encoding="utf-8") as f: f.write(modified_sql) # Step 5: Restore the modified dump to the original filename with open(dump_file, "r", encoding="utf-8") as f: conn = sqlite3.connect(input_db) cursor = conn.cursor() cursor.executescript(f.read()) conn.commit() conn.close() os.remove(dump_file) print( f"Replaced '{old_string}' with '{new_string}' and saved new DB as: {input_db}" )
As an example, suppose I have a GRASS database with a project called
Climate
, and inside it, a mapset namedBioclim
. After renaming the mapset tobioclim_variables
, the space-time datasets become inaccessible. Running the script solves that:db2replace = "/home/paulo/GRASSdb/Climate/tgis/sqlite.db" db2backup = "/home/paulo/Desktop/sqlite_backup.db" replace_string_in_qlite(db2replace, "Bioclim", "bioclim_variables")
Crisis averted, and, as a bonus, this little exercise has given me a little bit better understanding of how GRASS handles spatial and temporal data under the hood.
That said, as mentioned earlier, directly modifying the GRASS database is generally discouraged. So, as a disclaimer, this post is mostly a note to my future self. You’re welcome to use it, but do so at your own risk! And, if you know a better way, or if I overlooked a standard way to deal with this in GRASS, please let me know.
-
23:59
Free and Open Source GIS Ramblings: TimeGPT for mobility: Can foundation models outperform classic machine learning models for mobility predictions?
sur Planet OSGeotldr; Maybe. Preliminary results certainly are impressive.
IntroductionCrowd and flow predictions have been very popular topics in mobility data science. Traditional forecasting methods rely on classic machine learning models like ARIMA, later followed by deep learning approaches such as ST-ResNet.
More recently, foundation models for timeseries forecasting, such as TimeGPT, Chronos, and LagLlama have been introduced. A key advantage of these models is their ability to generate zero-shot predictions — meaning that they can be applied directly to new tasks without requiring retraining for each scenario.
In this post, I want to compare TimeGPT’s performance against traditional approaches for predicting city-wide crowd flows.
Experiment setupThe experiment builds on the paper “Deep Spatio-Temporal Residual Networks for Citywide Crowd Flows Prediction” by Zhang et al. (2017). The original repo referenced on the homepage does not exist anymore. Therefore, I forked: [https:]] as a starting point.
The goals of this experiment are to:
- Get an impression how TimeGPT predicts mobility timeseries.
- Compare TimeGPT to classic machine learning (ML) and deep learning (DL) models.
- Understand how different forecasting horizons impact predictive accuracy.
The paper presents results for two datasets (TaxiBJ and BikeNYC). The following experiment only covers BikeNYC.
You can find the full notebook at [https:]]
First attemptIn the first version, I applied TimeGPT’s historical forecast function to generate flow predictions. However, there was an issue: the built-in historic forecast function ignores the horizon parameter, thus making it impossible to control the horizon and make a fair comparison.
RefinementsIn the second version, I therefore added backtesting with customizable forecast horizon to evaluate TimeGPT’s forecasts over multiple time windows.
To reproduce the original experiments as truthfully as possible, both inflows and outflows were included in the experiments.
I ran TimeGPT for different forecasting horizons: 1 hour, 12 hours, and 24 hours. (In the original paper (Zhang et al. 2017), only one-step-ahead (1 hour) forecasting is performed but it is interesting to explore the effects of the additional challenge resulting from longer forecast horizons.) Here’s an example of the 24-hour forecast:
The predictions pick up on the overall daily patterns but the peaks are certainly hit-and-miss.
For comparison, here are some results for the easier 1-hour forecast:
Not bad. Let’s run the numbers! (And by that I mean: let’s measure the error.)
ResultsThe original paper provides results (RMSE, i.e. smaller is better) for multiple traditional ML models and DL models. Addition our experiments to these results, we get:
Model RMSE ARIMA 10.56 SARIMA 10.07 VAR 9.92 DeepST-C 8.39 DeepST-CP 7.64 DeepST-CPT 7.56 DeepST-CPTM 7.43 ST-ResNet 6.33 TimeGPT (horizon=1) 5.70 TimeGPT (horizon=12) 7.62 TimeGPT (horizon=24) 8.93 Key takeaways
- TimeGPT with a 1 hour horizon outperforms all ML and DL models.
- For longer horizons, TimeGPT’s accuracy declines but remains competitive with DL approaches.
- TimeGPT’s pre-trained nature made means that we can immediately make predictions without any prior training.
These preliminary results suggest that timeseries foundation models, such as TimeGPT, are a promising tool. However, a key limitation of the presented experiment remains: since BikeNYC data has been public for a long time, it is well possible that TimeGPT has seen this dataset during its training. This raises questions about how well it generalizes to truly unseen datasets. To address this, the logical next step would be to test TimeGPT and other foundation models on an entirely new dataset to better evaluate its robustness.
We also know that DL model performance can be improved by providing more training data. It is therefore reasonable to assume that specialized DL models will outperform foundation models once they are trained with enough data. But in the absence of large-enough training datasets, foundation models can be an option.
In recent literature, we also find more specific foundation models for spatiotemporal prediction, such as UrbanGPT [https:]] , UniST [https:]] , and UrbanDiT [https:]] . However, as far as I can tell, none of them have published the model weights.
If you want to join forces, e.g. add more datasets or test other timeseries foundation models, don’t hesitate to reach out.
-
11:00
Mappery: Calling from Rathlin Island
sur Planet OSGeoManny Ownoh shared this pic of a telephone street cabinet covered in a stylised map of Rathlin Island, Co Antrim.
-
10:28
The 2025 Australian Election Map
sur Google Maps ManiaYesterday, the Prime Minister of Australia, Anthony Albanese, announced that the next Australian federal election will be held on May 3. The leader of the center-left Labor Party currently holds a very slim majority in Parliament. To achieve a majority government in the next Parliament, a party must win at least 76 seats out of 150 in the House of Representatives. If no party reaches this
-
7:00
Apprêtez-vous à parler aux robots !
sur Dans les algorithmesGoogle vient de lancer Gemini Robotics, une adaptation de son modèle d’IA générative à la robotique (vidéo promotionnelle), permettant de commander un bras robotique par la voix, via une invite naturelle, son IA décomposant la commande pour la rendre exécutable par le robot, rapporte la Technology Review. L’année dernière, la start-up de robotique Figure avait publié une vidéo dans laquelle des humains donnaient des instructions vocales à un robot humanoïde pour ranger la vaisselle. Covariant, une spinoff d’OpenAI rachetée par Amazon, avait également fait une démonstration d’un bras robotisé qui pouvait apprendre en montrant au robot les tâches à effectuer (voir l’article de la Tech Review). Agility Robotics propose également un robot humanoïde sur le modèle de Figure. Pour Google, l’enjeu est « d’ouvrir la voie à des robots bien plus utiles et nécessitant une formation moins poussée pour chaque tâche », explique un autre article. L’enjeu est bien sûr que ces modèles s’améliorent par l’entraînement de nombreux robots.
-
17:27
Géopolitique du Groenland – Symphonie des glaces & Objet de toutes les convoitises
sur Les cafés géographiquesLe monde arctique fait la une des journaux depuis la mi-janvier 2025, c’est un fait aussi rare qu’inattendu et nous devons nous poser quelques questions : c’est quoi le Groenland ? C’est où ? Pourquoi tant de convoitises ? Cela remet-il en cause notre vision du monde ?
Le Groenland, une île géante à cheval sur le cercle polaire
– C’est un immense territoire, grand comme quatre fois la France mais recouvert de glace à 80 %. Il possède beaucoup de richesses, mais en réalité peu exploitables en raison du climat. Il faudrait que le réchauffement climatique soit intense pour que ces richesses, aujourd’hui « virtuelles » deviennent réellement exploitables.
– C’est un territoire autonome, sous souveraineté danoise, où la justice, la politique monétaire, étrangère et de défense dépendent du royaume du Danemark. Cependant, avec une capitale plus proche de New York que de Copenhague, le Groenland fait partie de la zone d’intérêt des Etats-Unis, mais aussi du Canada.Le Groenland, appartient « au peuple du froid »
– La population autochtone fut appelée peuples eskimos, avec deux traductions : « peuple mangeur de viande crue » ou « ceux qui attendent longtemps » ..la fin de la nuit, du froid ou du blizzard.
– Pour nous Européens, inventeurs de l’Arctique Inuit, ce sont nos explorateurs, lancés à la recherche du passage du Nord-Ouest, qui les ont trouvés grâce à Amundsen en 1905-06. Au XIX ème siècle, s’y intéressaient aussi des baleiniers venus du Royaume Uni et des Etats-Unis. Puis vint l’expédition de Knud Rasmussen, Inuit par sa mère groenlandaise et Danois par son père, qui part de Thulé en septembre 1921 et parcours 18 000 km en traîneau jusqu’au Pacifique et au détroit de Béring, qu’il atteint en septembre 1924, prouvant d’un océan à l’autre, l’unité du peuple Inuit.
– La civilisation de ce peuple consiste d’abord à identifier le climat, avec ses petits froids neigeux et ses grands froids secs et le vent, le célèbre blizzard, le grand maître des paysages, paysages qu’il transporte, qu’il accumule, qu’il sculpte.
Le vent peut disloquer la banquise. Avec la glace, on construit des iglous, avec la neige, on dispose de l’eau douce potable, pour faire le thé. Et sur la banquise on peut s’adonner à la pêche.
La maison du peuple autochtone change avec les saisons : faite de neige en hiver, l’iglou légendaire, elle se fait en peaux pour les tentes qui les abrite en été ou parfois en tourbe et bois. Elles sont toutes provisoires.
Actuellement, les maisons sont fixes et les foyers aussi bien équipés que les nôtres (cuisine, salle d’eau, chambres, etc.). Et pour aller d’un village à l’autre, on n’hésite pas à prendre l’avion !Sisimuit. Maisons sur le lac Nalunnguarfik. Photo de Michèle Vignaux
Sisimuit.. Vue sur le port. Photo de Michèle Vignaux
Le Groenland, 3 siècles de colonisation danoise et un rêve d’indépendance
– Après une colonisation Viking, l’île a appartenu au royaume du Danemark dont elle est devenue une colonie en 1721. Et en 1917, les Etats-Unis reconnaissent la souveraineté du Danemark sur le Groenland.
Pendant la 2GM, le territoire a été occupé par le Royaume Uni, puis par les Etats-Unis, pour des raisons stratégiques (le contrôle des voies maritimes). Après la guerre, les Etats-Unis se sont retirés, ne conservant qu’une base militaire. L’île est repassée sous la souveraineté danoise. Néanmoins, en 1941, un accord entre les Etats-Unis et le Danemark autorise les Américains à construire des bases militaires au Groenland. En 1951, la base de Thulé, devient la plus grande base américaine de l’Arctique.
– Le sentiment nationaliste n’a émergé que dans les années 1960 -1970. L’île a commencé à se réapproprier sa langue et sa culture et a aussi pris conscience de l’écart de niveau de vie avec les Danois. Le royaume dût faire des concessions !
– Le territoire du Groenland est devenu autonome : depuis 1979 à la suite du Home Rule et d’un référendum en 2008 où 75 % des Groenlandais ont voté en faveur d’une autonomie accrue, une nouvelle loi leur accorde davantage de compétences : gestion des affaires internes, droit de signer des accords internationaux et de participer à des organisations internationales. Le Groenland a pris le contrôle de ses ressources naturelles, y compris les minéraux, le pétrole et les ressources maritimes. Le groenlandais (Kalaallisut) est devenu la langue officielle. Mais l’anglais et le danois restent largement pratiqués.Les inégalités sociales sont énormes et fragmentent la société
Le Groenland dépend largement des subventions versées par le gouvernement danois, environ 520 millions d’euros /an, soit plus de 20 % du PIB groenlandais.
On ne compte que 56 000 habitants, dont 19 000 dans la capitale, Nuuk, située au sud-ouest de l’île. Le territoire est donc largement « un désert », mais le taux de suicide est le plus élevé du monde. On retiendra tout de même que la longueur des nuits incite au suicide toutes les populations des cercles polaires et aussi à l’alcoolisme.
Nuuk, abrite aussi quelques centaines de sans abri… sous des latitudes où le mercure peut descendre à – 20 degrés.Les élections législatives du 11 mars 2025 :
Le centre droit remporte les élections, de façon inattendue. Jens Frederik Nielsen, le leader du Demokraatit est lui-même surpris d’avoir 30 % voix, devant le parti nationaliste Naleraq, avec 24 % des voix. Prudents, les élus locaux repoussent la tenue d’un référendum sur l’indépendance.
La veille des élections, Donald Trump avait posté un message où il promettait de continuer à assurer la sécurité de l’île, « comme les États-Unis l’ont fait depuis la 2GM et d’investir des milliards pour créer de nouveaux emplois et rendre riches les Groenlandais ».Changement climatique et nouvelles opportunités
Aujourd’hui, tout le monde (ou presque) redoute un réchauffement climatique. Une minorité de chercheurs envisage un déplacement du Gulf Stream et une nouvelle glaciation…
Carte parue dans Challenges -13 février 2025
Si le réchauffement climatique se poursuit, il est envisagé l’ouverture de 3 nouvelles routes maritimes. Elles raccourciraient les trajets entre l’Asie, l’Amérique du Nord et l’Europe de 5 000 km entre Rotterdam et Shanghai. C’est énorme !
Les nouvelles routes maritimes éviteront de passer par le canal de Panama ou celui de Suez, autant de goulots d’étranglement très convoités.
La fonte des glaces et le réchauffement des eaux va aussi permettre la vie d’un nombre considérable de poissons.
N’oublions pas enfin que la fonte des glaces va augmenter le niveau des mers et que cela va submerger des littoraux, aux activités et peuplements denses.Richesses réelles ou virtuelles ?
Frank Tétart, Une carte par jour, autrement, 2018
Les deux piliers de l’économie restent la pêche et les transferts financiers de Copenhague.
Mais le boom minier mondial et les effets du réchauffement climatique ouvrent de nouvelles perspectives. De nombreuses concessions ont déjà été octroyées à des compagnies occidentales et chinoises, ce qui suscite les revendications nationalistes, voire indépendantistes.
L’Union Européenne a identifié la présence de 25 des 34 minéraux de matières premières essentielles, y compris des terres rares. Et les acteurs économiques cherchent à diversifier leurs sources d’approvisionnement, en particulier lorsqu’il s’agit de la dépendance vis-à-vis de la Chine pour les terres rares.
Aujourd’hui seules deux mines sont exploitées : l’une de rubis et l’autre d’anorthosite, un métal qui contient du titane. Il y a aussi de l’uranium, mais la population s’est opposée à l’extraction de produits radioactifs.
Dans le sud, à Narsaq, une mine d’or, fermée depuis 2013, est en phase de redémarrage.
Mais les projets ont du mal à démarrer : certaines zones ne sont pas accessibles toute l’année, la main d’œuvre manque, et il faut en moyenne 16 ans pour passer du forage à la production.Le Groenland et l’ingérence de Donald Trump
Quelques dates en ce début d’année 2025
Le 20 janvier 2025, Donald Trump revient à la Maison Blanche pour un 2è mandat, mais dès le mardi 7 janvier, alors qu’il a envoyé son fils au Groenland, il réaffirme ses ambitions :
– refaire des Etats-Unis, la super puissance MAGA, c’est-à-dire Make America Great Again
– faire du Canada le 51 ème Etat des USA
– acheter le Groenland au Danemark
– rebaptiser le golfe du Mexique en Golfe d’Amérique
– menacer tous ceux qui ne se soumettraient pas à ses décisions, de taxes douanières exorbitantes.
Il considère l’Union Européenne comme n’étant plus son alliée et désormais ne parle qu’avec son homologue russe, Vladimir Poutine. Le dessin ci-dessus, paru dans le journal Le Monde, résume sa vision du monde et celle des dirigeants actuels de la Russie (Vladimir Poutine veut l’Ukraine au motif qu’elle a appartenu à l’URSS) et Xi Jingping veut Taiwan au motif que l’on y parle le chinois !Trump est avant tout un homme d’affaires qui confond ses intérêts privés avec ceux de son pays. Il vise aussi le prix Nobel de la paix, car « il aura empêché une 3è guerre mondiale » et bien entendu, Dieu le protège puisqu’il a échappé à un attentat lors de la tentative de coup d’Etat au Capitole en janvier 2024.
Alors, Trump, faiseur de paix ou pyromane ?Maryse Verfaillie, 23 mars 2025
Compte rendu du FIG en 2018
[https:]]
-
11:00
Mappery: Lanildut
sur Planet OSGeoPièce jointe: [télécharger]
Greg shared this cute little map from Lanildut in Brittany
-
10:21
Mises à jour ArcGIS du site Architecture Center & Well-Architectured Framework
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierFin 2023, je vous annonçais sur ce blog le déploiement par Esri d'un nouveau centre de ressources nommé "ArcGIS Architecture Center". L'objectif de ces ressources est de permettre aux administrateurs de systèmes ArcGIS de comprendre en quoi la plateforme géospatiale ArcGIS est conçue selon les paradigmes Well-Architectured Framework et de leur fournir les bonnes pratiques pour concevoir et implémenter des systèmes ArcGIS qui répondent de manière optimum aux besoins de votre organisation en termes de performances, de fiabilité, de scalabilité, de sécurité, ...
Depuis quelques jours, l'ArcGIS Architecture Center propose de nouvelles fonctionnalités et améliorations intéressantes. Si Esri est ravis de présenter ces changements, l'objectif du site reste le même : vous fournir, en tant que professionnels de l'informatique, architectes, membres d'équipes support et professionnels SIG, des informations fondamentales sur ArcGIS, et guider vos organisations dans le choix éclairé d'options lors du déploiement de systèmes IT avec ArcGIS.?
Actualisation du design du site
Avec un design mis à jour, vous découvrirez de nouvelles façons améliorées d'interagir avec une large sélection de contenu et de ressources pour concevoir, créer et maintenir des systèmes dans ArcGIS :
Bibliothèque d'architecture
Sur la nouvelle page "Architecture Library", vous trouverez désormais différents ensembles de contenus organisés, notamment des contenus mis en avant, des exemples d'architecture et des études de test, des études de cas, des guides techniques, des outils et des formations disponibles.
Pour découvrir les contenus mis en avant et d’autres contenus plus anciens, vous accéderez à la bibliothèque.
Galerie de la bibliothèque d'architecture
Dans la galerie "Libray", de nouvelles options permettent de sélectionner et de filtrer plusieurs catégories de contenu, telles que les études de test et les architectures de référence, les blogs et les guides, et bien plus encore. Chaque fiche de la galerie indique les nouvelles ressources du site ou les mises à jour, vous permettant ainsi de trouver rapidement les ressources les plus récentes et les plus pertinentes.
Vous pouvez parcourir tout le contenu ou filtrer et rechercher selon vos préférences dans la galerie de la bibliothèque d'architecture.
Mise à jour des contenus
Plusieurs mises à jour des contenus sont également disponibles, y compris celles concernant la partie Well-Architected Framework :- Les considérations de conception physique constituent un nouveau sujet dans la section des pratiques d'architecture axée sur les considérations relatives aux systèmes basés sur ArcGIS Enterprise ou d'autres systèmes ArcGIS.
- Sujets de pratiques d'architecture mis à jour, y compris ceux visant à étendre ArcGIS avec des SDK et des API, à surveiller les performances du système , à appliquer des modèles d'autorisation et d'accès , ainsi que des modèles et des fournisseurs d'authentification ArcGIS
De plus, une nouvelle étude de test examine et compare les performances et l'expérience utilisateur de différents workflows pour un système de gestion des réseau est disponible. Pour en savoir plus, consultez la comparaison des performances et d'expérience utilisateur avec SAP HANA RISE.
On peut également signaler deux études de test ajoutées en décembre et février dernier :- Étude de test du système de gestion de réseaux de gaz (SQL Server)
- Étude de test du système de gestion de réseaux de gaz (SAP HANA)
- Étude de test du système de gestion de réseaux électriques (PostgreSQL)
- Étude de test du système de gestion de réseaux électriques (Oracle)
- Évaluation de l'impact du GPU et du CPU sur les workflows de mise à jour en Desktop
Pour une liste plus complète des changements et des informations ajoutées dans ArcGIS Architecture Center, vous pouvez consulter les notes de version.
Bonne architecture à tous !
-
10:09
How Deep was That Earthquake?
sur Google Maps ManiaA few years ago, ESRI's Raluca Nicola created a stunning 3D visualization titled Earthquakes with Exaggerated Depth, illustrating how far below the surface earthquake ruptures (hypocenters) occur. Her interactive globe visualizes one year's worth of earthquake activity worldwide (from July 2017 to July 2018).The map was created using data from the USGS. On the 3D interactive globe, each
-
7:00
Doctorow : rendre l’interopérabilité contraignante
sur Dans les algorithmesVoilà des années que Cory Doctorow traverse les enjeux des technologies. En France, il est surtout connu pour ses romans de science-fiction, dont quelques titres ont été traduits (Le grand abandon, Bragelonne, 2021 ; De beaux et grands lendemains, Goater, 2018, Little Brother, éditions 12-21, 2012 ; Dans la dèche au royaume enchanté, Folio, 2008). Cela explique que beaucoup connaissent moins le journaliste et militant prolixe, qui de Boing Boing (le blog qu’il a animé pendant 20 ans) à Pluralistic (le blog personnel qu’il anime depuis 5 ans), de Creative Commons à l’Electronic Frontier Foundation, dissémine ses prises de positions engagées et informées depuis toujours, quasiment quotidiennement et ce avec un ton mordant qui fait le sel de ses prises de paroles. Depuis des années, régulièrement, quelques-unes de ses prises de position parviennent jusqu’à nous, via quelques entretiens disséminés dans la presse française ou quelques traductions de certaines de ses tribunes. D’où l’importance du Rapt d’Internet (C&F éditions, 2025, traduction de The internet con, publié en 2023 chez Verso), qui donne enfin à lire un essai du grand activiste des libertés numériques.
On retrouve dans ce livre à la fois le ton volontaire et énergisant de Doctorow, mais aussi son côté brouillon, qui permet bien souvent de nous emmener plus loin que là où l’on s’attendait à aller. Dans son livre, Doctorow explique le fonctionnement des technologies comme nul autre, sans jamais se tromper de cible. Le défi auquel nous sommes confrontés n’est pas de nous débarrasser des technologies, mais bien de combattre la forme particulière qu’elles ont fini par prendre : leur concentration. Nous devons œuvrer à remettre la technologie au service de ceux qui l’utilisent, plaide-t-il depuis toujours. Pour cela, Doctorow s’en prend aux monopoles, au renforcement du droit d’auteur, au recul de la régulation… pour nous aider à trouver les leviers pour reprendre en main les moyens de production numérique.
En GuerreVoilà longtemps que Cory Doctorow est en guerre. Et le principal ennemi de Doctorow c’est la concentration. Doctorow est le pourfendeur des monopoles quels qu’ils soient et des abus de position dominantes. A l’heure où les marchés n’ont jamais autant été concentrés, le militant nous rappelle les outils que nous avons à notre disposition pour défaire cette concentration. “La réforme de la tech n’est pas un problème plus pressant qu’un autre. Mais si nous ne réformons pas la tech, nous pouvons abandonner l’idée de remporter d’autres combats”, prévient-il. Car la technologie est désormais devenue le bras armé de la concentration financière, le moyen de l’appliquer et de la renforcer. Le moyen de créer des marchés fermés, où les utilisateurs sont captifs et malheureux.
Pour résoudre le problème, Doctorow prône l’interopérabilité. Pour lui, l’interopérabilité n’est pas qu’un moyen pour disséminer les technologies, mais un levier pour réduire les monopoles. L’interopérabilité est le moyen “pour rendre les Big Tech plus petites”. Pour Doctorow, la technologie et notamment les technologies numériques, restent le meilleur moyen pour nous défendre, pour former et coordonner nos oppositions, nos revendications, nos luttes. “Si nous ne pouvons nous réapproprier les moyens de production du numérique, nous aurons perdu”.
Cory Doctorow est un militant aguerri. En historien des déploiements de la tech, son livre rappelle les combats technologiques que nous avons remportés et ceux que nous avons perdus, car ils permettent de comprendre la situation où nous sommes. Il nous rappelle comme nul autre, l’histoire du web avant le web et décrypte les manœuvres des grands acteurs du secteur pour nous enfermer dans leurs rets, qui ont toujours plus cherché à punir et retenir les utilisateurs dans leurs services qu’à leur fournir un service de qualité. Nous sommes coincés entre des “maniaques de la surveillance” et des “maniaques du contrôle”. “Toutes les mesures prises par les responsables politiques pour freiner les grandes entreprises technologiques n’ont fait que cimenter la domination d’une poignée d’entreprises véreuses”. La régulation a produit le contraire de ce qu’elle voulait accomplir. Elle a pavé le chemin des grandes entreprises technologiques, au détriment de la concurrence et de la liberté des usagers.
Police sans justiceEn revenant aux racines du déploiement des réseaux des années 90 et 2000, Doctorow nous montre que l’obsession au contrôle, à la surveillance et au profit, ont conduit les entreprises à ne jamais cesser d’œuvrer contre ce qui pouvait les gêner : l’interopérabilité. En imposant par exemple la notification et retrait pour modérer les infractions au copyright, les grandes entreprises se sont dotées d’une procédure qui leur permet tous les abus et face auxquelles les utilisateurs sont sans recours. En leur confiant la police des réseaux, nous avons oublié de confier la justice à quelqu’un. Dans les filtres automatiques des contenus pour le copyright, on retrouve les mêmes abus que dans tous les autres systèmes : des faux positifs en pagaille et des applications strictes au détriment des droits d’usage. En fait, les grandes entreprises de la tech, comme les titulaires des droits, tirent avantage des défaillances et des approximations de leurs outils de filtrage. Par exemple, rappelle Doctorow, il est devenu impossible pour les enseignants ou interprètes de musique classique de gagner leur vie en ligne, car leurs vidéos sont systématiquement bloquées ou leurs revenus publicitaires captés par les maisons de disques qui publient des interprétations de Bach, Beethoven ou Mozart. L’application automatisée de suppression des contenus terroristes conduit à la suppression automatisée des archives de violations des droits humains des ONG. Pour Doctorow, nous devons choisir : “Soit nous réduisons la taille des entreprises de la Tech, soit nous les rendons responsables des actions de leurs utilisateurs”. Cela fait trop longtemps que nous leur faisons confiance pour qu’elles s’améliorent, sans succès. Passons donc à un objectif qui aura plus d’effets : œuvrons à en réduire la taille !, recommande Doctorow.
L’interopérabilité d’abordPour y parvenir, l’interopérabilité est notre meilleur levier d’action. Que ce soit l’interopérabilité coopérative, celle qui permet de construire des normes qui régulent le monde moderne. Ou que ce soit l’interopérabilité adverse. Doctorow s’énerve légitimement contre toutes les entreprises qui tentent de protéger leurs modèles d’affaires par le blocage, à l’image des marchands d’imprimantes qui vous empêchent de mettre l’encre de votre choix dans vos machines ou des vendeurs d’objets qui introduisent des codes de verrouillages pour limiter la réparation ou l’usage (qu’on retrouve jusque chez les vendeurs de fauteuils roulants !). Ces verrous ont pourtant été renforcés par des lois qui punissent de prison et de lourdes amendes ceux qui voudraient les contourner. L’interopérabilité est désormais partout entravée, bien plus encore par le droit que par la technique.
Doctorow propose donc de faire machine avant. Nous devons imposer l’interopérabilité partout, ouvrir les infrastructures, imposer des protocoles et des normes. Cela suppose néanmoins de lutter contre les possibilités de triche dont disposent les Big Tech. Pour cela, il faut ouvrir le droit à la rétro-ingénierie, c’est-à-dire à l’interopérabilité adverse (ou compatibilité concurrentielle). Favoriser la “fédération” pour favoriser l’interconnexion, comme les services d’emails savent échanger des messages entre eux. Doctorow défend la modération communautaire et fédérée, selon les règles que chacun souhaite se donner. Pour lui, il nous faut également favoriser la concurrence et empêcher le rachat d’entreprises concurrentes, comme quand Facebook a racheté Instagram ou WhatsApp, qui a permis aux Big Techs de construire des empires toujours plus puissants. Nous devons nous défendre des seigneuries du web, car ce ne sont pas elles qui nous défendront contre leurs politiques. Sous prétexte d’assurer notre protection, bien souvent, elles ne cherchent qu’à maximiser les revenus qu’elles tirent de leurs utilisateurs.
L’interopérabilité partoutLe livre de Doctorow fourmille d’exemples sur les pratiques problématiques des Big Tech. Par exemple, sur le fait qu’elles ne proposent aucune portabilité de leurs messageries, alors qu’elles vous proposent toujours d’importer vos carnets d’adresse. Il déborde de recommandations politiques, comme la défense du chiffrement des données ou du droit à la réparabilité, et ne cesse de dénoncer le fait que les régulateurs s’appuient bien trop sur les Big Tech pour produire de la réglementation à leur avantage, que sur leurs plus petits concurrents. Nous devons rendre l’interopérabilité contraignante, explique-t-il, par exemple en la rendant obligatoire dans les passations de marchés publics et en les obligeant à l’interopérabilité adverse, par exemple en faisant que les voitures des flottes publiques puissent être réparables par tous, ou en interdisant les accords de non-concurrence. “Les questions de monopole technologique ne sont pas intrinsèquement plus importantes que, disons, l’urgence climatique ou les discriminations sexuelles et raciales. Mais la tech – une tech libre, juste et ouverte – est une condition sine qua non pour remporter les autres luttes. Une victoire dans la lutte pour une meilleure tech ne résoudra pas ces autres problèmes, mais une défaite annihilerait tout espoir de remporter ces luttes plus importantes”. L’interopérabilité est notre seul espoir pour défaire les empires de la tech.
Le verrouillage des utilisateurs est l’un des nœuds du problème techno actuel, expliquait-il récemment sur son excellent blog, et la solution pour y remédier, c’est encore et toujours l’interopérabilité. Ces services ne sont pas problématiques parce qu’ils sont détenus par des entreprises à la recherche de profits, mais bien parce qu’elles ont éliminé la concurrence pour cela. C’est la disparition des contraintes réglementaires qui produit « l’emmerdification », assure-t-il, d’un terme qui est entré en résonance avec le cynisme actuel des plateformes pour décrire les problèmes qu’elles produisent. Zuckerberg ou Musk ne sont pas plus diaboliques aujourd’hui qu’hier, ils sont juste plus libres de contraintes. « Pour arrêter l’emmerdification, il n’est pas nécessaire d’éliminer la recherche du profit – il faut seulement rendre l’emmerdification non rentable ». Et Doctorow de nous inviter à exploiter les divisions du capitalisme. Nous ne devons pas mettre toutes les entreprises à but lucratif dans le même panier, mais distinguer celles qui produisent des monopoles et celles qui souhaitent la concurrence. Ce sont les verrous que mettent en place les plateformes en s’accaparant les protocoles que nous devons abattre. Quand Audrey Lorde a écrit que les outils du maître ne démantèleront jamais la maison du maître, elle avait tort, s’énerve-t-il. « Il n’y a pas d’outils mieux adaptés pour procéder à un démantèlement ordonné d’une structure que les outils qui l’ont construite ».
Cet essai est une chance. Il va permettre à beaucoup d’entre nous de découvrir Cory Doctorow, de réfléchir avec lui, dans un livre joyeusement bordélique, mais qui sait comme nul autre relier l’essentiel et le décortiquer d’exemples toujours édifiants. Depuis plus de 20 ans, le discours de Doctorow est tout à fait cohérent. Il est temps que nous écoutions un peu plus !
La couverture du Rapt d’internet de Cory Doctorow.
Cette lecture a été publiée originellement pour la lettre du Conseil national du numérique du 21 mars 2025.
-
17:40
Les ensembles de données démographiques quadrillées sous-représentent systématiquement la population rurale à l'échelle mondiale
sur Cartographies numériquesSource : Láng-Ritter, J., Keskinen, M. & Tenkanen, H. (2025). Global gridded population datasets systematically underrepresent rural population. Nature Communication 16, 2170. https://doi.org/10.1038/s41467-25-56906-7
L’étude de l’Université Aalto (Finlande), publiée dans Nature Communications, révèle que 53 à 84% des habitants des zones rurales isolées échappent aux bases de données comme WorldPop ou LandScan, ce qui biaise les estimations démographiques au niveau mondial. Les modèles actuels, basés sur la lumière nocturne ou sur des recensements incomplets, sous-évaluent fortement la population rurale, notamment en Afrique et en Asie. Or, 43% de l’humanité vit en zone rurale selon les chiffres officiels, sans doute bien plus en réalité. L’étude s’appuie sur 307 projets de barrages dans 35 pays pour comparer les estimations aux chiffres réels de relogement. Elle montre que les erreurs de 2010 se répètent en 2015 et 2020, ce qui fausse les estimations de population (population mondiale estimée à 8,2 milliards actuellement). L’étude appelle à intégrer des images satellites en haute résolution, des relevés de terrain, des données mobiles anonymisées. Une cartographie démographique plus juste permettrait une meilleure allocation des ressources et une planification plus équitable.
Pourcentages de biais moyens sur les cinq grilles de population dans les 35 pays avec
zones rurales évaluées (source : Láng-Ritter et al., 2025)
Les cinq ensembles de données de population quadrillées sont librement accessibles via les liens Web fournis dans ce tableau. L'ensemble de données GeoDAR 28 contenant les polygones de réservoir est disponible gratuitement en téléchargement sur Zenodo. Les attributs de réservoir doivent être achetés auprès de la Commission internationale des grands barrages par l'intermédiaire du Registre mondial des barrages. Le fichier de polygones résultant de cette étude est accessible au public. Il contient les 307 zones rurales évaluées et les estimations de population pour chaque zone rurale.
Articles connexes
Cartes et données sur la population mondiale (Population & Sociétés, 2024)
Datavisualisation : une population mondiale à 8 milliards d’habitants (Visual Capitalist)
Journée mondiale de la population : 8 milliards d'habitants en 2022
Utiliser la grille mondiale de population de la plateforme Humanitarian Data Exchange
Données carroyées de population à l'échelle mondiale sur le site WorldPop
Le vieillissement de la population européenne et ses conséquences
Les villes face au changement climatique et à la croissance démographique
-
11:48
Incident en cours sur l'ensemble des services GPF
sur Toute l’actualité des Geoservices de l'IGNIncident en cours sur l'ensemble des services GPF
-
11:48
Incident en cours sur l'ensemble des services GPF (résolu)
sur Toute l’actualité des Geoservices de l'IGNIncident en cours sur l'ensemble des services GPF (résolu)
-
11:00
Mappery: Terraseca
sur Planet OSGeoIt never ceases to make me smile at how many bottles of wine or beeer end up here as maps in the wild. This ones comes via our friend Raf in Barcelona.
“Terra Seca is a red wine from Terra del Priorat cellar, made with garnatxa negra and carinyena, in a bottle dressed with contour lines”
-
9:46
Make Your Own Scrambled Maps
sur Google Maps ManiaIntroducing:Scrambled Maps StudioScrambled Maps ChallengeAre You Ready to Create Your Own Scrambled Maps Games?Scrambled Maps is probably my all-time favorite map game. I may be a little biased - since I wrote the original game - but TripGeo has taken my small creation and transformed it from a fun little puzzle into an amazing global challenge.Today, Scrambled Maps has become even
-
9:42
Oslandia: (Fr) Rencontres QGIS-fr – Avignon du 10 au 12 juin 2025
sur Planet OSGeoSorry, this entry is only available in French.
-
7:00
Le ChatGPT des machines-outils
sur Dans les algorithmesLes machines-outils à commandes numériques sont des outils complexes et fragiles, qui nécessitent des réglages, des tests et une surveillance constante. Microsoft travaille à développer une gamme de produits d’IA dédiée, des “Agents d’exploitation d’usine”, rapporte Wired. L’idée, c’est que l’ouvrier qui est confronté à une machine puisse interroger le système pour comprendre par exemple pourquoi les pièces qu’elle produit ont un taux de défaut plus élevé et que le modèle puisse répondre précisément depuis les données provenant de l’ensemble du processus de fabrication. Malgré son nom, le chatbot n’a pas la possibilité de corriger les choses. Interconnecté à toutes les machines outils, il permet de comparer les pannes et erreurs pour améliorer ses réponses. Microsoft n’est pas le seul à l’oeuvre. Google propose également un Manufacturing Data engine.
Mais, bien plus qu’un enjeu de réponses, ces nouvelles promesses semblent surtout permettre aux entreprises qui les proposent un nouveau pouvoir : prendre la main sur l’interconnexion des machines à la place de leurs fabricants.
-
4:02
Sean Gillies: Bear training week 5 recap
sur Planet OSGeoMy week 5 was a light one. I did some indoor workouts early in the week, some telemark skiing on Friday, and then short and easy trail runs Saturday and Sunday. Saturday's was my first run above 8000 ft elevation this season, on some very nice trails outside Nederland, Colorado. Here are the numbers, not including my skiing, which I didn't record.
8.5 miles running
5 hours, 6 minutes all training
761 ft D+ running
A sign next to a gravel trail through pine trees
-
18:59
L'histoire par les cartes. La mappa mundi de Leardo (1452)
sur Cartographies numériques
Source : « Le projet Lazarus va apporter un nouvel éclairage sur la plus ancienne carte de la collection de l'UWM » (Université du Wisconsin à Milwaukee)La mappa mundi de Leardo est une carte du monde dessinée à la main datant de 1452. Il s'agit de l'un des éléments phares de la collection de la bibliothèque de l'American Geographical Society, hébergée depuis près de 50 ans à l’University of Wisconsin Milwaukee (UWM). Le cartographe Giovanni Leardo a réalisé cette mappemonde à Venise pour un commanditaire inconnu – probablement un dignitaire religieux. La carte place Jérusalem en son centre, avec l'est pointé vers le haut. Dans le cercle qui l'entoure figure un calendrier, avec les phases de la lune, les fêtes des saints ainsi que d'autres informations.
La mappa mundi de Leardo - 1452 (source : Université du Wisconsin)
La bibliothèque de l'American Geographical Society contient aujourd'hui plus de deux millions d'ouvrages, dont des cartes, des photos, des atlas, des globes. Mais la carte de Leardo est l'ouvrage le plus ancien de la collection. L'original est conservé dans une pièce sombre et à température et humidité contrôlées, ce qui fait qu'elle était difficile à montrer aux visiteurs. L'obtention d'une reproduction de pointe est l'une des raisons pour lesquelles l'UWM accueille le Projet Lazarus à l'université en mars 2025. La numérisation en haute résolution pourrait mettre en lumière des détails qui se sont estompés au fil des siècles. Le projet Lazarus utilise l'imagerie multispectrale pour faire ressortir les détails manquants ou ternis sur des documents fragiles ou endommagés. Le traitement des photos prises sous différentes fréquences lumineuses permet d'en extraire de nouveaux détails. L'original est sur vélin ou peau d'animal traitée. La bibliothèque disposera désormais d'une image numérique pour un fac-similé de meilleure qualité, elle pourra l'imprimer sur un support semblable au vélin.
Outre l'Université du Wisconsin qui en propose une version numérique, la mappa mundi de Leardo est consultable sur le site de la bibliothèque du Congrès.
Extraits de la notice :"La plus ancienne carte du monde conservée à la bibliothèque de l'AGS est la Mappamundi de Leardo. Il s'agit de l'une des trois cartes du monde connues signées et datées par le cartographe vénitien du XVe siècle, Giovanni Leardo. Les deux autres, similaires mais non identiques, se trouvent à la Bibliothèque communale de Vérone, en Italie, et la troisième au Musée civique de Vicence, en Italie. Cette carte représente les régions du monde connues des Européens à la fin du Moyen Âge. Elle est considérée comme l'un des plus beaux exemples de carte du monde d'époque médiévale conservée dans l'hémisphère occidental."
"On sait peu de choses sur Giovanni Leardo, géographe et cosmographe vénitien du XVe siècle, si ce n'est que trois de ses cartes du monde, signées par leur auteur, datent de la fin du Moyen Âge. Il s'agit de la plus ancienne carte du monde conservée à la bibliothèque de l'American Geographical Society et elle est considérée comme le plus bel exemple de mappemonde médiévale de l'hémisphère occidental. Les deux autres cartes de Leardo, similaires mais non identiques, se trouvent en Italie, à la Bibliothèque communale de Vérone et au Musée civique de Vicence. La carte représente les régions du monde connues des Européens à la fin du Moyen Âge – l'Europe, l'Asie et l'Afrique – et, comme sur de nombreuses cartes murales médiévales, elle montre Jérusalem au centre et est oreintée vers l'est. Archer M. Huntington acheta la carte et la présenta à l'American Geographical Society en 1906. En 1928, la société publia un fac-similé en couleur grandeur nature accompagné d'un texte de John K. Wright, intitulé The Leardo Map of the World: 1452 or 1453. L'ouvrage de Wright consistait essentiellement en une description détaillée du tracé, des noms et des caractéristiques de la carte elle-même. Rand McNally reproduisit également la carte pour une carte de Noël en 1952."
Articles connexes
L'histoire par les cartes : la mappa mundi d'Albi
L'histoire par les cartes : 30 cartes qui racontent l'histoire de la cartographie (sélection de l'IGN)
L'histoire par les cartes : les collections numérisées de la Bibliothèque Vaticane
L'histoire par les cartes : une série de 14 films documentaires sur les cartes portulans (BNF)
La carte médiévale d'Ebstorf en version interactive et en téléchargement
Numérisée en haute résolution, la carte médiévale de Fra Mauro peut être explorée en détail
L'histoire par les cartes : la dalle ornée de Saint-Bélec, la plus ancienne carte d'Europe ?
Le nord en haut de la carte : une convention qu'il faut parfois savoir dépasser
Cartes et atlas historiques
-
18:17
OSGeo Announcements: [OSGeo-Announce] OTB version 9.1.1 is out !
sur Planet OSGeoOn behalf of the OTB team
Ready to use binary packages are available on the package page of the website:
1 post - 1 participant
-
14:00
OSM Data : Extrusion des données en 3D - suite
sur GeotribuOSM DATA 3D : des données 2D à leur représentation en 3D - suite
-
11:55
Le « Security Project for QGIS » : contribuez maintenant !
sur OslandiaLe « Security project for QGIS » est désormais public ! Participez maintenant !
L’objectif de ce projet est de mutualiser des financements pour améliorer la sécurité de QGIS et porter le projet à un niveau de cybersécurité élevé.
Oslandia et d’autres partenaires investis, en particulier OPENGIS.ch sont des “pure players” opensource et les principaux contributeurs de QGIS. Ce projet est une initiative d’Oslandia et est soutenu par l’association QGIS.org. Nous travaillons de façon rapprochée avec la communauté de développeurs, utilisateurs et parties prenantes de QGIS. Ce projet est mené par des committers « core » de QGIS désireux de faire avancer les pratiques de cybersécurité.
Contexte globalDe nouvelles réglementations telles que NIS2 et le CRA en Europe, ainsi que d’autres réglementations internationales ou locales vont être activées dans les prochaines années. Elles requièrent l’amélioration des pratiques de cybersécurité des logiciels et des producteurs de logiciel. Les logiciels OpenSource, bien que bénéficiant d’un traitement spécifique, sont également concernés. Une estimation de l’impact du CRA sur les coûts logiciels est projeté à des montants de +30% do coûts supplémentaires.
Concernant QGIS, nous considérons que le projet est actuellement en deçà de ce qui serait nécessaire pour être conforme à ces législation. Il ne répond également pas pour le moment à certains prérequis des utilisateurs finaux en terme de qualité globale concernant la sécurité, les processus en place pour assurer la confiance dans la chaîne de production logicielle, et la culture de la cybersécurité dans le projet.
Nous avons échangé sur ce sujet avec des clients ayant des déploiements importants de QGIS et QGIS serveur, et ils ont confirmé que la cybersécurité est une de leurs principales préoccupations, et qu’ils souhaiteraient faire avancer le projet QGIS dans ce domaine autant que possible. QGIS fait en effet face au risque des départements IT possédant des chartes de sécurité pouvant empêcher son déploiement si le projet n’a pas assez de processus en place.
De plus, on note que les sollicitations de security@qgis.org ont récemment connu une forte augmentation.
Objectifs du projetOslandia, avec d’autres partenaires, et soutenu par des clients et des utilisateurs finaux, lance donc le “Security project for QGIS” : nous avons identifié les points-clé où des amélioration de sécurité peuvent être réalisés, nous les avons classifiés, détaillés, et nous avons créé des « work packages » avec estimations budgétaires.
- L’objectif principal est simple : améliorer significativement le niveau de cybersécurité du projet QGIS
- Il s’agit ensuite de se conformer aux contraintes et prérequis des réglementations et des utilisateurs finaux
- Enfin, nous voulons faire de QGIS un exemple de projet OpenSource prenant en compte la cybersécurité, et pouvant inspirer d’autres projets de l’OSGeo
QGIS et QGIS Server sont les deux principaux composants concernés par ce projet, mais améliorer la sécurité de QGIS de façon globale nous fait également considérer les bibliothèques sous-jacentes ( e.g. GDAL/OGR, PROJ, GEOS…).
Ce projet est un effort spécifique pour améliorer le niveau de sécurité du projet QGIS. Maintenir ce niveau sur le long terme nécessitera de nouveaux efforts, et nous vous encourageons également à financer directement QGIS.org en devenant un sponsor officiel du projet ( « Sustaining member » ).
La sécurité mémoire, la signature des binaires, la gestion de la chaîne d’approvisionnement logicielle, les process de contribution, la sécurité des plugins, les audits de sécurité et bien d’autres sujets sont inclus dans ce projet. Vous pouvez voir l’ensemble des sujets ainsi que les work packages sur le site dédié :
Organisation projet – Contribuez !Toute organisation intéressée pour améliorer la sécurité de QGIS peut participer au financement. Nous recherchons un total de financement estimé de 670K€, divisé en 3 work packages
Contribuez dès maintenant !
Une fois le financement démarré, Oslandia et ses partenaires vont commencer à travailler sur le Work Package 1 en 2025. Nous avons l’intention de travailler de façon rapprochée avec la communauté QGIS, l’association QGIS.org, les partenaires intéressés et les utilisateurs finaux. Une partie du travail consiste en l’amélioration du système actuel, d’autres demanderont des changements de process ou d’habitudes de développement. Travailler de façon rapprochée avec les communautés d’utilisateurs et de développeurs pour améliorer la culture de cybersécurité des contributeurs est une partie essentielle du projet.
Nous livrerons des améliorations dès 2025 et jusque 2027. Vous pouvez voir la liste complète des sujets et les work packages, ainsi que les budgets correspondants sur la page du projet : security.qgis.oslandia.com .
Vous êtes invités à contribuer financièrement, mais vous pouvez également passer le mot, et convaincre d’autres organisations de contribuer !
Nous tenons à remercier particulièrement Orange France pour son support de longue date à l’OpenSource en général et à QGIS en particulier. Ce sont les premiers financeurs du « Security Project for QGIS ».
Si vous avez des questions sur le projet, ou souhaitez obtenir plus de renseignements ou de matériel de présentation du projet à diffuser, n’hésitez pas à nous contacter !
-
10:14
The Fentanyl Supply Chain
sur Google Maps ManiaIn How a New Drug Trafficking Landscape Fuels Violence in Latin America, the International Crisis Group (ICG) maps the supply chains transporting cocaine and fentanyl from Latin America to consumers in Europe and North America. The map reveals how decades of failed prohibitionist policies, shifting demand, and increasingly fragmented criminal networks have transformed drug trafficking into
-
7:00
Vectofascisme
sur Dans les algorithmesDans son passionnant journal, qu’il produit depuis plus de 10 ans, l’artiste Gregory Chatonsky tient le carnet d’une riche réflexion de notre rapport aux technologies. Récemment, il proposait de parler de vectofascisme plutôt que de technofascisme, en livrant une explication et une démonstration passionnante qui nous montre que ce nouveau fascisme n’est pas une résurgence du fascisme du XXe siècle, mais bien une « transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce ». Tribune.
Comme annoncé par Vilèm Flusser nous sommes entrés dans l’ère post-alphabétique. Les appareils nous programment désormais autant que nous ne les programmons. Dans cet univers techno-imaginal où l’ensemble de nos facultés sont traversées par les technologies, la question du fascisme se pose différemment. Qualifier un phénomène contemporain de “fasciste” n’est ni un simple détournement sémantique ni une exactitude historique. C’est plutôt reconnaître une certaine disposition affective qui traverse le socius, un réarrangement des intensités désirantes sous de nouvelles conditions techniques.
Le second mandat Trump n’est pas un “retour” au fascisme – comme si l’histoire suivait un schéma circulaire – mais une réémergence fracturée dans un champ techno-affectif radicalement distinct. Le préfixe “vecto-”, hérité de Wark McKenzie, indique précisément cette transformation : nous ne sommes plus dans une politique des masses mais dans une politique des vecteurs, des lignes de force et des intensités directionnelles qui traversent et constituent le corps social algorithmisé.
Même parler de “masses” serait encore nostalgique, un concept résiduel d’une époque où la densité physique manifestait le politique. Aujourd’hui, la densité s’exprime en termes d’attention agrégée, de micro-impulsions synchronisées algorithmiquement en l’absence de toute proximité corporelle. Les corps n’ont plus besoin de se toucher pour former une force politique ; il suffit que leurs données se touchent dans l’espace latent des serveurs. Cette dématérialisation n’est pas une disparition du corps mais sa redistribution dans une nouvelle géographie computationnelle qui reconfigure les coordonnées mêmes du politique. D’ailleurs, quand ces corps se mobilisent physiquement c’est grâce au réseau.
Dans cette recomposition du champ social, les catégories politiques héritées perdent leur efficacité descriptive. Ce n’est pas que les mots “fascisme” ou “démocratie” soient simplement désuets, c’est que les phénomènes qu’ils désignaient ont subi une mutation qui nécessite non pas simplement de nouveaux mots, mais une nouvelle grammaire politique. Le préfixe “vecto-” n’est pas un ornement conceptuel, mais l’indicateur d’une transformation structurelle dans la manière dont le pouvoir se constitue, circule et s’exerce.
DéfinitionsFascisme historique : Mouvement politique né dans l’entre-deux-guerres, principalement en Italie et en Allemagne, caractérisé par un nationalisme exacerbé, un culte du chef, un rejet des institutions démocratiques, une mobilisation des masses et une violence politique institutionnalisée.
Néofascisme : Adaptation contemporaine de certaines caractéristiques du fascisme historique à un contexte sociopolitique différent, préservant certains éléments idéologiques fondamentaux tout en les reformulant.
Vectofascisme : Néologisme désignant une forme contemporaine de fascisme qui s’adapte aux moyens de communication et aux structures sociales de l’ère numérique, caractérisée par la vectorisation (direction, intensité, propagation) de l’information et du pouvoir à l’ère de l’IA.
Des masses aux vecteurs
Le fascisme historique appartenait encore à l’univers de l’écriture linéaire et de la première vague industrielle. Les machines fascistes étaient des machines à produire des gestes coordonnés dans l’espace physique. Le corps collectif s’exprimait à travers des parades uniformisées, des bras tendus à l’unisson, un flux énergétique directement observable.
Le vectofascisme appartient à l’univers post-alphabétique des appareils computationnels. Ce n’est plus un système d’inscription mais un système de calcul. Là où le fascisme classique opérait par inscription idéologique sur les corps, le vectofascisme opère par modulation algorithmique des flux d’attention et d’affect. Les appareils qui le constituent ne sont pas des méga-haut-parleurs mais des micro-ciblages.
L’image technique fasciste était monumentale, visible de tous, univoque ; l’image technique vectofasciste est personnalisée, multiple, apparemment unique pour chaque regardeur. Mais cette multiplication des images n’est pas libératrice ; elle est calculée par un méta-programme qui demeure invisible. L’apparence de multiplicité masque l’unité fondamentale du programme.
Cette transformation ne signifie pas simplement une numérisation du fascisme, comme si le numérique n’était qu’un nouveau support pour d’anciennes pratiques politiques. Il s’agit d’une mutation du politique lui-même. Les foules uniformes des rassemblements fascistes opéraient encore dans l’espace euclidien tridimensionnel ; le vectofascisme opère dans un hyperespace de n-dimensions où la notion même de “rassemblement” devient obsolète. Ce qui se rassemble, ce ne sont plus des corps dans un stade mais des données dans un espace vectoriel.
Ce passage d’une politique de la présence physique à une politique de la vectorisation informationnelle transforme également la nature même du pouvoir. Le pouvoir fasciste traditionnel s’exerçait par la disciplinarisation visible des corps, l’imposition d’une orthopédie sociale directement inscrite dans la matérialité des gestes grâce au Parti unique. Le pouvoir vectofasciste s’exerce par la modulation invisible des affects, une orthopédie cognitive qui ne s’applique plus aux muscles mais aux synapses, qui ne vise plus à standardiser les mouvements mais à orienter les impulsions. Le Parti ou toutes formes d’organisation sociale n’ont plus de pertinence.
Dans ce régime, l’ancien binôme fasciste ordre/désordre est remplacé par le binôme signal/bruit. Il ne s’agit plus de produire un ordre visible contre le désordre des masses indisciplinées, mais d’amplifier certains signaux et d’atténuer d’autres, de moduler le rapport signal/bruit dans l’écosystème informationnel global. Ce passage du paradigme disciplinaire au paradigme modulatoire constitue peut-être la rupture fondamentale qui justifie le préfixe “vecto-“.
Analysons 3 caractéristiques permettant de justifier l’usage du mot fasciste dans notre concept:
Le culte du chefLe fascisme historique a institutionnalisé le culte de la personnalité à un degré sans précédent. Le Duce ou le Führer n’étaient pas simplement des dirigeants, mais des incarnations quasi-mystiques de la volonté nationale. Cette relation entre le chef et ses partisans transcendait la simple adhésion politique pour atteindre une dimension presque religieuse.
Cette caractéristique se manifeste aujourd’hui par la dévotion inconditionnelle de certains partisans envers leur leader, résistant à toute contradiction factuelle. L’attachement émotionnel prime sur l’évaluation rationnelle des politiques. Le slogan “Trump can do no wrong” illustre parfaitement cette suspension du jugement critique au profit d’une confiance absolue.
La démocratie, par essence, suppose une vigilance critique des citoyens envers leurs dirigeants. La défiance par rapport aux dirigeants est un signe du bon fonctionnement de la démocratie en tant que les citoyens restent autonomes. La substitution de cette autonomie par une allégeance inconditionnelle constitue donc une régression anti-démocratique significative.
La dissolution du rapport à la véritéLe rapport du discours fasciste à la vérité constitue un élément particulièrement distinctif. Contrairement à d’autres idéologies qui proposent une vision alternative mais cohérente du monde, le fascisme entretient un rapport instrumental et flexible avec la vérité. La contradiction n’est pas perçue comme un problème logique mais comme une démonstration de puissance.
Le “logos” fasciste vaut moins pour son contenu sémantique que pour son intensité affective et sa capacité à mobiliser les masses. Cette caractéristique se retrouve dans la communication politique contemporaine qualifiée de “post-vérité”, où l’impact émotionnel prime sur la véracité factuelle.
L’incohérence apparente de certains discours politiques actuels n’est pas un défaut mais une fonctionnalité : elle démontre l’affranchissement du leader des contraintes communes de la cohérence et de la vérification factuelle. Le mépris des “fake news” et des “faits alternatifs” participe de cette logique où la puissance d’affirmation l’emporte sur la démonstration rationnelle.
La désignation de boucs émissairesLa troisième caractéristique fondamentale réside dans la désignation systématique d’ennemis intérieurs, généralement issus de minorités, qui sont présentés comme responsables des difficultés nationales.
Cette stratégie remplit une double fonction : elle détourne l’attention des contradictions structurelles du système économique (servant ainsi les intérêts du grand capital) et fournit une explication simple à des problèmes complexes. La stigmatisation des minorités – qu’elles soient ethniques, religieuses ou sexuelles – crée une cohésion nationale négative, fondée sur l’opposition à un “autre” intérieur.
Dans le contexte contemporain, cette logique s’observe dans la rhétorique anti-immigration, la stigmatisation des communautés musulmanes ou certains discours sur les minorités sexuelles présentées comme menaçant l’identité nationale. La création d’un antagonisme artificiel entre un “peuple authentique” et des éléments présentés comme “parasitaires” constitue une continuité frappante avec les fascismes historiques.
L’industrialisation du différendLe fascisme historique s’inscrivait encore – même perversement – dans le grand récit de l’émancipation moderne. C’était une pathologie de la modernité, mais qui parlait son langage : progrès, renouveau, pureté, accomplissement historique. Le vectofascisme s’épanouit précisément dans la fin des grands récits, dans l’incrédulité et le soupçon.
En l’absence de métarécits, le différend politique devient inexprimable. Comment articuler une résistance quand les règles mêmes du discours sont constamment reconfigurées ? Le vectofascisme n’a pas besoin de nier la légitimité de l’opposition ; il peut simplement la rendre inaudible en recalibrant perpétuellement les conditions même de l’audibilité : c’est une politique à haute fréquence comme quand on parle de spéculation à haute fréquence.
On pourrait définir le vectofascisme comme une machine à produire des différends indécidables – non pas des conflits d’interprétation, mais des situations où les phrases elles-mêmes appartiennent à des régimes hétérogènes dont aucun n’a autorité pour juger les autres. La phrase vectofasciste n’est pas contredite dans son régime, elle crée un régime où la contradiction n’a plus cours.
La notion lyotardienne de différend prend ici une dimension algorithmique. Le différend classique désignait l’impossibilité de trancher entre deux discours relevant de régimes de phrases incommensurables. Le différend algorithmique va plus loin : il produit activement cette incommensurabilité par manipulation ciblée des environnements informationnels. Ce n’est plus simplement qu’aucun tribunal n’existe pour trancher entre deux régimes de phrases ; c’est que les algorithmes créent des régimes de phrases sur mesure pour chaque nœud du réseau, rendant impossible même la conscience de l’existence d’un différend.
Cette fragmentation algorithmique des univers discursifs constitue une rupture radicale avec la sphère publique bourgeoise moderne, qui présupposait au moins théoriquement un espace discursif commun où différentes positions pouvaient s’affronter selon des règles partagées. Le vectofascisme n’a pas besoin de censurer l’opposition ; il lui suffit de s’assurer que les univers discursifs sont suffisamment distincts pour que même l’identification d’une opposition commune devienne impossible.
Cette incapacité à formuler un différend commun empêche la constitution d’un “nous” politique cohérent face au pouvoir. Chaque nœud du réseau perçoit un pouvoir légèrement différent, contre lequel il formule des griefs légèrement différents, qui trouvent écho dans des communautés de résistance légèrement différentes. Cette micro-différenciation des perceptions du pouvoir et des résistances assure une neutralisation effective de toute opposition systémique.
“Je ne suis pas ici”Le pouvoir ne s’exerce plus principalement à travers les institutions massives de la modernité, mais à travers des systèmes spectraux, impalpables, dont l’existence même peut être niée. Le vectofascisme ressemble à ces entités qui, comme les hauntologies derridiennes, sont simultanément là et pas là. Il opère dans cette zone d’indistinction entre présence et absence.
Ce qui caractérise ce pouvoir spectral, c’est précisément sa capacité à dénier sa propre existence tout en exerçant ses effets. “Ce n’est pas du fascisme”, répète-t-on, tout en mettant en œuvre ses mécanismes fondamentaux sous des noms différents. Cette dénégation fait partie de sa puissance opératoire. Le vectofascisme est d’autant plus efficace qu’il peut toujours dire : “Je ne suis pas ici.”
La spectralité n’est pas seulement une métaphore mais une condition du pouvoir contemporain. Les algorithmes qui constituent l’infrastructure du vectofascisme sont littéralement des spectres : invisibles aux utilisateurs qu’ils modulent, présents seulement par leurs effets, ils hantent l’espace numérique comme des fantômes dans la machine. La formule fishérienne “ils ne savent pas ce qu’ils font, mais ils le font quand même” prend ici un nouveau sens : les utilisateurs ne perçoivent pas les mécanismes qui modulent leurs affects, mais ils produisent néanmoins ces affects avec une précision troublante.
Cette spectralité du pouvoir vectofasciste explique en partie l’inadéquation des modes traditionnels de résistance. Comment s’opposer à ce qui nie sa propre existence ? Comment résister à une forme de domination qui se présente non comme imposition mais comme suggestion personnalisée ? Comment combattre un pouvoir qui se manifeste moins comme prohibition que comme modulation subtile du champ des possibles perçus ?
Le vectofascisme représente ainsi une évolution significative par rapport au biopouvoir foucaldien. Il ne s’agit plus seulement de “faire vivre et laisser mourir” mais de moduler infiniment les micro-conditions de cette vie, de créer des environnements informationnels sur mesure qui constituent autant de “serres ontologiques” où certaines formes de subjectivité peuvent prospérer tandis que d’autres sont étouffées par des conditions défavorables.
Le second mandat TrumpÀ la lumière de ces éléments théoriques, revenons à la question initiale : est-il légitime de qualifier le second mandat Trump de “fasciste” ?
Plusieurs éléments suggèrent des convergences significatives avec les caractéristiques fondamentales du fascisme :
- La personnalisation extrême du pouvoir et le culte de la personnalité
- Le rapport instrumental à la vérité factuelle et l’incohérence délibérée du discours
- La désignation systématique de boucs émissaires (immigrants, minorités ethniques, “élites cosmopolites”)
- La remise en cause des institutions démocratiques (contestation des résultats électoraux, pression sur l’appareil judiciaire)
- La mobilisation d’affects collectifs (peur, ressentiment, nostalgie) plutôt que d’arguments rationnels
Dans l’univers des images techniques que devient le chef ? Il n’est plus un sujet porteur d’une volonté historique mais une fonction dans un système de feedback. Il n’est ni entièrement un émetteur ni complètement un récepteur, mais un nœud dans un circuit cybernétique de modulation affective.
Le culte du chef vectofasciste n’est plus un culte de la personne mais un culte de l’interface, de la surface d’interaction. Ce qui est adoré n’est pas la profondeur supposée du chef mais sa capacité à fonctionner comme une surface de projection parfaite. Le chef idéal du vectofascisme est celui qui n’offre aucune résistance à la projection des désirs collectifs algorithmiquement modulés.
La grotesquerie devient ainsi non plus un accident mais un opérateur politique essentiel. Si le corps du leader fasciste traditionnel était idéalisé, devant incarner la perfection de la race et de la nation, le corps du leader vectofasciste peut s’affranchir de cette exigence de perfection précisément parce qu’il n’a plus à incarner mais à canaliser. Le caractère manifestement construit, artificiel, même ridicule de l’apparence (la coiffure improbable, le maquillage orange) n’est pas un défaut mais un atout : il signale que nous sommes pleinement entrés dans le régime de l’image technique, où le référent s’efface derrière sa propre représentation.
Cette transformation ontologique du statut du chef modifie également la nature du lien qui l’unit à ses partisans. Là où le lien fasciste traditionnel était fondé sur l’identification (le petit-bourgeois s’identifie au Führer qui incarne ce qu’il aspire à être), le lien vectofasciste fonctionne davantage par résonance algorithmique : le chef et ses partisans sont ajustés l’un à l’autre non par un processus psychologique d’identification mais par un processus technique d’optimisation. Les algorithmes façonnent simultanément l’image du chef et les dispositions affectives des partisans pour maximiser la résonance entre eux.
Ce passage de l’identification à la résonance transforme la temporalité même du lien politique. L’identification fasciste traditionnelle impliquait une temporalité du devenir (devenir comme le chef, participer à son destin historique). La résonance vectofasciste implique une temporalité de l’instantanéité : chaque tweet, chaque déclaration, chaque apparition du chef produit un pic d’intensité affective immédiatement mesurable en termes d’engagement numérique, puis s’efface dans le flux continu du présent perpétuel.
Le rapport vectofasciste à la vérité n’est pas simplement un mensonge ou une falsification. Dans l’univers post-alphabétique, la distinction binaire vrai/faux appartient encore à la pensée alphabétique. Ce qui caractérise le vectofascisme est plutôt la production d’une indécidabilité calculée, d’une zone grise où le statut même de l’énoncé devient indéterminable.
Ce mécanisme ne doit pas être compris comme irrationnel. Au contraire, il est hyper-rationnel dans sa capacité à exploiter les failles des systèmes de vérification. La post-vérité n’est pas l’absence de vérité mais sa submersion dans un flot d’informations contradictoires dont le tri exigerait un effort cognitif dépassant les capacités attentionnelles disponibles.
Le capitalisme a toujours su qu’il était plus efficace de saturer l’espace mental que de le censurer. Le vectofascisme applique cette logique à la vérité elle-même : non pas nier les faits, mais les noyer dans un océan de quasi-faits, de semi-faits, d’hyper-faits jusqu’à ce que la distinction même devienne un luxe cognitif inabordable.
Cette stratégie de saturation cognitive exploite une asymétrie fondamentale : il est toujours plus coûteux en termes de ressources cognitives de vérifier une affirmation que de la produire. Produire un mensonge complexe coûte quelques secondes ; le démystifier peut exiger des heures de recherche. Cette asymétrie, négligeable dans les économies attentionnelles pré-numériques, devient décisive dans l’écosystème informationnel contemporain caractérisé par la surabondance et l’accélération.
Le vectofascisme pousse cette logique jusqu’à transformer la véracité elle-même en une simple variable d’optimisation algorithmique. La question n’est plus “est-ce vrai ?” mais “quel degré de véracité maximisera l’engagement pour ce segment spécifique ?”. Cette instrumentalisation calculée de la vérité peut paradoxalement conduire à une calibration précise du mélange optimal entre faits, demi-vérités et mensonges complets pour chaque micro-public.
Cette modulation fine du rapport à la vérité transforme la nature même du mensonge politique. Le mensonge traditionnel présupposait encore une reconnaissance implicite de la vérité (on ment précisément parce qu’on reconnaît l’importance de la vérité). Le mensonge vectofasciste opère au-delà de cette distinction : il ne s’agit plus de nier une vérité reconnue, mais de créer un environnement informationnel où la distinction même entre vérité et mensonge devient une variable manipulable parmi d’autres.
Les concepts traditionnels de propagande ou de manipulation deviennent ainsi partiellement obsolètes. La propagande classique visait à imposer une vision du monde alternative mais cohérente ; la modulation vectofasciste de la vérité renonce à cette cohérence au profit d’une efficacité localisée et temporaire. Il ne s’agit plus de construire un grand récit alternatif stable, mais de produire des micro-récits contradictoires adaptés à chaque segment de population et à chaque contexte attentionnel.
Là où le fascisme historique désignait des ennemis universels de la nation (le Juif, le communiste, le dégénéré), le vectofascisme calcule des ennemis personnalisés pour chaque nœud du réseau. C’est une haine sur mesure, algorithmiquement optimisée pour maximiser l’engagement affectif de chaque segment de population.
Cette personnalisation n’est pas une atténuation mais une intensification : elle permet d’infiltrer les micropores du tissu social avec une précision chirurgicale. Le système ne propose pas un unique bouc émissaire mais une écologie entière de boucs émissaires potentiels, adaptés aux dispositions affectives préexistantes de chaque utilisateur.
L’ennemi n’est plus un Autre monolithique mais un ensemble de micro-altérités dont la composition varie selon la position de l’observateur dans le réseau et dont le “wokisme” est le paradigme. Cette modulation fine des antagonismes produit une société simultanément ultra-polarisée et ultra-fragmentée, où chaque bulles informationnelles développe ses propres figures de haine.
Cette fragmentation des figures de l’ennemi ne diminue pas l’intensité de la haine mais la rend plus efficace en l’adaptant précisément aux dispositions psycho-affectives préexistantes de chaque utilisateur. Les algorithmes peuvent identifier quelles caractéristiques spécifiques d’un groupe désigné comme ennemi susciteront la réaction émotionnelle la plus forte chez tel utilisateur particulier, puis accentuer précisément ces caractéristiques dans le flux informationnel qui lui est destiné.
Cependant, cette personnalisation des boucs émissaires ne signifie pas l’absence de coordination. Les algorithmes qui modulent ces haines personnalisées sont eux-mêmes coordonnés au niveau méta, assurant que ces antagonismes apparemment dispersés convergent néanmoins vers des objectifs politiques cohérents. C’est une orchestration de second ordre : non pas l’imposition d’un ennemi unique, mais la coordination algorithmique d’inimitiés multiples.
Cette distribution algorithmique de la haine transforme également la temporalité des antagonismes. Le fascisme traditionnel désignait des ennemis stables, permanents, essentialisés (le Juif éternel, le communiste international). Le vectofascisme peut faire varier les figures de l’ennemi selon les nécessités tactiques du moment, produisant des pics d’intensité haineuse temporaires mais intenses, puis réorientant cette énergie vers de nouvelles cibles lorsque l’engagement faiblit. “Mes amis il n’y a point d’amis” résonne aujourd’hui très étrangement.
Cette souplesse tactique dans la désignation des ennemis permet de maintenir une mobilisation affective constante tout en évitant la saturation qui résulterait d’une focalisation trop prolongée sur un même bouc émissaire. La haine devient ainsi une ressource attentionnelle renouvelable, dont l’extraction est optimisée par des algorithmes qui surveillent constamment les signes de désengagement et recalibrent les cibles en conséquence.
Le contrôle vectorielLe fascisme historique fonctionnait dans l’espace disciplinaire foucaldien : quadrillage des corps, visibilité panoptique, normalisation par l’extérieur. Le vectofascisme opère dans un espace latent de n-dimensions qui ne peut même pas être visualisé directement par l’esprit humain.
Cet espace latent n’est pas un lieu métaphorique mais un espace mathématique concret dans lequel les réseaux de neurones artificiels génèrent des représentations compressées des données humaines. Ce n’est pas un espace de représentation mais de modulation : les transformations qui s’y produisent ne représentent pas une réalité préexistante mais génèrent de nouvelles réalités.
La géographie politique traditionnelle (centre/périphérie, haut/bas, droite/gauche) devient inopérante. Les coordonnées politiques sont remplacées par des vecteurs d’intensité, des gradients de polarisation, des champs d’attention dont les propriétés ne correspondent à aucune cartographie politique antérieure.
Cette transformation de la géographie du pouvoir n’est pas une simple métaphore mais une réalité technique concrète. Les grands modèles de langage contemporains, par exemple, n’opèrent pas primitivement dans l’espace des mots mais dans un espace latent de haute dimensionnalité où chaque concept est représenté comme un vecteur possédant des centaines ou des milliers de dimensions. Dans cet espace, la “distance” entre deux concepts n’est plus mesurée en termes spatiaux traditionnels mais en termes de similarité cosinus entre vecteurs.
Cette reconfiguration de l’espace conceptuel transforme fondamentalement les conditions de possibilité du politique. Les catégories politiques traditionnelles (gauche/droite, conservateur/progressiste) deviennent des projections simplifiées et appauvries d’un espace multidimensionnel plus complexe. Les algorithmes, eux, opèrent directement dans cet espace latent, capable de manipuler des dimensions politiques que nous ne pouvons même pas nommer car elles émergent statistiquement de l’analyse des données sans correspondre à aucune catégorie préexistante dans notre vocabulaire politique.
Le pouvoir qui s’exerce dans cet espace latent échappe ainsi partiellement à notre capacité même de le conceptualiser. Comment critiquer ce que nous ne pouvons pas représenter ? Comment résister à ce qui opère dans des dimensions que nous ne pouvons pas percevoir directement et qui permet de passer de n’importe quel point à n’importe quel autre ? Cette invisibilité constitutive n’est pas accidentelle mais structurelle : elle découle directement de la nature même des espaces vectoriels de haute dimensionnalité qui constituent l’infrastructure mathématique du vectofascisme.
Cette invisibilité est renforcée par le caractère propriétaire des algorithmes qui opèrent ces transformations. Les modèles qui modulent nos environnements informationnels sont généralement protégés par le secret commercial, leurs paramètres précis inaccessibles non seulement aux utilisateurs mais souvent même aux développeurs qui les déploient. Cette opacité n’est pas un bug mais une feature : elle permet précisément l’exercice d’un pouvoir qui peut toujours nier sa propre existence.
De la facticitéLe vectofascisme ne se contente pas de manipuler les représentations du monde existant ; il génère activement des mondes contrefactuels qui concurrencent le monde factuel dans l’espace attentionnel. Ces mondes ne sont pas simplement “faux” – qualification qui appartient encore au régime alphabétique de vérité – mais alternatifs, parallèles, adjacents.
La puissance des modèles prédictifs contemporains réside précisément dans leur capacité à produire des contrefactuels convaincants, des simulations de ce qui aurait pu être qui acquièrent une force d’attraction affective équivalente ou supérieure à ce qui est effectivement advenu.
Cette prolifération des contrefactuels n’est pas un bug mais une autre feature du système : elle permet de maintenir ouvertes des potentialités contradictoires, de suspendre indéfiniment la clôture épistémique du monde qu’exigerait une délibération démocratique rationnelle.
La modélisation contrefactuelle n’est pas en soi une innovation du vectofascisme ; elle constitue en fait une capacité cognitive fondamentale de l’être humain et un outil épistémologique essentiel de la science moderne. Ce qui caractérise spécifiquement le vectofascisme est l’industrialisation de cette production contrefactuelle, son insertion systématique dans les flux informationnels quotidiens, et son optimisation algorithmique pour maximiser l’engagement affectif plutôt que la véracité ou la cohérence.
Les grands modèles de langage constituent à cet égard des machines à contrefactualité d’une puissance sans précédent. Entraînés sur la quasi-totalité du web, ils peuvent générer des versions alternatives de n’importe quel événement avec un degré de plausibilité linguistique troublant. Ces contrefactuels ne se contentent pas d’exister comme possibilités abstraites ; ils sont insérés directement dans les flux informationnels quotidiens, concurrençant les descriptions factuelles dans l’économie de l’attention.
Cette concurrence entre factualité et contrefactualité est fondamentalement asymétrique. La description factuelle d’un événement est contrainte par ce qui s’est effectivement produit ; les descriptions contrefactuelles peuvent explorer un espace des possibles virtuellement infini, choisissant précisément les versions qui maximiseront l’engagement émotionnel des différents segments d’audience. Cette asymétrie fondamentale explique en partie le succès du vectofascisme dans l’économie attentionnelle contemporaine : la contrefactualité optimisée pour l’engagement l’emportera presque toujours sur la factualité dans un système où l’attention est la ressource principale.
Cette prolifération contrefactuelle transforme également notre rapport au temps politique. La politique démocratique moderne présupposait un certain ordonnancement temporel : des événements se produisent, sont rapportés factuellement, puis font l’objet d’interprétations diverses dans un débat public structuré. Le vectofascisme court-circuite cet ordonnancement : l’interprétation précède l’événement, les contrefactuels saturent l’espace attentionnel avant même que les faits ne soient établis, et le débat ne porte plus sur l’interprétation de faits communs mais sur la nature même de la réalité.
En finirNous assistons moins à une reproduction à l’identique du fascisme historique qu’à l’émergence d’une forme hybride, adaptée au contexte contemporain, que l’on pourrait qualifier d’autoritarisme populiste à tendance fascisante.
L’emploi du terme “fascisme” pour qualifier des phénomènes politiques contemporains nécessite à la fois rigueur conceptuelle et lucidité politique. Si toute forme d’autoritarisme n’est pas nécessairement fasciste, les convergences identifiées entre certaines tendances actuelles et les caractéristiques fondamentales du fascisme historique ne peuvent être négligées.
Le fascisme, dans son essence, représente une subversion de la démocratie par l’exploitation de ses vulnérabilités. Sa capacité à se métamorphoser selon les contextes constitue précisément l’un de ses dangers. Reconnaître ces mutations sans tomber dans l’inflation terminologique constitue un défi intellectuel majeur.
Le vectofascisme contemporain ne reproduit pas à l’identique l’expérience historique des années 1930, mais il partage avec celle-ci des mécanismes fondamentaux.
On peut proposer cette définition synthétique à retravailler :
« Le vectofascisme désigne une forme politique contemporaine qui adapte les mécanismes fondamentaux du fascisme historique aux structures technologiques, communicationnelles et sociales de l’ère numérique. Il se définit précisément comme un système politique caractérisé par l’instrumentalisation algorithmique des flux d’information et des espaces numériques pour produire et orienter des affects collectifs, principalement la peur et le ressentiment, au service d’un projet de pouvoir autoritaire. Il se distingue par (1) l’exploitation stratégique des propriétés vectorielles de l’information numérique (direction, magnitude, propagation) ; (2) la manipulation systématique de l’espace des possibles et des contrefactuels pour fragmenter la réalité commune ; (3) la production statistiquement optimisée de polarisations sociales et identitaires ; et (4) la personnalisation algorithmique des trajectoires de radicalisation dans des espaces latents de haute dimensionnalité.
Contrairement au fascisme historique, centré sur la mobilisation physique des masses et l’occupation matérielle de l’espace public, le vectofascisme opère principalement par la reconfiguration de l’architecture informationnelle et attentionnelle. Cependant, il repose fondamentalement sur une mobilisation matérielle d’un autre ordre : l’extraction intensive de ressources énergétiques et minérales (terres rares, lithium, cobalt, etc.) nécessaires au fonctionnement des infrastructures numériques qui le soutiennent. Cette extraction, souvent délocalisée et invisibilisée, constitue la base matérielle indispensable de la superstructure informationnelle, liant le vectofascisme à des formes spécifiques d’exploitation environnementale et géopolitique qui alimentent les machines computationnelles au cœur de son fonctionnement. »
Gregory Chatonsky
Cet article est extrait du journal de Gregory Chatonsky, publié en mars 2025 sous le titre « Qu’est-ce que le vectofascisme ? »
-
12:38
Incident en cours téléchargement
sur Toute l’actualité des Geoservices de l'IGNIncident en cours téléchargement
-
10:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
10:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
10:30
Crise des déchets et incinération sauvage à Sfax (Tunisie) : une campagne de mesures dédiée à l’évaluation de la pollution de l’air par les particules ?
sur CybergeoLa défaillance de la politique de gestion des déchets à Sfax s’est traduite par la prolifération des décharges spontanées, principalement en 2021 et 2022. En dépit de son extrême nocivité sur la santé humaine, l’incinération des déchets à ciel ouvert est devenue une pratique illégale courante par une grande partie de la population, suite à l’échec de l’action publique. Cette pratique est à l’origine de la pollution aux particules. Cet article analyse la médiatisation de la crise de la gestion des déchets à Sfax, et étudie la variation spatio-temporelle de la pollution aux particules PM10 et PM2,5 dans l’agglomération de Sfax, à partir de campagnes de mesures semi-itinérantes dans une trentaine de décharges incinérées. Il est montré que l’incinération des déchets à ciel ouvert provoque de très fortes concentrations de pollution aux PM10 et PM2,5, dépassant de très loin les normes en vigueur de la protection de la santé humaine recommandées par la Tunisie et l’Organisation Mondiale de...
-
10:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
10:30
À la recherche de données : Nature et flux des informations au fondement des politiques de gestion du sanglier urbain. L’exemple bordelais
sur CybergeoLa nature en ville abrite une large biodiversité. Tandis que la présence de certaines espèces est bienvenue, d’autres s’y sont installées sans y avoir été invitées. C’est le cas du sanglier. Le défi de gestion posé par la grande faune urbaine est écologique, il est aussi culturel, politique et éthique. Cette étude, motivée par l'incertitude générale concernant les enjeux socio-écologiques de la coexistence avec le sanglier urbain et les solutions à y apporter, explore et analyse les informations qui fondent les politiques de gestion de l'espèce. La démarche s’appuie sur une enquête de terrain conduite dans la Métropole de Bordeaux, visant à suivre le cheminement de l’information dans le réseau des acteurs territoriaux. L’objectif de la démarche est double : i) recueillir et analyser les données existantes relatives au sanglier urbain, aux problèmes générées par la coexistence avec l’espèce en ville et aux dispositifs de gestion en place, et ii) modéliser les flux d’informations entr...
-
10:28
The Russian Sabotage Map
sur Google Maps ManiaDuring 2024, a number of undersea cables around Europe were sabotaged by Russia. These attacks were only a small part of a larger Russian campaign to disrupt European democracy and undermine its support for Ukraine. Alongside the destruction of undersea cables, Russia has been involved in cyberattacks, social media misinformation, attempted murders, arson, sabotage, and coordinated espionage
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
7:00
L’automatisation est un problème politique
sur Dans les algorithmes“L’automatisation remplace les hommes. Ce n’est bien sûr pas une nouveauté. Ce qui est nouveau, c’est qu’aujourd’hui, contrairement à la plupart des périodes précédentes, les hommes déplacés n’ont nulle part où aller. (…) L’automatisation exclut de plus en plus de personnes de tout rôle productif dans la société.” James Boggs, The American Revolution, pages from a negro workers notebook, 1963.
La réponse actuelle face à l’automatisation est la même que dans les années 60, explique Jason Ludwig pour PublicBooks : il faut former les travailleurs à la programmation ou aux compétences valorisées par la technologie pour qu’ils puissent affronter les changements à venir. Le mantra se répète : ”le progrès technologique est inévitable et les travailleurs doivent s’améliorer eux-mêmes ou être balayés par sa marche inexorable”. Une telle approche individualiste du déplacement technologique trahit cependant une myopie qui caractérise la politique technologique, explique Ludwig : c’est que l’automatisation est fondamentalement un problème politique. Or, comme le montre l’histoire de la politique du travail américaine, les efforts pour former les travailleurs noirs aux compétences technologiques dans les années 60 ont été insuffisants et n’ont fait que les piéger dans une course vers le bas pour vendre leur travail.
Pour Ludwig, il nous faut plutôt changer notre façon de penser la technologie, le travail et la valeur sociale. Dans les années 60, Kennedy avait signé une loi qui avait permis de former quelque 2 millions d’américains pour répondre au défi de l’automatisation. Mais dans le delta du Mississippi, la majorité des noirs formés (comme opérateurs de production, mécanicien automobile, sténographes…) sont retournés au travail agricole saisonnier avant même d’avoir fini leur formation. En fait, les formations formaient des gens à des emplois qui n’existaient pas. “Ces programmes ont également marqué un éloignement de l’espoir initial des leaders des droits civiques de voir une politique d’automatisation faire progresser l’égalité raciale. Au lieu de cela, l’automatisation a renforcé une hiérarchie racialisée du travail technologique”. Ceux qui ont suivit une formation dans l’informatique sont restés pour la plupart dans des rôles subalternes, à l’image des travailleurs des plateformes d’aujourd’hui. Travailleur noir dans l’industrie automobile de Détroit des années 50, James Boggs a d’ailleurs été le témoin direct de la manière dont les nouveaux contrôles électroniques ont remplacé les travailleurs de la chaîne de montage, et a également observé les échecs de la direction, des dirigeants gouvernementaux et du mouvement ouvrier lui-même à faire face aux perturbations causées par l’automatisation. Dans ses écrits critiques, Boggs a soutenu que leur incapacité à concevoir une solution adéquate au problème de l’automatisation et du chômage provenait d’une croyance qu’ils avaient tous en commun : les individus doivent travailler !
Pour Boggs, la voie à suivre à l’ère de l’automatisation ne consiste pas à lutter pour le plein emploi, mais plutôt à accepter une société sans travail, en garantissant à chacun un revenu décent. Pour Ludwig, les recommandations de Boggs soulignent les failles des prévisions contemporaines sur l’avenir du travail, comme celles de McKinsey. La reconversion des travailleurs peut être une mesure temporaire, mais ne sera jamais qu’une solution provisoire. La présenter comme la seule voie à suivre détourne l’attention de la recherche de moyens plus efficaces pour assurer un avenir meilleur à ceux qui sont en marge de la société, comme l’expérimentation d’un revenu de base ou la réinvention de l’État-providence pour le XXIe siècle.
-
17:11
Partage et collaboration géomatique à la Ville de Genève
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueL’organisation du SIG à Genève inspire par sa transversalité et sa collégialité. La plate-forme SITV est logiquement un portail collaboratif multi-utilisateurs au service de la Ville, dont la mise en œuvre a associé nombre d’acteurs en interne et externe : une vraie fédération de compétences !Deuxième ville la plus peuplée de Suis se après Zurich, Genève est située au bord du lac Léman, à la frontière avec la France. Cosmopolite et ouverte sur le monde, c’est un centre important pour les organisations internationales. Commune principale du canton de Genève, la ville compte plus de 205.000 habitants, soit un peu moins de la moitié de la population cantonale. Les relations entre les administrations de la Ville et du canton sont étroitement imbriquées, y compris sur le plan géomatique. Créé en 1991, le SIG de la Ville de Genève travaille de concert avec le SI du Territoire Genevois (SITG) avec pour principe de ne pas dupliquer les efforts. C’est ainsi que le canton gère le cadastre pour tout le territoire, alors qu’une quarantaine de types différents de géodonnées de la Ville sont synchronisés sur le portail du SITG.
Retrouvez la suite de cette enquête dans le magazine SIGMAG N°44
-
16:53
À la recherche de conteneurs
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueEn Moselle, la Communauté d’agglomération du Val de Fensch déploie son application de localisation de points de collecte des déchets. Le service SIG de la collectivité rend accessible ce nouvel outil pour permettre aux habitants de trouver sans difficulté les conteneurs enterrés, les bornes d’apports volontaires pour les biodéchets, le verre ou le textile. L’outil aide aussi à connaître son secteur de dépendance quant aux jours et fréquences de ramassage, pour sortir ses poubelles au bon moment. La recherche se fait par adresse ou directement par secteur. Cette plateforme en ligne responsive présente de façon structurée toutes les informations pratiques concernant la gestion des déchets. Le volet « conteneurs enterrés » propose des informations sur le nombre de contenants par typologie d’ordure. Les déchetteries sont aussi recensées avec des précisions redirigeant vers le site de la CA.
+ d'infos :
agglo-valdefensch.fr
-
15:52
Carte détaillée du paysage sous la calotte glaciaire de l'Antarctique
sur Cartographies numériquesSource : Pritchard, H, Fretwell, P., Fremand, A. & al., « Bedmap3 updated ice bed, surface and thickness gridded datasets for Antarctica », Scientific Data, vol. 12, 414, 2025, [https:]] (article disponible sous licence Creative Commons Attribution 4.0 International)
La carte la plus détaillée à ce jour du paysage sous la calotte glaciaire de l'Antarctique a été réalisée par une équipe de scientifiques internationaux dirigée par le British Antarctic Survey (BAS). Baptisée Bedmap3, elle intègre plus de six décennies de données acquises par avions, satellites, navires et même traîneaux à chiens.
Les résultats ont été publiés le 12 mars 2025 dans la revue Scientific Data. La carte nous donne une vue claire du continent blanc comme si ses 27 millions de kilomètres cubes de glace avaient été retirés, révélant les emplacements cachés des plus hautes montagnes et des canyons les plus profonds. Une révision notable de la carte concerne l'endroit où la couche de glace sus-jacente est la plus épaisse. Des relevés antérieurs situaient cet endroit dans le bassin de l'Astrolabe, en Terre Adélie. Cependant, une réinterprétation des données révèle qu'il se trouve dans un canyon anonyme à 76,052°S, 118,378°E, en Terre Wilkes. L'épaisseur de la glace à cet endroit est de 4 757 m.
Topographie de l'Antarctique d'après la Bedmap3 (source : Pritchard, Fretwell, Fremand & al., 2025)
Bedmap3 est désormais appelé à devenir un outil essentiel pour comprendre comment l’Antarctique pourrait réagir au réchauffement climatique, car il permet aux scientifiques d’étudier les interactions entre la calotte glaciaire et le lit. Bedmap3, comme son nom l'indique, est la troisième tentative de cartographie du substrat rocheux de l'Antarctique, entreprise en 2001. Cette nouvelle tentative représente une avancée considérable. Elle inclut plus du double de points (82 millions) par rapport aux précédents, représentés sur une grille de 500 m.
D’importantes lacunes dans les connaissances ont été comblées par des études récentes menées dans l’Est de l’Antarctique, notamment autour du pôle Sud, le long de la péninsule antarctique et des côtes de l’Antarctique occidental, ainsi que dans les montagnes transantarctiques. Le contour des vallées profondes est mieux représenté, tout comme les endroits où des montagnes rocheuses émergent de la glace. Les dernières données satellitaires ont également enregistré avec plus de précision la hauteur et la forme de la calotte glaciaire, ainsi que l'épaisseur des plateformes de glace flottantes qui s'avancent au-dessus de l'océan à la marge du continent.
La carte offre également une vue complète et nouvelle des lignes d’échouement à l’échelle du continent – ??les endroits où la glace au bord du continent rencontre l’océan et commence à flotter. Le paysage du lit rocheux sous la glace de l'Antarctique est détecté par diverses techniques, notamment le radar, la réflexion sismique (ondes sonores) et les mesures de gravité. En soustrayant cette topographie de la forme et de l’élévation de la glace au-dessus, on obtient des statistiques fascinantes sur le pôle Sud :
- Volume total de glace de l'Antarctique, y compris les plateformes de glace : 27,17 millions de km³
- Superficie totale de la glace de l'Antarctique, y compris les plateformes de glace : 13,63 millions de km²
- Épaisseur moyenne de la glace de l'Antarctique, y compris les plateformes de glace : 1 948 m (hors plateformes de glace : 2 148 m)
- Élévation potentielle du niveau mondial des océans si toute la glace fondait : 58 m
« De manière générale, il est devenu évident que la calotte glaciaire de l'Antarctique est plus épaisse qu'on ne le pensait initialement et qu'elle contient un volume de glace plus important, reposant sur un lit rocheux situé sous le niveau de la mer. Cela accroît le risque de fonte de la glace en raison de l'incursion d'eaux océaniques chaudes aux confins du continent. Bedmap3 nous montre que l'Antarctique est légèrement plus vulnérable qu'on ne le pensait. »
Articles connexes
Atlas du permafrost arctique
Quand la route maritime de l'Arctique fait de nouveau l’actualité
Densité du trafic maritime mondial et effets sur le réchauffement climatique
Progression de la cartographie haute résolution des fonds marins (programme Seabed 2030 - GEBCO)
Un atlas mondial pour estimer les volumes d’eau des glaciersDes usages de la projection Spilhaus et de notre vision du monde
La carte, objet éminemment politique. L'Argentine et sa carte officielle bi-continentale
-
9:39
Exploring the Amazon
sur Google Maps ManiaNational Geographic's Into the Amazon takes you on an impressive virtual tour of one of the world's most breathtaking and ecologically vital regions. From its source high in the Andes, the Amazon River carves its way through dense rainforests, winding past diverse ecosystems teeming with life, before finally reaching the Atlantic Ocean. For two years, 16 scientists journeyed along the
-
7:17
De villes en villes. Atlas des déplacements domicile-travail interurbains
sur Cartographies numériquesAnne Aguiléra, Benoit Conti, Sylvestre Duroudier, Florent Le Néchet, De villes en villes. Atlas des déplacements domicile-travail interurbains, Université Gustave Eiffel 2024, Les collections de l’IFSTTAR (ouvrage mis à disposition sous Licence Creative Commons 4.0 International).
Contenu et réalisation de l'Atlas
À travers une série de cartes régionales, cet Atlas interactif illustre les flux pendulaires depuis et vers les villes françaises de 50 000 à 700 000 habitants. Ce travail, mené par des chercheur.e.s du LVMT et de Géographie-cités dans le cadre d’un partenariat avec l’entreprise Transdev, offre un regard inédit sur ces mobilités et souligne aussi le manque d’offres de transport alternatives à l’automobile.
Cet Atlas a été réalisé dans le cadre d’un partenariat entre le Laboratoire Ville Mobilité Transport (LMVT), unité mixte de recherche (UMR) entre l'Université Gustave Eiffel et l’École nationale des ponts et chaussées et l’UMR Géographie-cités (avec la collaboration de Sylvestre Duroudier, maître de conférences à l’Université Paris 1 Panthéon-Sorbonne, membre de l’UMR), dans le cadre d’un partenariat avec Transdev. Il s’intéresse aux navettes interurbaines depuis et vers les villes françaises de 50 000 à 700 000 habitants, qui concernent 8 trajets interurbains sur 10. Il rend compte de la géographie régionale et intra-régionale de ces déplacements, du profil (âge et profession) des actifs concernés, et identifie les configurations plus ou moins favorables à l’usage des transports collectifs.
Les déplacements interurbains, grands oubliés des politiques de transport ?
En France continentale, plus de 3 millions de personnes vivent et travaillent dans deux villes distinctes (au sens de l’aire d’attraction de l’Insee). C’est 50 % de plus qu’en 1999. Pour rejoindre leur lieu d’emploi, ces actifs interurbains parcourent des distances importantes : entre 25 et 50 km pour les deux tiers d’entre eux, et plus de 50 km pour les autres. Selon l’Insee, ces navettes interurbaines, dont 9 sur 10 sont réalisées en voiture, comptent pour un tiers des émissions de l’ensemble des déplacements domicile-travail. Elles sont pourtant peu étudiées, et restent peu prises en compte dans les politiques de report modal vers les transports collectifs.
Si les trajets interurbains entre deux communes périurbaines sont nombreux en volume, leur géographie précise reste complexe à saisir finement car ces flux concernent principalement de petits effectifs, inférieurs à 10 actifs. Malgré leur nombre, ils sont donc peu visibles dans cet Atlas. Selon les régions, la part respective des navettes entre les différentes catégories de communes montre des disparités importantes (tableau ci-dessous). Par exemple, la part des échanges entre communes centres est particulièrement élevée (par rapport à la moyenne) en Occitanie, Pays de la Loire, Provence-Alpes-Côte d’Azur et Île-de-France, et la plus faible dans les Hauts-de-France. Les flux entre communes périurbaines sont les plus élevés en Auvergne-Rhône-Alpes, et les moins importants en Île-de-France.
Articles connexes
Atlas des centres. Mesurer les dynamiques des centres-villes français (FNAU)
Atlas des mondes urbains : comment renouveler nos manières de penser l'urbain à l'ère de l'Anthropocène ?
Géographie du monde d'après : assiste-t-on à un "exode urbain" ?
CAPAMOB, un guide du Cerema pour réaliser des diagnostics de mobilités en territoire rural ou péri-urbain
Le Mobiliscope, un outil de géovisualisation pour explorer les mobilités urbaines heure par heure
L'INSEE propose une nouvelle typologie des aires urbaines en fonction de leur aire d'attraction
Vers une loi universelle des mobilités urbaines ? (Senseable City Lab - MIT)
Un atlas de l'expansion urbaine à partir de 200 villes dans le monde
Étudier la progression de l'étalement urbain aux Etats-Unis depuis 2001Étudier les mobilités résidentielles des jeunes Américains à partir du site Migration Patterns
-
14:00
Revue de presse du 21 mars 2025
sur GeotribuLa GeoRDP arrive, avec un parfum de R'n'B des années 2000... Remastérisé avec des BD, des formats Cloud, un peu d'herbe et d'images aériennes anciennes, avec d'autres géotrucs.
-
10:08
How to Learn the Countries of the World
sur Google Maps ManiaLearn the World Map is a fun online game which requires you to identify countries on an interactive map - and which helps you to learn while you play.How to PlayLearn the World Map is simple to play. You are given a series of country names and must correctly identify their locations on a world map. If you get a country wrong, the game shows you its correct location and asks you to try again.To
-
7:50
De « l’Excellisation » de l’évaluation
sur Dans les algorithmesL’évaluation des formations universitaires par le Haut Conseil de l’Évaluation de la Recherche et de l’Enseignement Supérieur (HCÉRES) reposent très concrètement sur des outils d’auto-évaluation formels qui se résument à des fichiers Excel qui emboitent des indicateurs très parcellaires, explique Yves Citton pour AOC. une forme d’évaluation « sans visite de salle de classe, sans discussion personnalisée avec les responsables de formation, les personnels administratifs ou les étudiantes ».
« Cette excellence excellisée menace donc de fermer des formations sans avoir pris la peine d’y poser le pied ou le regard, sur la seule base d’extractions chiffrées dont la sanction satellitaire tombe comme un missile ». Une belle démonstration des limites de l’évaluation contemporaine, orientée et hors sol.
-
7:01
Les trois corps du lithium : le géologique, le technologique et le psychique
sur Dans les algorithmes« Comme le sucre au XIXe siècle, le lithium va devenir au XXIe siècle un bien de consommation de masse, l’aliment de base du nouveau régime de consommation promis aux sociétés modernes et décarbonées ». (…) « Le lithium participerait à revitaliser le système de production et de consommation du capitalisme, en proposant une réponse au changement climatique qui n’oblige pas à remettre en cause les rapports de force asymétriques préexistants et la nature « zombie » de nos technologies héritées des énergies fossiles. »
« L’histoire du lithium illustre la manière dont les propriétés matérielles d’un élément façonnent à la fois notre équilibre mental et notre rapport à la société. À la croisée de la santé et de l’industrie, il participe à une quête de stabilité des humeurs et des flux énergétiques dans un monde toujours plus dépendant de la performance et de la constance ».
Passionnant dossier sur l’âge du lithium dans la revue Les temps qui restent.
-
9:36
Billboard Ads on Maps
sur Google Maps ManiaSofia Cannale has been experimenting with displaying virtual billboards on top of an interactive map. In their latest digital advertising campaign for LUXE EVERYWHERE they have added a number of advertising billboards to a Google/Cesium 3D map.The Luxe Everywhere map features seven virtual advertisements, featuring different models wearing Sofia Cannale sunglasses, all displayed along the
-
7:00
Vers la fin du modèle des startups ?
sur Dans les algorithmesLes startups de l’IA n’auraient plus besoin de liquidités, estime Erin Griffith dans le New York Times. Alors que les investisseurs se pressent pour prendre des parts, les startupeurs de l’IA font la fine bouche. Certaines sont déjà rentables, à l’image de Gamma, une entreprise qui fabrique des outils d’IA pour créer des présentations et des sites web. Fort de seulement 28 employés, Gamma génère déjà des dizaines de millions de revenus auprès de 50 millions d’utilisateurs. Plutôt que d’embaucher, Gamma utilise des outils d’intelligence artificielle pour augmenter la productivité de ses employés dans tous les domaines, du service client et du marketing au codage et à la recherche client.
Alors qu’avant la réussite des petites équipes consistait à lever des fonds pour croître, désormais, elles limitent leur taille et optimisent leur rentabilité. Anysphere, une start-up qui a créé le logiciel de codage Cursor, comme ElevenLabs, une société d’IA spécialiste des produits vocaux, ont atteint 100 millions de dollars de revenus récurrents annuels en moins de deux ans avec seulement 20 employés. Sam Altman, le directeur général d’OpenAI, a prédit qu’il pourrait y avoir un jour une entreprise unipersonnelle valant 1 milliard de dollars… C’est pour l’instant encore bien présomptueux*, mais on comprend l’idée.
Cette cure de productivité des personnels concerne également les entreprises d’IA qui développent des modèles. OpenAI emploie plus de 4000 personnes, a levé plus de 20 milliards de dollars de financement et continue à chercher à lever des fonds, ce qui produit environ le même ratio : 5 millions de dollars de levés de fonds par employés (même si ici, on parle de levée de fonds et non pas de revenus récurrents). Les nouvelles start-ups de l’IA qui s’appuient sur ces modèles font penser à la vague d’entreprises qui ont émergé à la fin des années 2000, après qu’Amazon a commencé à proposer des services de cloud computing bon marché. Amazon Web Services a réduit le coût de création d’une entreprise, ce qui a permis de créer de nouvelles entreprises, pour moins chères.
« Avant l’essor de l’IA, les start-ups dépensaient généralement 1 million de dollars pour atteindre un chiffre d’affaires de 1 million de dollars », explique Gaurav Jain, investisseur à Afore Capital. Aujourd’hui, atteindre un million de dollars de chiffre d’affaires coûte un cinquième de moins et pourrait éventuellement tomber à un dixième, selon une analyse de 200 startups menée par Afore. Tant et si bien que le revenu récurrent annuel par employé semble désormais s’imposer comme l’indicateur clef de ces « ultra » lean startups, explique le French Tech Journal. Pour parvenir à 100 millions de dollars de revenus dans les années 2000, il a fallu 900 employés à Linkedin et 600 à Shopify. Dans les années 2010, il fallait encore 250 employés à Slack pour parvenir au même revenu récurrent. Désormais, pour les entreprises de la « génération IA » il n’en faut plus que 100 ! L’objectif, c’est qu’un employé rapporte entre 5 et 1 million de dollars ! On espère que les salaires des salariés suivent la même courbe de croissance !
Le tableau des startups selon leur nombre d’employés pour atteindre les 100 millions de dollars de revenus récurrents. Reste que l’explication par le développement de produits basés sur l’IA vise à nous faire croire que les entreprises qui ont pris plus de temps et d’employés pour atteindre les 100 millions de revenus n’auraient pas utilisé l’IA pour leur produit. hum !
Mais si les startups peuvent devenir rentables sans dépenser beaucoup, cela pourrait devenir un problème pour les investisseurs en capital-risque. L’année dernière, les entreprises d’IA ont levé 97 milliards de dollars de financement, ce qui représente 46 % de tous les investissements en capital-risque aux États-Unis, selon PitchBook, le spécialiste de l’analyse du secteur. Pour l’instant, les investisseurs continuent de se battre pour entrer dans les entreprises les plus prometteuses. Scribe, une start-up de productivité basée sur l’IA, a dû faire face l’année dernière à un intérêt des investisseurs bien supérieur aux 25 millions de dollars qu’elle souhaitait lever. Certains investisseurs sont optimistes quant au fait que l’efficacité générée par l’IA incitera les entrepreneurs à créer davantage d’entreprises, ce qui ouvrira davantage d’opportunités d’investissement. Ils espèrent qu’une fois que les startups auront atteint une certaine taille, les entreprises adopteront le vieux modèle des grandes équipes et des gros capitaux. Mais ce n’est peut-être pas si sûr.
Chez Gamma, les employés utilisent une dizaine d’outils d’IA pour les aider à être plus efficaces, notamment l’outil de service client d’Intercom pour gérer les problèmes, le générateur d’images de Midjourney pour le marketing, le chatbot Claude d’Anthropic pour l’analyse des données et le NotebookLM de Google pour analyser la recherche de clients. Les ingénieurs utilisent également le curseur d’Anysphere pour écrire du code plus efficacement. Le produit de Gamma, qui s’appuie sur des outils d’OpenAI et d’autres, n’est pas aussi coûteux à fabriquer que d’autres produits d’IA. D’autres startups efficaces adoptent une stratégie similaire. Thoughtly, un fournisseur d’agents IA téléphoniques, a réalisé un bénéfice en 11 mois, grâce à son utilisation de l’IA, a déclaré son cofondateur Torrey Leonard, notamment l’outil d’IA ajouté au système de Stripe pour analyser les ventes. Pour son PDG, sans ces outils, il aurait eu besoin d’au moins 25 personnes de plus et n’aurait pas été rentable aussi rapidement. Pour les jeunes pousses, ne plus avoir peur de manquer de liquidités est « un énorme soulagement ». Chez Gamma, le patron prévoit néanmoins d’embaucher pour passer à 60 personnes. Mais plutôt que de recruter des spécialistes, il cherche des généralistes capables d’effectuer une large gamme de tâches. Le patron trouve même du temps pour répondre aux commentaires des principaux utilisateurs du service.
Dans un autre article, Erin Griffith explique que nombre d’entreprises retardent leur entrée en bourse. Beaucoup attendaient l’élection de Trump pour se lancer, mais les annonces de tarifs douaniers de l’administration et les changements réglementaires rapides ont créé de l’incertitude et de la volatilité. Et l’arrivée de DeepSeek a également remis en question l’engouement pour les technologies d’IA américaines coûteuses. Enfin, l’inflation du montant des investissements privés retarde également les échéances de mises sur le marché. En fait, les startups peuvent désormais lever des fonds plus importants et les actionnaires peuvent également vendre leurs actions avant mise sur le marché public, ce qui a contribué à réduire le besoin d’entrer en bourse.
Dans un autre article encore, la journaliste se demande ce qu’est devenu le capital risque. Pour cela, elle convoque les deux modèles les plus antinomiques qui soient, à savoir Benchmark Capital et Andreessen Horowitz. « Andreessen Horowitz s’est développé dans toutes les directions. Elle a créé des fonds axés sur les crypto-monnaies, la Défense et d’autres technologies, gérant un total de 44 milliards de dollars. Elle a embauché 80 partenaires d’investissement et ouvert cinq bureaux. Elle publie huit newsletters et sept podcasts, et compte plus de 800 sociétés en portefeuille ».
« Benchmark, en revanche, n’a pratiquement pas bougé. Elle compte toujours cinq partenaires qui font des investissements. Cette année, elle a levé un nouveau fonds de 425 millions de dollars, soit à peu près la même taille que ses fonds depuis 2004. Son site Web se résume à une simple page d’accueil ». La plupart des entreprises d’investissement ont suivi le modèle d’Andreessen Horowitz se développant tout azimut. Le capital risque est devenu un mastodonte de 1200 milliards de dollars en 2024, alors qu’il ne représentait que 232 milliards en 2009. Les partisans de la théorie du toujours plus d’investissement affirment qu’il faut encore plus d’argent pour résoudre les problèmes les plus épineux de la société en matière d’innovation. « Les petits fonds, se moquent-ils, ne peuvent soutenir que les petites idées ». Mais pour d’autres, les fonds de capital-risque sont devenus trop gros, avec trop peu de bonnes startups, ce qui nuit aux rendements. Dans l’approche à là Andreessen Horowitz, l’enjeu est d’investir beaucoup mais également de facturer fort, ce qui n’est pas le cas des plus petits acteurs. « Les fonds plus petits ont généralement obtenu des rendements plus élevés, mais ils ont également eu des taux de pertes plus élevés. Les fonds plus importants ont tendance à avoir des rendements médians mais moins de pertes, ce qui signifie qu’ils sont des paris plus sûrs avec moins de potentiel de hausse », explique une analyste.
Mais on n’investit pas dans le capital-risque pour obtenir des rendements médians. Or, le développement de fonds de plusieurs milliards de dollars pourrait modifier le profil de rendement du capital-risque, qui n’est pas si bon, malgré ses promesses. La crise économique post-pandémie a modifié les cartes. « En 2022 et 2023, les sociétés de capital-risque ont investi plus d’argent qu’elles n’en ont rendu à leurs investisseurs, inversant une tendance qui durait depuis dix ans ». Comme l’expliquait le sociologue de la finance, Fabien Foureault, dans le 4e numéro de la revue Teque, parue l’année dernière, le capital-risque est intrinsèquement dysfonctionnel. Il favorise les emballements et effondrements, peine à inscrire une utilité sociale, et surtout, ses performances financières restent extrêmement médiocres selon les études longitudinales. “L’économie numérique, financée par le capital-risque, a été conçue par les élites comme une réponse au manque de dynamisme du capitalisme tardif. Or, on constate que cette activité se développe en même temps que les tendances à la stagnation et qu’elle n’arrive pas à les contrer.” La contribution du capital-risque à la croissance semble moins forte que le crédit bancaire et le crédit public ! “Le rendement de la financiarisation et de l’innovation est de plus en plus faible : toujours plus d’argent est injecté dans le système financier pour générer une croissance en déclin sur le long-terme”.
Hubert Guillaud
* Comme toujours, les grands patrons de la tech lancent des chiffres en l’air qui permettent surtout de voir combien ils sont déconnectés des réalités. Passer de 100 millions de revenus à 20 personnes à 1 milliard tout seul, nécessite de sauter des paliers et de croire aux capacités exponentielles des technologies, qui, malgré les annonces, sont loin d’être démontrées. Bien souvent, les chiffres jetés en l’air montrent surtout qu’ils racontent n’importe quoi, à l’exemple de Musk qui a longtemps raconté qu’il enverrait un million de personnes sur Mars en 20 ans (ça ne tient pas).
MAJ su 30/03/2025 : Politico livre une très intéressante interview de Catherine Bracy, la fondatrice de TechEquity (une association qui oeuvre à améliorer l’impact du secteur technologique sur le logement et les travailleurs), qui vient de publier World Eaters : How Venture Capital Is Cannibalizing the Economy (Penguin, 2025). Pour Bracy, le capital risque – moteur financier de l’industrie technologique – a un effet de distorsion non seulement sur les entreprises et leurs valeurs, mais aussi sur la société américaine dans son ensemble. « La technologie en elle-même est sans valeur, et c’est la structure économique qui lui confère son potentiel de nuisance ou de création d’opportunités qui la rend vulnérable ». Les investisseurs de la tech encouragent les entreprises à atteindre la plus grande taille possible, car c’est par des effets d’échelle qu’elle produit le rendement financier attendu, analyse-t-elle. Cependant, derrière cette croissance sous stéroïdes, « l’objectif est la rapidité, pas l’efficacité ». Et les conséquences de ces choix ont un coût que nous supportons tous, car cela conduit les entreprises à contourner les réglementations, à exploiter les travailleurs et à proposer des produits peut performants ou à risque pour les utilisateurs. L’objectif de rendements les plus élevés possibles nous éloignent des bonnes solutions. Pour elle, nous devrions imposer plus de transparence aux startups, comme nous le demandons aux entreprises cotées en bourse et renforcer l’application des régulations. Pour Bloomberg, explique-t-elle encore, la recherche d’une croissance sous stéroïde ne permet pas de s’attaquer aux problèmes de la société, mais les aggrave. Le problème n’est pas tant ce que le capital-risque finance que ce qu’il ne finance pas, souligne Bracy… et qui conduit les entreprises qui s’attaquent aux problèmes, à ne pas trouver les investissements dont elles auraient besoin. Si le capital-risque désormais s’intéresse à tout, il n’investit que là où il pense trouver des rendements. Les investissements privés sont en train de devenir des marchés purement financiers.
Une critique de son livre pour Bloomberg, explique que Bracy dénonce d’abord la monoculture qu’est devenue le capital-risque. Pour elle, cette culture de la performance financière produit plusieurs victimes. Les premières sont les entreprises incubées dont les stratégies sont modelées sur ce modèle et qui échouent en masse. « Les capitaux-risqueurs créent en grande partie des risques pour les entreprises de leurs portefeuilles » en les encourageant à croître trop vite ou à s’attaquer à un marché pour lequel elles ne sont pas qualifiées. Les secondes victimes sont les entrepreneurs qui ne sont pas adoubées par le capital-risque, et notamment tous les entrepreneurs qui ne correspondent pas au profil sociologique des entrepreneurs à succès. Les troisièmes victimes sont les capitaux-risqueurs eux-mêmes, dans les portefeuilles desquels s’accumulent les « sorties râtées » et les « licornes zombies ». Les quatrièmes victimes, c’est chacun d’entre nous, pris dans les rendements des startups modèles et dont les besoins d’investissements pour le reste de l’économie sont en berne.
Bracy défend un capital risque plus indépendant. Pas sûr que cela suffise effectivement. Sans attaquer les ratios de rendements qu’exigent désormais l’investissement, on ne résoudra pas la redirection de l’investissement vers des entreprises plus stables, plus pérennes, plus utiles… et moins profitables.
-
6:17
[Équipe Oslandia] Benoît Blanc, développeur SIG
sur OslandiaBenoît obtient un DUT Informatique à Lyon en 2010. Et c’est dans son village natal que son avenir se précise : une entreprise locale spécialisée dans les instruments de mesure et les services pour l’étude des mousses l’informe qu’elle aurait bien besoin d’une compétence en informatique
Benoît s’engage alors en licence professionnelle Informatique embarquée et mobile. L’entreprise pour l’accueillir en alternance est déjà trouvée !
De 2011 à 2018, il a en charge le développement en Delphi des logiciels qui pilotent les instruments de mesure fabriqués par l’entreprise composés notamment de caméras et modules d’acquisition de données nécessaires pour analyser et caractériser les propriétés chimiques des produits testés par les clients.
En 2018, licenciement économique … et virage technologique !
« J’ai eu quelques enseignements sur les SIG en licence. Je me suis renseigné sur mon temps personnel et j’ai découvert QGIS ce qui m’a donné envie de reprendre une formation : un Master Géographies Numériques. Je voulais continuer dans le développement informatique mais me spécialiser dans les SIG »
Benoît alterne pendant 2 ans, 6 mois de cours et 6 mois de stage avec un premier stage chez GiSmartware, un éditeur de logiciel de SIG propriétaire et un deuxième stage chez Oslandia !
« Un collaborateur d’Oslandia donnait des cours sur PostGIS dans mon master, j’avais identifié l’entreprise et suis allé proposer mon CV pour un stage en fin de cours, ça m’intéressait de découvrir l’open source ! »
Suite à son stage, Benoît est embauché chez Oslandia en tant que développeur SIG.
« Au quotidien, je fais essentiellement du web : du déploiement d’applications chez nos clients et des contributions sur de nouvelles fonctionnalités pour QWC et QFieldCloud notamment. En ce moment, je travaille au développement d’une application web pour la gestion des travaux d’installation et de maintenance de la fibre pour une société qui pose de la fibre optique en Afrique de l’Est. »
Projet emblématique« QWC – QGIS Web Client, c’est mon fil rouge depuis que je suis arrivé en stage ! J’ai découvert l’application, je l’ai déployée chez des clients (beaucoup de clients !) en apportant de nouvelles fonctionnalités dans la solution. Je suis même devenu core committer depuis quelques années ».
Technologies de prédilectionPython, React, Ansible, Docker
PhilosophieApporter des solutions techniques tout en maintenant un lien humain fort avec les clients.
Oslandia en 1 motExpertise
-
14:44
Prior Lake, une base de données complète sur les lacs dans le monde (données SWOT)
sur Cartographies numériquesSource : Wang, J., Pottier, Cl. Cazals, C & alii (2025). The Surface Water and Ocean Topography Mission (SWOT) Prior Lake Database (PLD) : Lake Mask and Operational Auxiliaries, Water Ressources Research, [https:]] (article et données en libre accès).
Résumé
Les lacs comptent parmi les réserves d'eau les plus répandues à la surface de la Terre. L'un des principaux objectifs de la mission satellite SWOT (Surface Water and Ocean Topography) est de surveiller l'élévation, la superficie et l'évolution des réserves d'eau de surface dans les lacs à l'échelle mondiale. Pour atteindre cet objectif, des informations préalables sur les lacs, telles que leur localisation et leur étendue de référence, sont nécessaires pour organiser les observations de SWOT et calculer la variation de leurs réserves au fil du temps. Nous présentons ici la base de données des Prior Lake (PLD) de la mission SWOT afin de répondre à cette exigence. Cet article met l'accent sur le développement de la « PLD opérationnelle », qui se compose (a) d'un masque haute résolution englobant environ 6 millions de lacs et réservoirs répondant au critère de taille minimale de 1 ha, tel que défini dans les objectifs scientifiques d'observation des lacs de SWOT, et (b) de multiples auxiliaires opérationnels qui soutiennent le masque des lacs dans la génération des produits de données vectorielles lacustres standard de SWOT. Nous avons construit le masque des lacs antérieurs en harmonisant l'ensemble de données mondiales sur les lacs Circa-2015 de l'UCLA et plusieurs bases de données de réservoirs de pointe. Des auxiliaires opérationnels ont été produits à partir de données géospatiales multithématiques afin de fournir des informations essentielles au fonctionnement du PLD, notamment sur les bassins versants et les zones d'influence des lacs, la phénologie des glaces, les relations avec les rivières antérieures SWOT et la couverture spatiotemporelle des survols SWOT. À l'échelle mondiale, plus des trois quarts des lacs antérieurs ont une superficie inférieure à 10 ha. Environ 97 % des lacs, soit la moitié de la superficie mondiale des lacs, sont intégralement observés au moins une fois par cycle orbital. Le PLD sera amélioré de manière récurrente tout au long de la mission et constitue un cadre essentiel pour l'organisation, le traitement et l'interprétation des observations SWOT sur les environnements lacustres, d'une importance fondamentale pour la science des systèmes lacustres.
Prior Lake est actuellement la base de données la plus complète sur les lacs (environ 6 millions) et leurs attributs associés. Elle sert également de base aux données SWOT sur les lacs.
Carte mondiale et répartition des lacs (source : Wang et al., 2025)
Données
Le PLD SWOT opérationnel est accessible en accès libre via la plateforme Hydroweb.next sous licence Etalab 2. GeoDAR est décrit dans Wang et al. (2022a) et la version 1.1 est accessible via Wang et al. (2022b) sous licence CC BY 4.0 sur le référentiel de données Zenodo. GREI-p2k est décrit dans Fan et al. (2024) et accessible via Song (2024) sous licence CC BY 4.0 sur la Banque de données scientifiques.
GRanD est décrit dans Lehner et al. (2011), et la version 1.3 est actuellement archivée et accessible via le site Web de Global Dam Watch (Mulligan et al., 2021).
HydroBASINS est décrit dans Lehner et Grill (2013), et la version 1.c est archivée et accessible via le site Web HydroSHEDS.
SWORD est décrit dans Altenau et al. (2021) et la version 17 est accessible en open data via Altenau et al. (2025) sur le référentiel de données Zenodo.
Les données SWOT Cal/Val et les bandes d'orbites scientifiques sont accessibles via le site Web des données altimétriques par satellite AVISO.
Articles connexes
L'évaporation des lacs dans le monde : une tendance à la hausse
Cartes et données SIG sur les petits et moyens réservoirs d'eau artificiels dans le monde
Un atlas mondial pour estimer les volumes d’eau des glaciers
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Nappes d'eau souterraine : bilan de l’évolution des niveaux en 2022-2023 (BRGM)
Les barrages vieillissants constituent une menace croissante à travers le monde (rapport de l'ONU)
Conflits liés à l'eau : les prévisions du site Water, Peace and Security
Rapport mondial des Nations Unies 2019 sur la mise en valeur des ressources en eau
-
10:15
State of the Global Climate 2024
sur Google Maps ManiaMET Office visualization of near surface temperatures since 1970 2024's Climate in CrisisThe World Meteorological Organization's (WMO) annual flagship report was published yesterday, and it makes for deeply concerning reading. Each year, the WMO releases its State of the Global Climate Report, providing an authoritative scientific summary of global climate trends and extreme weather events.The&
-
7:00
Red-teaming : vers des tests de robustesse de l’IA dans l’intérêt du public
sur Dans les algorithmesLe Red-teaming consiste à réunir des équipes multidisciplinaires pour procéder à des attaques fictives pour éprouver la robustesse de la sécurité d’un système informatique. Dans le domaine de l’IA, cela consiste à identifier les vulnérabilités des réponses d’un modèle de langage pour les corriger. Mais les questions méthodologiques auxquelles sont confrontées ces équipes sont nombreuses : comment et quand procéder ? Qui doit participer ? Comment intégrer les résultats… Les questions d’enjeux ne sont pas moindres : quels intérêts sont protégés ? Qu’est-ce qu’un comportement problématique du modèle et qui est habilité à le définir ? Le public est-il un objet à sécuriser ou une ressource utilisée ?…
Un rapport publié par Data & Society et AI Risk and Vulnerability Alliance (ARVA), par les chercheurs Ranjit Singh, Borhane Blili-Hamelin, Carol Anderson, Emnet Tafesse, Briana Vecchione, Beth Duckles et Jacob Metcalf, tente d’esquisser comment produire un red-teaming dans l’intérêt public.
À ce jour, la plupart des expériences de red-teaming en IA générale comportent quatre étapes :
- Organiser un groupe de penseurs critiques.
- Leur donner accès au système.
- Les inviter à identifier ou à susciter des comportements indésirables.
- Analyser les données probantes pour atténuer les comportements indésirables et tester les futurs modèles.
Actuellement, la méthode dominante pour réaliser la troisème étape est l’incitation manuelle et automatisée, qui consiste à tester les comportements erronés des modèles par l’interaction. Pour les chercheurs, qui ont recueilli les avis de participants à des équipes de red-teaming, si cette approche est précieuse, le red-teaming doit impliquer une réflexion critique sur les conditions organisationnelles dans lesquelles un modèle est construit et les conditions sociétales dans lesquelles il est déployé. Le red-teaming dans d’autres domaines, comme la sécurité informatique, révèle souvent des lacunes organisationnelles pouvant entraîner des défaillances du système. Les évaluations sociotechniques de l’IA générale gagneraient à s’inspirer davantage des pratiques existantes en matière de red-teaming et d’ingénierie de la sécurité.
Pour les chercheurs, les événements de Red-Teaming soulignent trop souvent encore l’asymétrie de pouvoir et limitent l’engagement du public à la seule évaluation des systèmes déjà construits, plutôt qu’aux systèmes en développement. Ils favorisent trop l’acceptation du public, le conduisant à intégrer les défaillances des systèmes, plutôt qu’à les résoudre ou les refuser. Enfin, ils restreignent la notion de sécurité et ne prennent pas suffisamment en cause les préjudices qu’ils peuvent causer ou les modalités de recours et de réparation proposé au grand public.
Le rapport dresse une riche histoire des pratiques d’amélioration de la sécurité informatique et de ses écueils, et de la faible participation du public, même si celle-ci a plutôt eu tendance à s’élargir ces dernières années. Reste que cet élargissement du public est encore bien timide. Il s’impose surtout parce qu’il permet de répondre au fait que l’IA générative couvre un large champ d’usages qui font que chaque prompt peut être une attaque des modèles. “L’objectif du red-teaming est de compenser le manque de bonnes évaluations actuelles pour les modèles génératifs”, explique une spécialiste, d’autant qu’il permet de créer “une réflexivité organisationnelle”, notamment du fait que les interactions avec les modèles sont très ouvertes et nécessitent d’élargir les perspectives de sécurité. Mais les pratiques montrent également la difficulté à saisir ce qui relève des défaillances des modèles, d’autant quand ce sont les utilisateurs eux-mêmes qui sont considérés comme des adversaires. Pourtant, dans ces pratiques de tests de robustesse adverses, les risques n’ont pas tous le même poids : il est plus simple de regarder si le modèle génère des informations privées ou du code vulnérable, plutôt que d’observer s’il produit des réponses équitables. En fait, l’une des grandes vertus de ces pratiques, c’est de permettre un dialogue entre développeurs et publics experts, afin d’élargir les enjeux de sécurité des uns à ceux des autres.
Le rapport souligne cependant que l’analyse automatisée des vulnérabilités se renforce (voir “Comment les IA sont-elles corrigées ?”), notamment via l’utilisation accrue de travailleurs du clic plutôt que des équipes dédiées et via des systèmes spécialisés dédiés et standardisés, prêts à l’emploi, afin de réduire les coûts de la correction des systèmes et ce même si ces attaques-ci pourraient ne pas être aussi “novatrices et créatives que celles développées par des humains”. Le risque c’est que le red-teaming ne devienne performatif, une forme de “théâtre de la sécurité”, d’autant que le régulateur impose de plus en plus souvent d’y avoir recours, comme c’est le cas de l’AI Act européen. Or, comme le pointe un red-teamer, “ce n’est pas parce qu’on peut diagnostiquer quelque chose qu’on sait comment le corriger”. Qui détermine si le logiciel respecte les règles convenues ? Qui est responsable en cas de non-respect des règles ? L’intégration des résultats du red-teaming est parfois difficile, d’autant que les publications de leurs résultats sont rares. D’où l’importance des plateformes qui facilitent le partage et l’action collective sur les problèmes d’évaluation des systèmes d’IA, comme Dynabench.
“Nous devons repenser la relation entre l’IA et la société, passant d’une relation conflictuelle à une relation co-constitutive”, plaident les chercheurs. C’est la seule à même d’aider à dépasser la confusion actuelle sur la fonction du red-teaming, qu’elle relève des conflits de méthodes, de pouvoir, d’autorité ou d’expertise. Les meilleures pratiques ne le sont pas nécessairement. Le Titanic a été construit selon les meilleures pratiques de l’époque. Par définition, le red-teaming consiste à examiner les réponses des modèles de manière critique, mais uniquement selon les meilleures pratiques du moment. Le red-teaming a tendance à porter plus d’attention aux méthodes holistiques de red-teaming (comme les simulations) qu’à ceux qui se concentrent sur l’évaluation des dommages causés par l’IA aux utilisateurs normaux. Trop souvent encore, le red-teaming consiste à améliorer un produit plus qu’à améliorer la sécurité du client, alors que le red-teaming élargi aux publics consiste à mieux comprendre ce qu’ils considèrent comme problématique ou nuisible tout en leur permettant d’être plus conscients des limites et défaillances. Pour les chercheurs, nous avons plus que jamais besoin “d’espaces où le public peut débattre de ses expériences avec les systèmes d’IA générale”, d’espaces participatifs, disaient déjà une précédente recherche de plusieurs de ces mêmes chercheurs. Le risque, c’est que cet élargissement participatif que permet certains aspects du red-teaming ne se referme plus qu’il ne s’étende.
-
22:04
L’Afghanistan, un trou noir entre les empires
sur Les cafés géographiquesBeaucoup de monde ce mardi 10 mars au Flore pour écouter parler d’un pays, l’Afghanistan, dont le comportement extravagant des dirigeants suscite toujours beaucoup d’émotion. L’intervenant, Régis Koetschet, est doublement engagé comme homme de terrain et de réflexion. Ambassadeur de France à Kaboul de 2005 à 2008, il travaille aujourd’hui dans des organisations humanitaires auprès de la diaspora afghane en France.
Régis Koetschet au Café de Flore lundi 10 mars 2025 (photo de J.-P. Némirowsky)
Un pays pas comme les autres ? C’est ce qu’ont dit beaucoup d’observateurs. Pour Babur, fondateur de l’Empire moghol au début du XVIe siècle comme pour Nicolas Bouvier, écrivain voyageur suisse du XXe siècle, « Kaboul est au centre du monde habité ».
Situation géographique
Ce pays de très hautes montagnes ne voit ses frontières stabilisées qu’au XIXe siècle après l’intervention anglaise. Au Nord-Est (la « queue de la casserole »), c’est le Pamir, strié de routes par les Chinois, qui fait frontière avec la Chine. Au Nord, l’Amou-Daria sert de frontière avec les pays d’Asie centrale qui furent des Républiques soviétiques jusqu’en 1991. Le fleuve représentait alors la cassure entre la modernité soviétique et l’archaïsme afghan. A l’Est, les 1000 km de frontières avec l’Iran sont perméables au trafic de drogue. Au Sud, la frontière tracée par les Britanniques en 1893 divise le peuple pachtoune entre Afghanistan et Pakistan. Non reconnue officiellement, elle est le lieu de nombreux accrochages.
Malgré le relief tourmenté et élevé, le pays ne souffre pas d’enfermement grâce à ses vallées profondément creusées. Les Afghans ont un sentiment d’unité nationale. Aujourd’hui la région est « aspirée » par les pays du Golfe où la diaspora afghane est nombreuse, elle sert d’axe Nord/Sud entre Asie centrale et océan Indien.
Population
La population est difficile à évaluer précisément (entre 35 et 42 millions habitants), mais la pression démographique est importante (forte croissance depuis les années 1960).
Les quatre groupes qui la constituent ont de nombreux membres au-delà des frontières. Les plus nombreux sont les Pachtounes (entre 38 et 42%), suivis par les Tadjiks (entre 25 et 32%), de culture persane, puis par les Hazaras (entre 9 et 19%), méprisés car chiites. Les Ouzbeks, de culture turque, forment le dernier groupe.
Peut-on parler de « tribus » ? Ce terme n’est pertinent que pour les Pachtounes qui ont un code d’honneur oral structurant le fonctionnement de la société. Fondé essentiellement sur la protection de la réputation des familles, il irrigue aujourd’hui l’ensemble de la société afghane.
La population urbaine a fortement augmenté depuis les années 60. En 2023 elle était de 26,93 %. Cela s’explique par des raisons politiques et climatiques. Le pays est très exposé au changement climatique (fonte des glaciers, déforestation, fragilité des sols…), ce qui entraîne le dépeuplement des villages. La croissance de Kaboul est même hors de contrôle par manque de ressources hydriques. La pauvreté est donc très forte (90% de la population au-dessous du seuil de pauvreté).
Aspects géopolitiques
L’Afghanistan est le lieu du pivot eurasiatique car il se trouve au cœur d’une région où se sont développées de fortes entités (Inde, Turquie …). Aujourd’hui, il est traversé par les « routes de la soie » ferroviaires et routières et par les oléoducs qui transportent le gaz turkmène vers l’Inde. Donc à son corps défendant, ce pays est au cœur d’un écheveau dont on ne sait pas comment il va évoluer.
Histoire
L ’Afghanistan a connu tous les régimes.
La monarchie est établie en 1926 avec le souci de moderniser le pays, de sortir de l’isolationnisme, de scolariser la population (des étudiants sont envoyés en France). Cette période correspond à un âge d’or mythique que l’on retrouve dans les romans de J. Kessel comme Les Cavaliers.
La monarchie est renversée par un coup d’Etat en 1973. Mohammad Daoud Khan instaure la République avant d’être renversé par le parti communiste (PDPA), en 1978, ce qui entraîne une guerre civile. Pour soutenir leur candidat, les Soviétiques envahissent le pays en 1979. S’ensuivent 10 années de guerre civile où les troupes soviétiques affrontent les moudjahidines (« combattants de la liberté »). Le départ de l’Armée rouge en 1989 n’entraîne pas la fin de la guerre civile où s’opposent désormais différents groupes de moudjahidines. Cette guerre civile a fait le lit du régime des talibans qui prétendent faire la paix. Ceux-ci, fondamentalistes islamiques, installent leur pouvoir à Kaboul de 1996 à 2001, sous la direction du mollah Omar. La violence ravage le pays (lutte entre combattants et massacres de civils), ce qui suscite une grande méfiance au sein de la communauté internationale d’autant plus qu’il accueille l’association terroriste Al-Qaïda et son chef Oussama Ben Laden. Les attentats du 11 septembre 2001 à New York, planifiés par Ben Laden, amènent l’intervention des Etats-Unis à la tête d’une coalition internationale. Le pouvoir taliban est rapidement balayé et un nouveau pouvoir est installé. Mais peu à peu les Américains, préoccupés par la situation en Irak, s’intéressent moins à l’Afghanistan et retirent leurs troupes en 2021. Les talibans prennent à nouveau le contrôle de Kaboul puis de tout le pays.
L’engagement en faveur des Afghans
Régis Koetschet insiste sur les énormes souffrances subies par les Afghans, ce qui motive son engagement dans des organisations caritatives cherchant à aider la population afghane.
Si le mouvement taliban est hétérogène, ce sont les plus conservateurs qui imposent une « purification » forcenée de la société. L’oppression des femmes qui disparaissent de l’espace public est sans fondement religieux. Les ONG constituent leur prochaine cible. C’est un des principaux enjeux du moment car il est important de rester en Afghanistan pour ne pas laisser les Afghans seuls.
Diaspora afghane
Les Afghans ont une tradition de déplacement. C’est un peuple « marcheur », poussé à partir par la pauvreté de leurs terres. Aujourd’hui, la majorité des femmes voudraient quitter le pays.
Parmi de nombreux pays, la France accueille un courant migratoire important alimenté par beaucoup de jeunes qui se sentent menacés par les talibans et sont poussés par leur famille à partir. Parmi eux certains ont un parcours brillant comme Atiq Rahimi, écrivain et réalisateur, qui a obtenu le prix Goncourt en 2008 pour son roman Syngué sabour (Terre de patience). En France, les jeunes Afghans courent deux risques : la reconstitution des communautés (pachtoune, hazara…) et l’appel à des discours violents. Aujourd’hui ces exilés, grâce aux téléphones portables, gardent des liens étroits avec leur famille.
Poésie
Elle constitue le principal espace de liberté des Afghans qui y consacrent des soirées entières. Les femmes occupent une place importante dans la création poétique. On peut consulter Le cri des femmes afghanes (éditions Bruno Doucey, 2022), anthologie établie par Leili Anvar qui rassemble les textes de 41 poétesses. Le sort de Nadia Anjuman, auteur de plusieurs recueils de poèmes et tuée par son mari à 23 ans, témoigne du courage de ces femmes afghanes dont la créativité s’exerce malgré la violence sociale.
Afghanistan et France
Devenu roi d’Afghanistan, Amanullah se tourne vers la France pour moderniser son pays. En 1922 après des premiers contacts à Téhéran est créée une Délégation archéologique française en Afghanistan. Les premières fouilles sont réalisées sous la direction d’Alfred Foucher. Des écoles sont aussi mises en place. On peut dire que la culture a précédé la diplomatie, ce sur quoi a insisté de Gaulle en évoquant « des liens surtout culturels » entre les deux pays.
Questions de la salle :
1-Les talibans sont-ils des « créatures » des Américains ?
Il n’y a pas de continuité entre les moudjahidines et les talibans. Les premiers sont marqués par un fonctionnement traditionnel. Il se battaient pour leur liberté et étaient hostiles au mouvement révolutionnaire agraire des communistes. Les seconds sont issus d’un mouvement parti des madrasas (écoles coraniques) du Pakistan.
2-Quelle place occupe la culture du pavot dans les finances des talibans ?
Un rapport récent de l’ONU indique qu’officiellement on n’en cultive plus en Afghanistan, mais il est difficile de savoir ce qui se passe dans les vallées reculées.
3-Le régime taliban est-il totalement répressif ? Y a-t-il une absence totale d’opposition ?
Les observateurs évoquent une certaine fluidité que peuvent expliquer plusieurs raisons. En premier lieu, la population, fatiguée, trouve une certaine sécurité dans la situation actuelle. Mais il ne faut pas sous-estimer le caractère policier du régime qui opprime une opposition sans appuis extérieurs. Le pays reste largement enfermé, même s’il y a une reprise du tourisme chinois, européen…et de nouveaux investissements venus du Golfe.
Les pays européens n’ont pas repris de relations diplomatiques avec l’Afghanistan mais ont eu des contacts avec le régime taliban à Doha en juin 2024 lors de la rencontre organisée par l’ONU.
4-Dans la salle, un participant afghan insiste sur la situation des femmes afghanes menacées en France même, la France qui a accueilli beaucoup d’intellectuels et d’artistes. Ces exilés son soutenus par de nombreuses associations comme la Fondation Aga Khan.
Michèle Vignaux, mars 2025
-
21:17
Café géo d’Albi, 19 mars 2025 : « Retiens la Nuit : quels enjeux pour la lutte contre la pollution lumineuse ? »
sur Les cafés géographiquesCentième café albigeois, mercredi 19 mars 2025, à 18h, au Shamrock (6 rue du Dr Camboulives).
Le thème est : « Retiens la Nuit : quels enjeux pour la lutte contre la pollution lumineuse ? »
20250319_#100_CafeGeoAlbigeois_Nuit_Challeat
-
15:22
Nouvelle limite des paramètres HEIGHT et WIDTH du WMS Raster public à partir du 31 mars
sur Toute l’actualité des Geoservices de l'IGNNouvelle limite des paramètres HEIGHT et WIDTH du WMS Raster public à partir du 31 mars
-
15:22
Nouvelle limite des paramètres HEIGHT et WIDTH du WMS-Raster public de la Géoplateforme à partir du 31 mars
sur Toute l’actualité des Geoservices de l'IGNNouvelle limite des paramètres HEIGHT et WIDTH du WMS-Raster public de la Géoplateforme à partir du 31 mars 2025
-
15:22
Nouvelle limite des paramètres HEIGHT et WIDTH du WMS-Raster public de la Géoplateforme à partir du 14 avril
sur Toute l’actualité des Geoservices de l'IGNNouvelle limite des paramètres HEIGHT et WIDTH du WMS-Raster public de la Géoplateforme à partir du 14 avril 2025
-
14:00
OSM Data : Extrusion des données en 3D
sur GeotribuOSM DATA 3D : des données 2D à leur représentation en 3D
-
9:47
Open Access, Open Source: OpenTimes
sur Google Maps ManiaOpenTimes is an interactive travel-time map of the United States. Click on any location, and instantly view an isochrone map that shows how far you can travel from that spot within different time frames and via various modes of transport.But OpenTimes is more than just an interactive isochrone map. It’s also an open-source platform offering free, pre-computed travel times between United
-
7:00
Inférences : comment les outils nous voient-ils ?
sur Dans les algorithmesComment les systèmes interprètent-ils les images ? Ente, une entreprise qui propose de chiffrer vos images pour les échanger de manière sécurisée sans que personne d’autres que ceux que vous autorisez ne puisse les voir, a utilisé l’API Google Vision pour montrer comment les entreprises infèrent des informations des images. C’est-à-dire comment ils les voient, comment les systèmes automatisés les décrivent. Ils ont mis à disposition un site pour nous expliquer comment « ILS » voient nos photos, qui permet à chacun d’uploader une image et voir comment Google Vision l’interprète.
Sommes-nous ce que les traitements disent de nous ?Le procédé rappelle le projet ImageNet Roulette de Kate Crawford et Trevor Paglen, qui renvoyait aux gens les étiquettes stéréotypées dont les premiers systèmes d’intelligence artificielle affublaient les images. Ici, ce ne sont pas seulement des étiquettes dont nous sommes affublés, mais d’innombrables données inférées. Pour chaque image, le système produit des informations sur le genre, l’origine ethnique, la localisation, la religion, le niveau de revenu, les émotions, l’affiliation politique, décrit les habits et les objets, pour en déduire des passe-temps… mais également des éléments de psychologie qui peuvent être utilisés par le marketing, ce qu’on appelle les insights, c’est-à-dire des éléments permettant de caractériser les attentes des consommateurs. Par exemple, sur une des images en démonstration sur le site représentant une famille, le système déduit que les gens priorisent l’esthétique, sont facilement influençables et valorisent la famille. Enfin, l’analyse associe des mots clefs publicitaires comme albums photos personnalisé, produits pour la peau, offre de voyage de luxe, système de sécurité domestique, etc. Ainsi que des marques, qui vont permettre à ces inférences d’être directement opérationnelles (et on peut se demander d’ailleurs, pourquoi certaines plutôt que d’autres, avec le risque que les marques associéées démultiplient les biais, selon leur célébrité ou leur caractère international, comme nous en discutions en évoquant l’optimisation de marques pour les modèles génératifs).
Autant d’inférences probables, possibles ou potentielles capables de produire un profil de données pour chaque image pour leur exploitation marketing.
Comme l’explique le philosophe Rob Horning, non seulement nos images servent à former des modèles de reconnaissance d’image qui intensifient la surveillance, mais chacune d’entre elles produit également des données marketing disponibles pour tous ceux qui souhaitent les acheter, des publicitaires aux agences de renseignement. Le site permet de voir comment des significations sont déduites de nos images. Nos photos, nos souvenirs, sont transformés en opportunités publicitaires, identitaires et consuméristes, façonnées par des logiques purement commerciales (comme Christo Buschek et Jer Thorp nous l’avaient montré de l’analyse des données de Laion 5B). L’inférence produit des opportunités, en ouvre certaines et en bloque d’autres, sur lesquelles nous n’avons pas la main. En nous montrant comment les systèmes interprètent nos images, nous avons un aperçu de ce que, pour les machines, les signifiants signifient.
Mais tout n’est pas parfaitement décodable et traduisible, transparent. Les inférences produites sont orientées : elles ne produisent pas un monde transparent, mais un monde translucide. Le site They see your photos nous montre que les images sont interprétées dans une perspective commerciale et autoritaire, et que les représentations qu’elles produisent supplantent la réalité qu’elles sont censées interpréter. Il nous permet de voir les biais d’interprétation et de nous situer dans ceux-ci ou de nous réidentifier sous leur répétition.
Nous ne sommes pas vraiment la description produite de chacune de ces images. Et pourtant, nous sommes exactement la personne au coeur de ces descriptions. Nous sommes ce que ces descriptions répètent, et en même temps, ce qui est répété ne nous correspond pas toujours ou pas du tout.
Exemples d’intégration d’images personnelles dans TheySeeYourPhotos qui montrent les données qui sont inférées de deux images. Et qui posent la question qui suis-je ? Gagne-je 40 ou 80 000 euros par mois ? Suis-je athée ou chrétien ? Est-ce que je lis des livres d’histoire ou des livres sur l’environnement ? Suis-je écolo ou centriste ? Est-ce que j’aime les chaussures Veja ou les produits L’Oréal ? Un monde indifférent à la vérité
L’autre démonstration que permet le site, c’est de nous montrer l’évolution des inférences publicitaires automatisées. Ce que montre cet exemple, c’est que l’enjeu de régulation n’est pas de produire de meilleures inférences, mais bien de les contenir, de les réduire – de les faire disparaître voire de les rendre impossibles. Nous sommes désormais coincés dans des systèmes automatisés capables de produire de nous, sur nous, n’importe quoi, sans notre consentement, avec un niveau de détail et de granularité problématique.
Le problème n’est pas l’automatisation publicitaire que ce délire de profilage alimente, mais bien le délire de profilage automatisé qui a été mis en place. Le problème n’est pas la qualité des inférences produites, le fait qu’elles soient vraies ou fausses, mais bien le fait que des inférences soient produites. La prévalence des calculs imposent avec eux leur monde, disions-nous. Ces systèmes sont indifférents à la vérité, expliquait le philosophe Philippe Huneman dans Les sociétés du profilage (Payot, 2023). Ils ne produisent que leur propre renforcement. Les machines produisent leurs propres mèmes publicitaires. D’un portrait, on propose de me vendre du cognac ou des timbres de collection. Mais ce qu’on voit ici n’est pas seulement leurs défaillances que leurs hallucinations, c’est-à-dire leur capacité à produire n’importe quels effets. Nous sommes coincés dans un régime de facticité, comme le dit la philosophe Antoinette Rouvroy, qui finit par produire une vérité de ce qui est faux.
Où est le bouton à cocher pour refuser ce monde ?Pourtant, l’enjeu n’est pas là. En regardant très concrètement les délires que ces systèmes produisent on se demande surtout comment arrêter ces machines qui ne mènent nulle part ! L’exemple permet de comprendre que l’enjeu n’est pas d’améliorer la transparence ou l’explicabilité des systèmes, ou de faire que ces systèmes soient plus fiables, mais bien de les refuser. Quand on comprend la manière dont une image peut-être interprétée, on comprend que le problème n’est pas ce qui est dit, mais le fait même qu’une interprétation puisse être faite. Peut-on encore espérer un monde où nos photos comme nos mots ne sont tout simplement pas interprétés par des machines ? Et ce alors que la grande interconnexion de celles-ci facilite ce type de production. Ce que nous dit « They see your photos », c’est que pour éviter ce délire, nous n’avons pas d’autres choix que d’augmenter considérablement la confidentialité et le chiffrement de nos échanges. C’est exactement ce que dit Vishnu Mohandas, le développeur de Ente.
Hubert Guillaud
MAJ du 25/03/2025 : Il reste une dernière inconnue dans les catégorisations problématiques que produisent ces outils : c’est que nous n’observons que leurs productions individuelles sur chacune des images que nous leurs soumettons… Mais nous ne voyons pas les catégorisations collectives problématiques qu’ils peuvent produire. Par exemple, combien de profils de femmes sont-ils catalogués comme à « faible estime de soi » ? Combien d’hommes catégorisés « impulsifs » ? Combien d’images de personnes passées un certain âge sont-elles caractérisées avec des mots clés, comme « alcool » ? Y’a-t-il des récurrences de termes selon le genre, l’âge putatif, l’origine ou le niveau de revenu estimé ?… Pour le dire autrement, si les biais individuels semblent innombrables, qu’en est-il des biais démographiques, de genre, de classe… que ces outils produisent ? L’exemple permet de comprendre très bien que le problème des biais n’est pas qu’un problème de données et d’entraînement, mais bien de contrôle de ce qui est produit. Ce qui est tout de suite bien plus problématique encore…
-
0:09
DbToolsBundle : sortie de la version 2
sur Makina CorpusDécouvrez les nouveautés de la version 2 du DbToolsBundle, au programme : version Standalone, Docker et Laravel
-
18:06
Appel à participants - GT participation citoyenne aux communs numériques
sur Conseil national de l'information géolocaliséeAppel à participants - GT participation citoyenne aux communs numériques -
18:06
Appel à participants - GT participation citoyenne aux communs numériques
sur Conseil national de l'information géolocaliséeAppel à participants - GT participation citoyenne aux communs numériques -
17:56
Décret n° 2025-240 du 14 mars 2025 relatif à la mise à disposition par les communes de Polynésie française et de Nouvelle-Calédonie des données relatives à la dénomination des voies et à la numérotation des maisons et autres constructions
sur Conseil national de l'information géolocaliséeDécret n° 2025-240 du 14 mars 2025 relatif à la mise à disposition par les communes de Polynésie française et de Nouvelle-Calédonie des données relatives à la dénomination des voies et à la numérotation des maisons et autres constructions -
17:56
Décret n° 2025-240 du 14 mars 2025 relatif à la mise à disposition par les communes de Polynésie française et de Nouvelle-Calédonie des données relatives à la dénomination des voies et à la numérotation des maisons et autres constructions
sur Conseil national de l'information géolocaliséeDécret n° 2025-240 du 14 mars 2025 relatif à la mise à disposition par les communes de Polynésie française et de Nouvelle-Calédonie des données relatives à la dénomination des voies et à la numérotation des maisons et autres constructions
-
17:44
Votre chatbot OneGeo Chat : décryptage technique
sur Neogeo TechnologiesLes chatbots sont partout, OneGeo Chat ne se limite pas à des réponses génériques : il exploite vos jeux de données ! Grâce à l’architecture RAG (Retrieval Augmented Generation), il interroge et croise les informations disponibles pour fournir des réponses précises et contextualisées, adaptées à votre domaine.
Un chatbot, mais pas n’importe lequel !Cet article s’adresse à celles et ceux qui veulent aller plus loin et découvrir l’envers du décor : architecture, choix technologiques, infrastructure… On vous embarque dans les coulisses du développement de OneGeo Chat !
Derrière l’écran : l’équipe aux manettes
Derrière OneGeo Chat, c’est nous, l’équipe du service Innovation de Neogeo Toulouse, qui sommes aux manettes : Sébastien Da Rocha et Mathilde Pommier. Passionnés par les avancées en traitement du langage naturel (NLP : Natural Language Processing), nous nous sommes appuyés sur les recherches les plus récentes pour concevoir un chatbot à la fois performant et réellement utile. Plutôt que de développer un assistant générique, nous avons voulu créer un outil capable d’exploiter vos jeux de données, afin de fournir des réponses précises et adaptées à votre contexte métier.
Pourquoi OneGeo Chat ?
L’idée de OneGeo Chat est née de l’observation de certains défis récurrents rencontrés par nos utilisateurs dans leur manière de rechercher des jeux de données. Nous disposons déjà de OneGeo Explorer, un outil performant pour la recherche full-text. Ce dernier présente une limite : si l’utilisateur ne connaît pas précisément les termes exacts présents dans les jeux de données qu’il cherche, il risque de ne pas le trouver. Ce constat a révélé un besoin : celui d’une recherche plus flexible, adaptée à des utilisateurs qui ne savent pas toujours comment formuler leur requête.
Un autre besoin que nous avons identifié est celui de questionner les jeux de données sur des sujets vastes et complexes. Lorsque l’utilisateur se lance dans la recherche d’informations, il n’a pas toujours une idée claire de tous les aspects du sujet qu’il explore. Il manque souvent une interaction dynamique qui permettrait d’approfondir la recherche au fur et à mesure, de poser des questions spécifiques et d’obtenir des réponses contextualisées. C’est pour cela que nous avons choisi le format du chatbot : offrir un échange fluide, comme une conversation, pour guider l’utilisateur dans sa recherche.
Enfin, un autre point important est que, souvent, les utilisateurs effectuent des recherches similaires ou cherchent à retrouver des informations qu’ils ont déjà consultées. Le chatbot permet donc de garder une trace des recherches en les enregistrant dans différentes conversations. Cela permet de classer et de retrouver plus rapidement des données pertinentes, facilitant ainsi les futurs échanges.
C’est en réponse à ces besoins que OneGeo Chat a vu le jour : une solution qui permet non seulement de questionner les jeux de données de manière plus naturelle, mais aussi de garder une trace de ses recherches et de faciliter l’exploration même pour les sujets les plus complexes.
Une intégration aux petits oignons
Dès la phase de conception, OneGeo Chat a été pensé pour s’intégrer de manière fluide dans la plateforme OneGeo Suite, afin d’offrir une expérience unifiée aux utilisateurs. Tout comme OneGeo Explorer, l’objectif était de créer un point d’entrée unique où les utilisateurs peuvent gérer, rechercher et visualiser leurs jeux de données, sans avoir à jongler entre plusieurs outils. Cette intégration permet de centraliser l’accès aux données tout en optimisant la fluidité de l’expérience utilisateur.
Cependant, nous avons également pris en compte le besoin de flexibilité. Ainsi, OneGeo Chat a été conçu pour fonctionner en stand-alone, de manière totalement autonome, pour les utilisateurs ayant des besoins plus modestes ou spécifiques. Cette modularité de la solution, à la fois en termes d’intégration dans un environnement plus large ou de déploiement indépendant, permet à OneGeo Chat de s’adapter à différentes configurations et de répondre à une large variété de cas d’usage.
Dans les coulisses du codeC’est ici que ça se corse !
On plonge maintenant au cœur de la technique et des choix qui ont façonné OneGeo Chat. Préparez-vous à découvrir comment ce projet a été conçu, les technologies utilisées et l’infrastructure qui permet à ce chatbot de fonctionner sans accroc.
Les fondations du projet Le principe de RAG (Retrieval Augmented Generation)
Au cœur de OneGeo Chat se trouve une architecture puissante qui combine deux technologies : la génération de texte par IA et la récupération d’informations métier. Ce modèle, appelé RAG, permet à notre chatbot d’aller au-delà de la simple génération de réponses. Plutôt que de s’appuyer uniquement sur des connaissances internes, il interroge une base de données vectorielle contenant vos jeux de données pour y chercher des informations pertinentes, puis génère une réponse en fonction de ces données.
Le processus se déroule en deux étapes principales : d’abord, le moissonnage (harvest) des différentes sources de données afin de remplir une base de données vectorielle qui servira au modèle lors de son utilisation (inférence). Puis, l’étape d’inférence où l’utilisateur pose sa question au chatbot et où l’application répond grâce à un modèle d’IA.
Cette seconde étape est elle-même divisée en deux avec, il y a d’abord la phase de récupération des données pertinentes pour la question de l’utilisateur (le retrieval). Ici, le chatbot consulte la base de données vectorielle précédemment remplie dans l’étape de harvest pour récupérer des documents en lien avec la question posée.
Plutôt que de rechercher une correspondance exacte (full-text, comme dans OneGeo Explorer), le modèle se base sur la proximité vectorielle des termes. Autrement dit, il évalue la similarité sémantique entre la question de l’utilisateur et les documents stockés, ce qui lui permet d’identifier des réponses pertinentes même si les termes exacts ne sont pas présents dans les jeux de données. Cela implique donc de vectoriser à la fois les documents en base et la question de l’utilisateur avec un seul et même modèle sémantique.
Une fois les documents pertinents récupérés, ces derniers forment ce qu’on appelle un contexte qui va venir nourrir un LLM (Large Language Model : modèle d’IA générative). En somme, ce contexte offre une base à l’IA et l’oriente dans la bonne direction pour générer une réponse précise à la question de l’utilisateur. Ainsi, la technique utilisée est la même que celle que vous employez quand vous détaillez votre demande dans d’autres chatbots.
C’est donc ainsi que s’achève le modèle de RAG, qui permet donc au modèle d’IA de générer des réponses basées sur les jeux de données de l’utilisateur. Un RAG classique se termine ainsi, mais on verra par la suite que le nôtre comprend une étape supplémentaire.
Le RAG de OneGeo ChatMaintenant que le principe général du RAG est clair, passons aux spécificités de son implémentation dans OneGeo Chat. Notre approche va plus loin qu’un simple Retrieval Augmented Generation classique en intégrant des mécanismes avancés pour optimiser la récupération et l’exploitation des informations.
Lors de la phase de moissonnage, notre base de données vectorielle est enrichie avec les jeux de données issus de la plateforme OneGeo Suite. Cette dernière push (pousse) ses méta-données publiées et celles moissonnées dans la base de données vectorielle de OneGeo Chat. Bien sûr, seules les données accessibles en anonymes sont disponibles. La base vectorielle peut aussi (mais ce n’est pas obligatoire) être alimentée en pull (tirant) des données de notre application de management de projet : Redmine. À l’avenir, d’autres sources de données seront ajoutées, vous pourrez également rajouter les votres. Ainsi, ces deux mécanismes (de push et pull) remplissent ainsi la base de données vectorielle de OneGeo Chat avec vos données.
Plus concrètement, la recherche sémantique n’est réalisable et efficace que sur de petits morceaux de texte de quelques centaines de caractères. De ce fait, les documents ne sont pas conservés tels quels dans la base de données vectorielle de OneGeo Chat. Ces derniers sont donc découpés en phrases avant que celles-ci ne soient indexées grâce à cette représentation vectorielle. Bien sûr, chaque phrase est enregistrée avec un lien vers son document d’origine pour que l’on puisse remonter jusqu’à ce dernier.
De plus, OneGeo Chat ne se limite pas à récupérer les documents les plus pertinents dans une base vectorielle, en effet, ce dernier adopte une approche plus complète et modulaire. Nous avons mis en place un système de chaînage de retrievers, permettant d’agréger plusieurs types d’informations pour former le contexte à envoyer au modèle génératif :
- Une pré instruction codée en dur : avant même de chercher des documents, le chatbot récupère un ensemble de directives définissant son comportement (langue de réponse, citation des sources, etc.).
- L’historique de conversation : pour assurer une réelle continuité dans l’échange, le chatbot prend en compte les messages précédents de la conversation en cours.
- Les titres de documents les plus pertinents : afin d’affiner la recherche, nous utilisons un premier filtre basé sur les titres des documents les plus proches de la requête utilisateur. Cela permet d’orienter efficacement le processus de récupération.
- Les documents les plus pertinents dans la base vectorielle : une fois ces étapes réalisées, le chatbot interroge la base vectorielle pour récupérer les documents les plus en adéquation avec la question posée. On récupère uniquement les données pertinentes d’un point de vue sémantique : le titre, la description et autres métadonnées (mais pas les dates par exemple).
Grâce à cette architecture modulaire, il est possible d’ajouter, d’orchestrer ou de retirer des retrievers à tout moment, offrant ainsi une grande flexibilité pour tester et sélectionner différents algorithmes de récupération et de génération.
Finalement, OneGeo Chat possède une dernière particularité s’ajoutant au RAG classique : un bloc supplémentaire nommé Document Searcher. Ce module intervient une fois la réponse générée par le LLM et se concentre sur le cas d’utilisation de la recherche documentaire. Pour cela, ce module prend en entrée la question initiale ainsi que la réponse générée. Il effectue des recherches sémantiques dans la base de données vectorielle sur ces données d’entrées. À l’issue de ce processus, les cinq documents les plus pertinents sont sélectionnés et présentés à l’utilisateur, accompagnés d’un lien, d’une description et de son score.
Ainsi, le chatbot OneGeo Chat vous permet d’accéder directement aux jeux de données les plus pertinents en lien avec votre question initiale.
Vous trouverez l’ensemble des modules composants OneGeo Chat dans le schéma suivant.
Un savant mélange de technos libres au cœur de OneGeo Chat
OneGeo Chat repose sur plusieurs technologies qui assurent son bon fonctionnement, aussi bien côté intelligence artificielle que sur les aspects backend, frontend et validation.
Pour la partie IA, deux modèles sont utilisés : Llama 3.1:8b pour la génération LLM des réponses et paraphrase-multilingual-MiniLM-L12-v2 pour la recherche sémantique. Vous avez d’ailleurs déjà pu voir ces modèles sur le schéma précédent. Nous avons sélectionné ces modèles non seulement pour leurs performances, mais aussi pour leur taille réduite, ce qui facilite leur exécution (le temps de réponse). De plus, ils sont disponibles via Ollama, une solution qui simplifie la gestion, l’utilisation et l’interchangeabilité des modèles.
Le backend est développé en Python et avec le framework Django. Pour ce qui est de la base de données vectorielles, nous avons fait le choix de QDrant, qui permet d’effectuer facilement les recherches sémantiques. Cette base de données vectorielle est également légère et facilement déployable. Pour gérer la communication en temps réel, nous utilisons Django Channels, qui permet d’intégrer facilement les WebSockets à Django. Cette technologie nous permet de facilement gérer les conversations. Par ailleurs, Django REST Framework (DRF) facilite l’interaction avec la base de données et les échanges entre le frontend et le backend.
Côté frontend, l’interface est construite avec VueJS 3 et TypeScript. On a opté pour TypeScript plutôt que JavaScript afin de bénéficier de ses règles de typage, ce qui permet de limiter les bugs, d’améliorer la clarté du code et de faciliter sa maintenance sur le long terme.
Également, au service innovation de Neogeo, nous accordons une grande importance à la qualité et à la fiabilité de nos développements. Pour garantir un code robuste et maintenir un haut niveau de tests et validation, nous avons mis en place une CI (Intégration Continue) dans le GitLab du projet OneGeo Chat.
Nous utilisons notamment MyPy pour l’analyse statique du code backend Python, ce qui nous permet de détecter les incohérences de typage avant même l’exécution du programme. Pour le suivi de la qualité du code, SonarQube analyse notre code en profondeur afin de détecter d’éventuels bugs, code smells et évaluer notre couverture de code. Quant aux tests en eux-mêmes, Pytest est notre outil principal pour l’exécution des tests unitaires et d’intégration backend. Côté frontend, nous avons quelques tests Cypress, mais ces derniers restent basiques et ne sont pas intégrés dans la CI, mais exécutables manuellement.
Aussi, nous avons l’outil Pip-audit qui nous aide à identifier les vulnérabilités de sécurité dans les dépendances Python et à garantir que notre application repose sur des bibliothèques à jour et sécurisées. Pour finir, puisque OneGeo Chat est open-source, nous utilisons Pylic afin de vérifier que toutes les bibliothèques et API que nous intégrons respectent bien les licences adéquates.
Si vous souhaitez en apprendre plus sur les compatibilités entres licences, je vous invite à consulter notre article sur la licence Affero GPL 3.0
Enfin, le déploiement est géré via Docker, ce qui permet non seulement d’avoir un environnement isolé et reproductible, mais aussi de simplifier la gestion des dépendances et de garantir que OneGeo Chat fonctionne de manière cohérente, peu importe l’environnement. Aussi, Docker simplifie grandement le déploiement et l’exécution des dépendances. En résumé, Docker rend le processus de déploiement de OneGeo Chat rapide, fiable et facile à maintenir, c’est pour cela que nous l’avons adopté.
Une infrastructure qui tient la route
OneGeo Chat a été conçu pour fonctionner aussi bien sur GPU que sur CPU, offrant ainsi une flexibilité en fonction des ressources disponibles. Toutefois, en pratique, les performances sur GPU sont largement supérieures : les temps de génération sont bien plus rapides et l’expérience utilisateur s’en trouve grandement améliorée.
Le mode CPU reste une alternative, mais il demande une quantité importante de RAM et entraîne des temps de réponse nettement plus longs. C’est pourquoi nous recommandons fortement l’utilisation d’un GPU pour tirer pleinement parti de l’application.
Afin de faciliter l’adaptation du déploiement à votre infrastructure, le fichier docker-compose.yml inclut des sections spécifiques pour les GPU. Par défaut, la configuration utilise le CPU pour plus de compatibilité, mais vous pouvez activer la prise en charge des GPU en décommentant les parties correspondantes. Cela permet de tirer parti des capacités de votre matériel tout en maintenant une configuration unique et facile à gérer. Pour pouvoir utiliser le mode GPU, il vous faudra disposer d’un GPU Nvidia avec au moins 8Go de RAM et avoir installé le Nvidia Container Toolkit. Nous n’avons pas testé avec un GPU AMD, même si c’est théoriquement possible. Encore une fois, l’utilisation de conteneurs avec Docker simplifie grandement le déploiement de OneGeo Chat.
D’ailleurs, pour tester localement OneGeo Chat, suivez les instructions détaillées dans la section Run Locally du README du projet. Vous y trouverez toutes les étapes pour configurer et exécuter l’application en local.
Le mot de la finPour conclure, si vous cherchez un moyen simple et rapide pour rechercher et échanger efficacement autour de vos données, géomatiques ou non, alors OneGeo Chat est fait pour vous. Ce projet étant toujours en pleine évolution, nous souhaitons y apporter des améliorations et de nouvelles features.
Nous souhaitons notamment renforcer la validation en ajoutant plus de tests fonctionnels avec Cypress et en intégrant Ragas pour évaluer la pertinence du modèle. Ragas est une bibliothèque qui fournit des outils pour améliorer l’évaluation des applications LLM.
L’optimisation des réponses générées est aussi une priorité afin d’améliorer encore la qualité des résultats. Par ailleurs, nous ambitionnons de faire de OneGeo Chat un pilote de notre plateforme OneGeo Suite.
Enfin, nous aimerions aller plus loin dans l’interprétation des données géomatiques en exploitant non seulement les titres et descriptions des jeux de données, mais aussi les attributs et la géométrie de ces derniers.
Pour rester informé sur l’évolution de OneGeo Chat, vous pouvez consulter le site officiel de Neogeo, poser vos questions et échanger avec la communauté sur notre forum, et suivre notre actualité sur LinkedIn.
Rédactrice : Mathilde Pommier
-
16:57
VirtualTer les 26, 27 et 28 mai 2025 à Caen
sur Conseil national de l'information géolocaliséeVirtualTer les 26, 27 et 28 mai 2025 à Caen -
16:57
VirtualTer les 26, 27 et 28 mai 2025 à Caen
sur Conseil national de l'information géolocaliséeVirtualTer les 26, 27 et 28 mai 2025 à Caen
-
11:07
The Invasion of America
sur Google Maps ManiaIn recent years, the United States has been overrun by the twin menaces of illegal extraterrestrial aliens and hairy Sasquatches. This is the reality that the American public now faces - an invasion of little green men and ape-like creatures who show no regard for borders or the American way of life.The BFRO Bigfoot Sightings Interactive Map reveals that no part of the United States
-
10:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
10:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...