Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
5260 éléments (99 non lus) dans 55 canaux

-
Cybergeo
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (4 non lus)
-
Mappemonde (30 non lus)
-
Dans les algorithmes (4 non lus)

-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN (5 non lus)
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier (12 non lus)
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR

-
Géoblogs (GeoRezo.net)
-
Conseil national de l'information géolocalisée (1 non lus)
-
Geotribu (3 non lus)
-
Les cafés géographiques (3 non lus)
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Icem7
-
Séries temporelles (CESBIO) (2 non lus)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde (1 non lus)
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies (5 non lus)
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques (17 non lus)
-
Veille cartographie
-
Makina Corpus (6 non lus)
-
Oslandia (6 non lus)
-
Camptocamp
-
Carnet (neo)cartographique
-
Le blog de Geomatys
-
GEOMATIQUE
-
Geomatick
-
CartONG (actualités)
Éléments récents
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
8:43
Retour sur les Masterclass Ma carte
sur Toute l’actualité des Geoservices de l'IGNAvec plus de 300 inscrits à chaque session, les 4 Masterclass de Ma carte ont rencontré un franc succès auprès des utilisateurs, offrant des formations pratiques et accessibles pour maîtriser les bases du portail macarte.ign.fr.
-
7:58
Conseils & Astuces ArcGIS Online - N°192
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierN° 192 - Vider rapidement une table ou une couche d'entités
Certaines tâches d'intégration ou de mise à jour de données nécessitent parfois de pouvoir supprimer l'ensemble des enregistrements d'une table ou d'une couche d'entités en conservant sa structure. Pour les tables ou les couches d'entités hébergées ArcGIS Online, il existe un moyen simple et rapide de vider la totalité des contenus en utilisant l'opération "truncate" prévue dans l'API Rest des services web ArcGIS. Dans cet article, je vous explique comment procéder.
Avant de commencer, il est important de signaler que cette méthode supprime de manière définitive les données et qu'il n'y a pas la possibilité d'annuler de l'opération.- Pour réaliser cette opération vous devez être le propriétaire de la couches d'entités sur votre portail ArcGIS Online. Affichez la page de description de l'élément correspondant à la couche/table que vous souhaitez vider.
- Dans la partie droite de la page, repérez la zone contenant l'URL du service et cliquez sur le lien "Visualiser".
- Vous affichez alors la description Rest du service. Pour accéder aux opérations modifiant le contenu du service, vous devez basculer dans le mode "Admin" en cliquant le lien "Admin" en hait à droite de la page.
- La barre d'en-tête est désormais rose, vous être en mode "Admin". Vous devez maintenant cliquer sur la couche d'entités ou la table de votre service dont vous souhaitez supprimer les données. Ici, dans mon cas, la couche se nomme "Capitales_régionales".
- Dans le bas de la page, vous trouverez la liste des opérations pouvant être appliquées à la couche/table. Vous cliquerez alors sur le lien "Truncate".
- L'opération réalisant une opération de suppression dans la base de données, elle peut prendre plus ou moins de temps. Pour cette raison, vous avez le choix entre une exécution de la requête en mode dit "Synchrone" ou en mode "Asynchrone". Le second mode permet d'éviter un "timeout" sur la requête qui conduirait à une exécution incomplète ou impossible de votre opération de suppression.
Partez du principe que si votre couche/table contient quelques centaines d'enregistrements, vous pouvez exécuter l'opération de manière "Synchrone". Au-delà, utilisez le mode "Asynchrone".
Vous noterez que dans le cas d'une exécution "Asynchrone", une URL vous sera fournie pour vérifier si l'opération est terminée ou pas encore.
Vous noterez également qu'une option vous propose de supprimer uniquement les pièces jointes de la couche/table. Dans ce cas, les enregistrements de la couche/table seront conservés.
Lorsque vous avez choisi le mode d'exécution, vous pouvez cliquer sur le bouton "Truncate". Une fois de plus, il est important de rappeler que cette opération n'est pas annulable. - Une fois l'opération réussie, votre couche/table est vidée.
Cliquez sur le bouton "Fermer". - Vous pouvez le vérifier en consultant les données de la couche/table dans l'onglet "Données".
- Pour réaliser cette opération vous devez être le propriétaire de la couches d'entités sur votre portail ArcGIS Online. Affichez la page de description de l'élément correspondant à la couche/table que vous souhaitez vider.
-
7:00
Vers un internet plein de vide ?
sur Dans les algorithmesSur la plupart des réseaux sociaux vous avez déjà du tomber sur ces contenus génératifs, pas nécessairement des choses très évoluées, mais des contenus étranges, qui n’ont rien à dire, qui hésitent entre développement personnel creux, blague ratée ou contenu sexy. Des vidéos qui ânonnent des textes qui ne veulent rien dire. Les spécialistes parlent de slop, de contenus de remplissages, de résidus qui peu à peu envahissent les plateformes dans l’espoir de générer des revenus. A l’image des contenus philosophiques générés par l’IA que décortique en vidéo Monsieur Phi.
IA slop : de la publicité générative à l’internet zombiePour l’instant, ces contenus semblent anecdotiques, peu vus et peu visibles, hormis quand l’un d’entre eux perce quelque part, et en entraîne d’autres dans son flux de recommandation, selon la logique autophagique des systèmes de recommandation. Pour l’analyste Ben Thompson, l’IA générative est un parfait moteur pour produire de la publicité – et ces slops sont-ils autre chose que des contenus à la recherche de revenus ? Comme le dit le philosophe Rob Horning : « le rêve de longue date d’une quantité infinie de publicités inondant le monde n’a jamais semblé aussi proche ». Pour Jason Koebler de 404 Media, qui a enquêté toute l’année sur l’origine de ce spam IA, celui-ci est profondément relié au modèle économique des réseaux sociaux qui rémunèrent selon l’audience que les créateurs réalisent, ce qui motive d’innombrables utilisateurs à chercher à en tirer profit. Koebler parle d’ailleurs d’internet zombie pour qualifier autant cette génération de contenu automatisée que les engagements tout aussi automatisés qu’elle génère. Désormais, ce ne sont d’ailleurs plus les contenus qui sont colonisés par ce spam, que les influenceurs eux-mêmes, notamment par le biais de mannequins en maillots de bains générés par l’IA. A terme, s’inquiète Koebler, les médias sociaux pourraient ne plus rien avoir de sociaux et devenir des espaces « où le contenu généré par l’IA éclipse celui des humains », d’autant que la visibilité de ces comptes se fait au détriment de ceux pilotés par des humains. Des sortes de régies publicitaires sous stéroïdes. Comme l’explique une créatrice de contenus adultes dont l’audience a chuté depuis l’explosion des mannequins artificiels : « je suis en concurrence avec quelque chose qui n’est pas naturel ».
Ces contenus qui sont en train de coloniser les réseaux sociaux n’ont pas l’air d’inquiéter les barons de la tech, pointait très récemment Koebler en rapportant les propose de Mark Zuckerberg. D’autant que ces contenus génératifs semblent produire ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes Meta utilisent déjà l’IA générative. Et Meta prévoit des outils pour démultiplier les utilisateurs synthétiques. Le slop a également envahi la plateforme de blogs Medium, explique Wired, mais ces contenus pour l’instant demeurent assez invisibles, notamment parce que la plateforme parvient à limiter leur portée. Un endiguement qui pourrait ne pas résister au temps. A terme, les contenus produits par les humains pourraient devenir de plus en plus difficile à trouver sur des plateformes submergées par l’IA.
On voudrait croire que les réseaux sociaux puissent finir par s’effondrer du désintérêt que ces contenus démultiplient. Il semble que ce soit l’inverse, l’internet zombie est en plein boom. Tant et si bien qu’on peut se demander, un an après le constat de l’effondrement de l’information, si nous ne sommes pas en train de voir apparaître l’effondrement de tout le reste ?
Les enjeux du remplissage par le videDans sa newsletter personnelle, le chercheur et artiste Eryk Salvaggio revient à son tour sur le remplissage par l’IA, dans trois longs billets en tout point passionnants. Il souligne d’abord que ce remplissage sait parfaitement s’adapter aux algorithmes des médias sociaux. Sur Linked-in, les contenus rédigés par des LLM seraient déjà majoritaires. Même le moteur de recherche de Google valorise déjà les images et les textes générés par IA. Pour Salvaggio, avec l’IA générative toute information devient du bruit. Mais surtout, en se jouant parfaitement des filtres algorithmiques, celle-ci se révèle parfaitement efficace pour nous submerger.
Jesus Schrimp, image symbolique des eaux troubles de l’IA produisant son propre vide.
Salvaggio propose d’abandonner l’idée de définir l’IA comme une technologie. Elle est devenue un projet idéologique, c’est-à-dire que « c’est une façon d’imaginer le monde qui devient un raccourci pour expliquer le monde ». Et elle est d’autant plus idéologique selon les endroits où elle se déploie, notamment quand c’est pour gérer des questions sociales ou culturelles. « L’optimisation de la capacité d’un système à affirmer son autorité est une promesse utopique brillante des technologies d’automatisation ». « L’un des aspects de l’IA en tant qu’idéologie est donc la stérilisation scientifique de la variété et de l’imprévisibilité au nom de comportements fiables et prévisibles. L’IA, pour cette raison, offre peu et nuit beaucoup au dynamisme des systèmes socioculturels ». Les gens participent à l’idéologie de l’IA en évangélisant ses produits, en diffusant ses résultats et en soutenant ses avancées pour s’identifier au groupe dominant qui l’a produit.
La production par l’IA de contenus de remplissage nécessite de se demander à qui profite ce remplissage abscons ? Pour Salvaggio, le remplissage est un symptôme qui émerge de l’infrastructure même de l’IA qui est elle-même le résultat de l’idéologie de l’IA. Pourquoi les médias algorithmiques récompensent-ils la circulation de ces contenus ? Des productions sensibles, virales, qui jouent de l’émotion sans égard pour la vérité. Les productions de remplissage permettent de produire un monde tel qu’il est imaginé. Elles permettent de contourner tout désir de comprendre le monde car elle nous offre la satisfaction immédiate d’avoir un « sentiment sur le monde ». « L’AI Slop est un signal vide et consommé passivement, un symptôme de « l’ère du bruit », dans lequel il y a tellement de « vérité » provenant de tant de positions que l’évaluation de la réalité semble sans espoir. »
Notre désorientation par le videEryk Salvaggio se demande même si le but de l’IA n’est pas justement de produire ce remplissage. Un remplissage « équipé », « armé », qui permet d’essaimer quelque chose qui le dépasse, comme quand l’IA est utilisée pour inonder les réseaux de contenus sexuels pour mieux essaimer le regard masculin. Les productions de l’IA permettent de produire une perspective, un « regard en essaim » qui permet de manipuler les symboles, de les détourner. « Les images générées par l’IA offrent le pouvoir de façonner le sens dans un monde où les gens craignent l’impuissance et l’absence de sens en les invitant à rendre les autres aussi impuissants et dénués de sens qu’eux ». Ces images « diminuent la valeur de la réalité », suggère brillamment Salvaggio. Elles créent « une esthétisation », c’est-à-dire rend la représentation conforme à un idéal. La fonction politique de ce remplissage va bien au-delà des seules représentations et des symboles, suggère-t-il encore. L’IA appliquée aux services gouvernementaux, comme les services sociaux, les transforme à leur tour « en exercice esthétique ». Notre éligibilité à une assurance maladie ou à une couverture sociale n’est pas différente de l’IA Slop. C’est cette même infrastructure vide de sens qui est pointée du doigt par ceux qui s’opposent à l’algorithmisation de l’Etat que ceux qui fuient les boucles de rétroactions délétères des médias sociaux.
Le projet DOGE d’Elon Musk, ce département de l’efficacité gouvernementale qui devrait proposer un tableau de bord permettant aux internautes de voter pour éliminer les dépenses publiques les plus inutiles, semble lui-même une forme de fusion de médias sociaux, d’idéologie de l’IA et de pouvoir pour exploiter le regard en essaim de la population et le diriger pour harceler les fonctionnaires, réduire l’État providence autour d’une acception de l’efficacité ultra-réductrice. Au final, cela produit une forme de politique qui traite le gouvernement comme une interface de médias sociaux, conçue pour amplifier l’indignation, intimider ceux qui ne sont pas d’accord et rendre tout dialogue constructif impossible. Bienvenue à la « momusocratie« , le gouvernement des trolls, de la raillerie, explique Salvaggio, cette Tyrannie des bouffons chère à l’essayiste Christian Salmon.
Mais encore, défend Salvaggio, le déversement de contenus produit par l’IA générative promet un épuisement du public par une pollution informationnelle sans précédent, permettant de perturber les canaux d’organisation, de réflexion et de connexion. « Contrôlez le filtre permet de l’orienter dans le sens que vous voulez ». Mais plus que lui donner un sens, la pollution de l’information permet de la saturer pour mieux désorienter tout le monde. Cette saturation est un excellent moyen de garantir « qu’aucun consensus, aucun compromis, ou simplement aucune compréhension mutuelle ne se produise ». Cette saturation ne vise rien d’autre que de promouvoir « la division par l’épuisement ». « Le remplissage est un pouvoir ».
« L’idéologie de l’IA fonctionne comme une croyance apolitique trompeuse selon laquelle les algorithmes sont une solution à la politique » qui suppose que les calculs peuvent prendre les décisions au profit de tous alors que leurs décisions ne sont qu’au profit de certains, en filtrant les données, les idées, les gens qui contredisent les résultats attendus. Alors que l’élection de Trump éloigne les enjeux de transparence et de régulation, l’IA va surtout permettre de renforcer l’opacité qui lui assure sa domination.
Vers un monde sans intérêt en boucle sur lui-mêmeDans la dernière partie de sa réflexion, Salvaggio estime que le remplissage est un symptôme, mais qui va produire des effets très concrets, des « expériences désintéressées », c’est-à-dire des « expériences sans intérêt et incapables de s’intéresser à quoi que ce soit ». C’est le rêve de machines rationnelles et impartiales, omniscientes, désintéressées et qui justement ne sont capables de s’intéresser à rien. Un monde où l’on confie les enfants à des tuteurs virtuels par soucis d’efficacité, sans être capable de comprendre tout ce que cette absence d’humanité charrie de délétère.
L’IA s’est construite sur l’excès d’information… dans le but d’en produire encore davantage. Les médias sociaux ayant été une grande source de données pour l’IA, on comprend que les contenus de remplissage de l’IA soient optimisés pour ceux-ci. « Entraînée sur du contenu viral, l’IA produit du contenu qui coche toutes les cases pour l’amplification. Le slop de l’IA est donc le reflet de ce que voient nos filtres de médias sociaux. Et lorsque les algorithmes des médias sociaux en reçoivent les résultats, il les reconnaît comme plus susceptibles de stimuler l’engagement et les renforce vers vers les flux (générant plus d’engagement encore). » Dans le tonneaux des Danaïdes de l’amplification, l’IA slop est le fluidifiant ultime, le contenu absurde qui fait tourner la machine sans fin.
Combattre ce remplissage par l’IA n’est une priorité ni pour les entreprises d’IA qui y trouvent des débouchés, ni pour les entreprises de médias sociaux, puisqu’il ne leur porte aucun préjudice. « Les contenus de remplissage de l’IA sont en fait la manifestation esthétique de la culture à médiation algorithmique » : « ils sont stylisés à travers plus d’une décennie d’algorithmes d’optimisation qui apprennent ce qui pousse les gens à s’engager ».
Face à ces contenus « optimisés pour performer », les artistes comme les individus qui ont tenté de partager leur travail sur les plateformes sociales ces dernières années ne peuvent pas entrer en concurrence. Ceux qui ont essayé s’y sont vite épuisés, puisqu’il faut tenir d’abord le rythme de publication infernal et infatigable que ces systèmes sont capables de produire.
Dépouiller les symboles de leur relation à la réalité« Les images générées par l’IA peuvent être interprétées comme de l’art populaire pour servir le populisme de l’IA ». Elles visent à « dépouiller les symboles de leur relation à la réalité » pour les réorganiser librement. Les gens ne connaissent pas les films mais ont vu les mèmes. Le résultat de ces images est souvent critiqué comme étant sans âme. Et en effet, le texte et les images générés par l’IA souffrent de l’absence du poids du réel, dû à l’absence de logique qui préside à leur production.
« L’ère de l’information est arrivée à son terme, et avec elle vient la fin de toute définition « objective » et « neutre » possible de la « vérité ». » L’esthétique du remplissage par l’IA n’est pas aléatoire, mais stochastique, c’est-à-dire qu’elle repose sur une variété infinie limitée par un ensemble de règles étroites et cohérentes. Cela limite notre capacité à découvrir ou à inventer de nouvelles formes de culture, puisque celle-ci est d’abord invitée à se reproduire sans cesse, à se moyenniser, à s’imiter elle-même. Les images comme les textes de l’IA reflètent le pouvoir de systèmes que nous avons encore du mal à percevoir. Ils produisent des formes de vérités universalisées, moyennisées qui nous y enferment. Comme dans une forme d’exploitation sans fin de nos représentations, alors qu’on voudrait pouvoir en sortir, comme l’expliquait dans une note pour la fondation Jean Jaurès, Melkom Boghossian, en cherchant à comprendre en quoi les algorithmes accentuent les clivages de genre. Comme s’il devenait impossible de se libérer des contraintes de genres à mesure que nos outils les exploitent et les renforcent. Cet internet de contenus absurde n’est pas vide, il est plein de sens qui nous échappent et nous y engluent. Il est plein d’un monde saturé de lui-même.
A mesure que l’IA étend son emprise sur la toile, on se demande s’il restera encore des endroits où nous en serons préservés, où nous pourrons être mis en relation avec d’autres humains, sans que tout ce qui encode les systèmes ne nous déforment.
Du remplissage à la fin de la connaissanceDans une tribune pour PubliBooks, la sociologue Janet Vertesi estime que les recherches en ligne sont devenues tellement chaotiques et irrationnelles, qu’elle a désormais recours aux dictionnaires et encyclopédies papier. « Google qui a fait fortune en nous aidant à nous frayer un chemin sur Internet se noie désormais dans ses propres absurdités générées par elle-même ». Nous voici confrontés à un problème d’épistémologie, c’est-à-dire de connaissance, pour savoir ce qui est réel et ce qui ne l’est pas. Au XXe siècle, les philosophes ont définis la connaissance comme une croyance vraie justifiée. La méthode scientifique était le moyen pour distinguer la bonne science de la mauvaise, la vérité du mensonge. Mais cette approche suppose souvent qu’il n’y aurait qu’une seule bonne réponse que nous pourrions connaître si nous adoptons les bonnes méthodes et les bons outils. C’est oublier pourtant que la connaissance ne sont pas toujours indépendantes de l’expérience. Ludwig Wittgenstein a utilisé la figure du canard-lapin pour montrer comment des personnes rationnelles pouvaient en venir à avoir des points de vue irréconciliablement différents sur une même réalité. Les épistémologues se sont appuyés sur cette idée pour montrer que les personnes, selon leurs positions sociales, ont des expériences différentes de la réalité et que la connaissance objective ne pouvait naître que de la cartographie de ces multiples positions. Les sociologues de la connaissance, eux, examinent comment différents groupes sociaux en viennent à légitimer différentes manières de comprendre, souvent à l’exclusion des autres. Cela permet de comprendre comment différents faits sociaux circulent, s’affrontent ou se font concurrence, et pourquoi, dans les luttes pour la vérité, ceux qui détiennent le pouvoir l’emportent si souvent… Imposant leur vérités sur les autres.
Mais ces questions ne faisaient pas partie des préoccupations de ceux qui ont construit internet, ni des systèmes d’IA générative qui s’en nourrissent. Depuis l’origine, internet traite toutes les informations de manière égale. Le réseau ne consiste qu’à acheminer des paquets d’informations parfaitement égaux entre eux, rappelle la sociologue. A cette neutralité de l’information s’est ajoutée une autre métaphore : celle du marché des idées, où chaque idée se dispute à égalité notre attention. Comme dans le mythe du libre marché, on a pu penser naïvement que les meilleures idées l’emporteraient. Mais ce régime épistémique a surtout été le reflet des croyances de l’Amérique contemporaine : un système de connaissance gouverné par une main invisible du marché et entretenue par des conservateurs pour leur permettre de générer une marge bénéficiaire.
« Pourtant, la connaissance n’est pas une marchandise. La « croyance vraie justifiée » ne résulte pas non plus d’une fonction d’optimisation. La connaissance peut être affinée par le questionnement ou la falsification, mais elle ne s’améliore pas en entrant en compétition avec la non-connaissance intentionnelle. Au contraire, face à la non-connaissance, la connaissance perd. » L’interrogation du monde par des mécanismes organisés, méthodiques et significatifs – comme la méthode scientifique – peut également tomber dans le piège des modes de connaissance fantômes et des impostures méthodologiques. « Lorsque toute information est plate – technologiquement et épistémologiquement – il n’y a aucun moyen d’interroger sa profondeur, ses contours ou leur absence ». En fait, « au lieu d’être organisé autour de l’information, l’Internet contemporain est organisé autour du contenu : des paquets échangeables, non pondérés par la véracité de leur substance. Contrairement à la connaissance, tout contenu est plat. Aucun n’est plus ou moins justifié pour déterminer la vraie croyance. Rien de tout cela, au fond, n’est de l’information. »
« En conséquence, nos vies sont consumées par la consommation de contenu, mais nous ne reconnaissons plus la vérité lorsque nous la voyons. Et lorsque nous ne savons pas comment peser différentes vérités, ou coordonner différentes expériences du monde réel pour regarder derrière le voile, il y a soit une cacophonie, soit un seul vainqueur : la voix la plus forte qui l’emporte. »
Contrairement à Wikipédia, encore relativement organisé, le reste du Web est devenu la proie de l’optimisation des moteurs de recherche, des technologies de classement et de l’amplification algorithmique, qui n’ont fait que promouvoir le plus promouvable, le plus rentable, le plus scandaleux. « Mais aucun de ces superlatifs n’est synonyme de connaissance ». Les systèmes qui nous fournissent nos informations ne peuvent ni mesurer ni optimiser ce qui est vrai. Ils ne s’intéressent qu’à ce sur quoi nous cliquons. Et le clou dans le cercueil est enfoncé par l’intelligence artificielle qui « inonde Internet de contenu automatisé plus rapidement que l’on ne peut licencier une rédaction ». Dans ce paysage sous stéroïdes, aucun système n’est capable de distinguer la désinformation de l’information. Les deux sont réduits à des paquets de même poids cherchant leur optimisation sur le marché libre des idées. Et les deux sont ingérés par une grande machinerie statistique qui ne pèse que notre incapacité à les distinguer.
Aucun système fondé sur ces hypothèses ne peut espérer distinguer la « désinformation » de « l’information » : les deux sont réduites à des paquets de contenu de même valeur, cherchant simplement une fonction d’optimisation dans un marché libre des idées. Et les deux sont également ingérées dans une grande machinerie statistique, qui ne pèse que notre incapacité à les discerner. Le résultat ne promet rien d’autre qu’un torrent indistinct et sans fin, « où la connaissance n’a jamais été un facteur et d’où la connaissance ne peut donc jamais émerger légitimement ». « Sans topologie de l’information, nous sommes à la dérive dans le contenu, essayant en vain de naviguer dans une cascade d’absurdités sans boussole ».
« Il est grand temps de revenir à ces méthodes et à ces questions, aux milliers d’années de gestion de l’information et d’échange de connaissances qui ont transmis non seulement des faits ou du contenu, mais aussi une appréciation de ce qu’il faut pour faire émerger des vérités », plaide Vertesi. « Il n’est pas nécessaire que ce soit un projet colonial ou réductionniste. Les connaissances d’aujourd’hui sont plurielles, distribuées, issues de nombreux lieux et peuples, chacun avec des méthodes et des forces d’ancrage uniques. Cela ne signifie pas non plus que tout est permis. Le défi consiste à s’écouter les uns les autres et à intégrer des perspectives conflictuelles avec grâce et attention, et non à crier plus fort que les autres ».
« Alors que nos vies sont de plus en plus infectées par des systèmes d’IA maladroits et pilleurs et leurs flux hallucinatoires, nous devons apprendre à évaluer plutôt qu’à accepter, à synthétiser plutôt qu’à résumer, à apprécier plutôt qu’à accepter, à considérer plutôt qu’à consommer ».
« Notre paysage technologique contemporain exige de toute urgence que nous revenions à une autre des plus anciennes questions de toutes : « Qu’est-ce qui est vraiment réel ? » »
-
1:00
Nick Bearman: FOSS4G 2024 - Belém, Brazil
sur Planet OSGeoI was very lucky to be able to attend FOSS4G 2024, in Belém, Brazil on 2nd - 8th December 2024. Belém is a fantastic city, and due to host COP30 in November 2025, with lots of construction on going. FOSS4G has a wonderful community and a great variety of talks - have a look at the agenda to see the different topics under discussion.
Tri-lingual welcome, in Portugese, Spanish and English at FOSS4G 2024The first two days were workshops, and I attended XYZ Cloud MAPPing 101 presented by Dennis Bauszus, and Community Drone Mapping by Ivan Buendi?a Gayton. In some ways I find the workshops the most useful element of the conference because it gives you time to dig in to a specific piece of software and learn some new skills, something I am quite poor at doing during my usual ‘day job’! I learnt some new useful skills in both workshops. Dennis has also shared the XYZ Mapping workshop materials if you have more discipline than me(!) and can work through it on your own:
- More details on the app itself
- Start with Getting started
- Then look at the workshop
The Drone workshop was also fascinating, and Ivan did a great job of both teaching us how to fly a drone (easier than I thought) and how to help local communities leverage the power of drones (& wider GIS skills) for their own benefit.
The main conference itself was in the Hanger Convention Centre and it was a great international conference. The laid back approach of FOSS4G always creates a lovely atmosphere and it was a great opportunity to get to know new people in the FOSS4G world, and catch up with people I have met at previous events. Community is one of the key things that I love about this group, with people very willing to help each other out. Uber is a key method of transportation in Brazil, and with a number of the evening social events in the city centre, we usually clubbed together at the hotel reception for an Uber to get us there, and back afterwards!
The variety of talks was incredible, with fascinating applications of FOSS4G tools, discussions on the interaction of academia and FOSS4G and personal reflections on people’s FOSS4G journeys. I particularly Kim Durante’s talk on FAIR Principles for Geospatial Data Curation which might have some very useful ideas for a project I am working on at the moment, and Veronica Andreo’s talk, From field biology to the GRASS GIS board - an open source journey about how she got involved in the GRASS GIS project.
I met one lady from Brazil and this was her first international, English speaking conference. She was really enjoying herself and it was a great introduction to the FOSS4G community for her.
One thing that came across to me was the variety of open source projects, and how some projects seem to be doing very similar things. Two examples that come to mind are QField and Mergin Maps, both of which allow users to collect data in a QGIS project in the field on their phone, and process that data back in the office. Another pair would be QGIS and GRASS GIS, both arguably great quality Desktop GIS tools, and there are many other examples too.
Initially I wondered why there were so many similar tools like this, when it might make more sense to combine effort and focus on one tool, rather than splitting our effort over two? However after a bit of reflection I discovered a) that often two similar tools have differences that make them more useful to different audiences. For example, QField is a more flexible field data collection tool, and Mergin Maps is easier to get up and running with. Also, b) having multiple tools reflects the market approach of encouraging development and innovation, with the best tool ‘winning’. In this context winning is not by having the highest revenues or the highest profits, but by having communities of users and developers. If a project doesn’t have a good group of users and/or a good group of developers interested in keeping the project up to date, then gradually it will fall out of use. I was not expecting to see an example of a capitalist based market in the open source community, but here it is!
I also had the opportunity to met Katja Haferkorn, who is the coordinator for FOSSGIS e.V. FOSSGIS e.V. is the OSGeo Local Chapter for German-speaking countries - D-A-CH, i.e. Germany, Austria and the german speaking part of Switzerland. FOSSGIS e.V. is also the German local chapter for OpenStreetMap. FOSSGIS e.V. is quite unique in that they are a local chapter who has a paid coordinator - Katja - and it was fascinating to hear her experiences. As OSGeo:UK Chair, one of the questions I asked her was about diversity within Local Chapters, and OSGeo as a whole. This is an issue for them as well and it is a aspect of membership that has been challenging the whole community for a while. Katja has written a great blog post about the conference. It is in German, but Google Translate does a reasonable job of translating it into English.
Working at the Code Sprint, thanks to Felipe Barros for the photoThe last two days of the conference was the Code Sprint. This is a chance to meet people working on different open source GIS projects and learn how to contribute to different elements of the projects. I had a great chat with Silvina Meritano and Andrés Duhour about using R as a GIS. Silvina was keen to develop her mapping skills in R, and Andrés had already developed an R package (which he presented at the conference: osmlanduseR) and spent a bit of time learning about and contributing to the new
tmap
library examples.Tmap
version 4 is coming out (blog post coming soon!) and I needed to updated my material for this new version. I also spent some time looking at the Las Calles De Las Mujeres project, which looks at the proportion of streets named after women (rather than men) in a range of Spanish speaking countries. Silvina and I had a go at creating a version in R that could automate some more of the process to apply this to different cities in English speaking countries.The internet connection at the code sprint was a little variable, so we had some challenges and had to resort to using the “sneaker net” occasionally - using a USB stick to transfer data between us! Fortunately we never had to resort to playing truco - a card game played in Argentina when the internet doesn’t work and you have nothing else to do!
Conference group photoThanks very much to everyone involved in organising the conference. Many more photos are on Flickr. The conference was a fantastic experience, and if you ever have the opportunity to go to a FOSS4G conference, anywhere, do take it!
If you want help or advice on any open source geospatial tool, or are interested in Introductory or Advanced GIS training in QGIS or R, please do contact me.
-
1:00
GeoServer Team: GeoServer 2025 Roadmap
sur Planet OSGeoHappy new year and welcome to 2025 from the GeoServer team!
Last year we started something different for our project - sharing our 2024 roadmap plans with our community and asking for resources (participation and funding) to accomplish some challenging goals. We would like to provide an update for 2025 and a few words on our experience in 2024.
The GeoServer project is supported and maintained thanks to the hard work of volunteers and the backing of public institutions and companies providing professional support.
GeoServer was started in 2001 by a non-profit technology incubator. Subsequent years has seen the project supported by larger companies with investors and venture capital. This support is no longer available - and without this cushion we must rely on our community to play a greater role in the success of the project.
We are seeking a healthy balance in 2025 and are asking for support in the following areas:
-
Maintenance: The GeoServer team uses extensive automation, quality assurance tools, and policy of dropping modules to “right size” the project to match developer resources.
However maintenance costs for software markedly increased in 2024 as did time devoted to security vulnerabilities. This causes the components used by GeoServer to be updated more frequently, and with greater urgency.
?? Community members can answer questions on geoserver-user forum, reproduce issues as they are reported, and verify fixes.
?? Developers are encouraged to get started by reviewing pull-requests to learn what is needed, and then move on to fixing issues.
-
Security Vulnerabilities: GeoServer works with an established a coordinated vulnerability disclosure policy, with clear guidelines for individuals to particpate based on trust, similar to how committers are managed. Our 2024 experience with CVE-2024-36401 highlights the importance of this activity for our community and service providers.
?? Trusted volunteers can help mind geoserver-security email list, and help reproduce vulnerabilities as they are reported. We also seek developer capacity and funding to address confirmed vulnerabilities.
-
Releases: Regular release and community testing is a key success factor for open source projects and is an important priority for GeoServer. Peter has done a great job updating the release instructions, and many of the tasks are automated, making this activity far easier for new volunteers.
?? Developers and Service Providers are asked to make time available to to assist with the release process.
Asking our community to test release candidates ahead of each major release has been discontinued due to lack of response. The GeoServer team operates with a time-boxed release model so it is predictable when testing will be expected.
?? Community members and Service Providers are asked to help test nightly builds ahead of major releases in March and April.
-
Testing: Testing of new functionality and technology updates is an important quality assurance activity We have had some success asking downstream projects directly to test when facing technical-challenges in 2023.
?? We anticipate extensive testing will be required for GeoServer 3 and ask everyone to plan some time to test out nightly builds with your own data and infrastructure during the course of this activity.
-
Sponsorship: In 2023 we made a deliberate effort to “get over being shy” and ask for financial support, setting up a sponsorship page, and listing sponsors on our home page.
The response has not been in keeping with the operational costs of our project and we seek ideas on input on an appropriate approach.
?? We ask for your financial assistance in 2025 (see bottom of page for recommendations).
The above priorities of maintenance, testing and sponsorship represent the normal operations of an open-source project. This post is provided as a reminder, and a call to action for our community.
2025 Roadmap Planning CITE CertificationOur CITE Certification was lost some years ago, due to vandalism of a build server, and we would like to see certification restored.
OGC CITE Certification is important for two reasons:
- Provides a source of black-box testing ensuring that each GeoServer release behaves as intended.
- Provides a logo and visibility for the project helping to promote the use of open standards.
Recent progress on this activity:
- As part of a Camptocamp organized OGCAPI - Features sprint Gabriel was able setup a GitHub workflow restoring the use of CITE testing for black-box testing of GeoServer. Gabriel focused on OGC API - Features certification but found WMS 1.1 and WCS 1.1 tests would also pass out of the box, providing a setup for running the tests in each new pull request.
- Andrea made further progress certifying the output produced by GeoServer, restoring the WMS 1.3, WFS 1.0 and WFS 1.1 tests, as well as upgrading the test engine to the latest production release. In addition, CITE tests that weren’t run in the past have been added, like WFS 2.0 and GeoTIFF, while other new tests are in progress, like WCS 2.0, WMTS 1.0 and GeoPackage.
- The Open Source Geospatial Foundation provides hosting for OSGeo Projects. Peter is looking into this opportunity which would allow the project to be certified and once again be a reference implementation.
?? Please reach out on the developer forum and ask how you can help support this activity.
GeoServer 3GeoServer 3 is being developed to address crucial challenges and ensure that GeoServer remains a reliable and secure platform for the future.
Staying up-to-date with the latest technology is no longer optional — it’s essential. Starting with spring-framework-6, each update requiring several others to occur at the same time.
Our community is responding to this challenge but needs your support to be successful:
-
Brad and David have made considerable progress on Wicket UI updates over the course of 2024, and with Steve’s effort on Content Security Policy compliance (CSP headers are enabled by default in newer versions of Wicket).
-
Andreas Watermeyer (ITS Digital Solutions) has been steadily working on Spring Security 5.8 update and corresponding OAuth2 Secuirty Module replacements.
-
Consortium of Camptocamp, GeoSolutions and GeoCat have responded to our roadmap challenge with a bold GeoServer 3 Crowdfunding. The crowd funding is presently in phase one collecting pledges, when goal is reached phase two will collect funds and start development.
Check out the crowdfunding page for details, faq, including overview of project plan.
?? Pledge support for GeoServer 3 Crowdfunding using email or form.
?? Developers please reach out on the developer forum if you have capacity to work on this activity.
?? Testers GeoServer 3 will need testing with your data and environment over the course of development.
Service ProvidersService providers bring GeoServer technology to a wider audience. We recognize core-contributors who take on an ongoing responsibility for the GeoServer project on our home page, along with a listing of commercial support on our website. We encourage service providers offering GeoServer support to be added to this list.
Helping meet project roadmap planning goals and objectives is a good way for service providers to gain experience with the project and represent their customers in our community. We recognize service providers that contribute to the sustainability of GeoServer as experienced providers.
?? We encourage service providers to directly take project maintenance and testing activities, and financially support the project if they do not have capacity to participate directly.
Sponsorship OpportunitiesThe GeoServer Project Steering Committee uses your financial support to fund maintenance activities, code sprints, and research and development that is beyond the reach of an individual contributor.
GeoServer recognizes your financial support on our home page, sponsorship page and in release notes and presentations. GeoServer is part of the Open Source Geospatial Foundation and your financial support of the project is reflected on the OSGeo sponsorship page.
Recommendations:
- Individuals can use Donate via GitHub Sponsors to have their repository badged as supporting OSGeo.
- Individuals who offer GeoServer services should consider $50 USD a month to be listed as a bronze Sponsor on the OSGeo website.
- Organisations using GeoServer are encouraged to sponsor $50 USD a month to be listed as a bronze sponsor on the OSGeo website.
- Organisations that offer GeoServer services should consider $250 a month to be listed as a silver sponsor on the OSGeo website.
?? For instructions on sponsorship see how to Sponsor via Open Source Geospatial Foundation.
Further reading:
Thanks to 2025 Sponsors:
-
-
12:41
Carte mondiale d'exposition aux risques climatiques, de conflit et à la vulnérabilité
sur Cartographies numériquesLe site climate-conflict.org propose une vue combinée de l’exposition aux risques climatiques, aux risques de conflit et à la vulnérabilité. Il s'agit d'une collaboration de recherche entre les partenaires scientifiques de l'Université de la Bundeswehr de Munich et de l'Institut de recherche sur l'impact climatique de Potsdam avec le ministère fédéral allemand des Affaires étrangères. La carte de l'indice de vulnérabilité aux conflits climatiques (CCVI) identifie les zones du monde où le changement climatique et les conflits sont susceptibles de se produire, et où les populations sont vulnérables à ces risques. L'Afrique et le Moyen Orient font partie des zones particulièrement vulnérables.
Méthodologie
L’indice de vulnérabilité au climat et aux conflits (CCVI) cartographie les risques mondiaux actuels en intégrant les risques climatiques et de conflit aux vulnérabilités locales. L’indice comprend un ensemble harmonisé de couches de données et une méthodologie de notation transparente pour rendre les régions comparables à l’échelle mondiale. Les données sont mises à jour trimestriellement et quadrillées à 0,5 degré.
Le CCVI est composé de 44 indicateurs provenant de 29 sources de données ouvertes différentes (voir la liste des indicateurs). Tous les indicateurs sont cartographiés sur la même grille spatiale et temporelle et transformés à l'aide d'une méthodologie de notation standardisée. Les scores des indicateurs sont échelonnés de 0 à 10. Le score reflète le niveau de risque relatif ou de vulnérabilité d'un indicateur en fonction de sa distribution mondiale et de son évolution dans le temps, du plus faible au plus élevé. Conformément à la définition du GIEC, les mesures des risques climatiques et de conflit prennent en compte les dangers, l’exposition et la vulnérabilité.Intérêt de ce type de carte
Le principal intérêt est d'aborder les risques de manière systémique et de traiter la question du changement climatique en lien avec d'autres types de risques.
Les dangers ne créent des risques qu’en combinaison avec l’exposition et la vulnérabilité. Par exemple, le fait qu’une sécheresse (aléa) entraîne des pertes de récoltes dépend non seulement de l’événement lui-même, mais aussi du fait qu’il se soit produit là où il y a des cultures (exposition) et que les champs soient irrigués et qu’une quantité suffisante d’eau provenant d’autres sources soit ou non disponible (vulnérabilité). Il est essentiel de comprendre et d’évaluer ces interactions pour gérer et atténuer les impacts négatifs des risques climatiques et des conflits dans un contexte de changement climatique.
Utilisation des données
Les données du CCVI sont sous licence Creative Commons Attribution 4.0 International - pas d’utilisation commerciale. Elles sont disponibles en téléchargement au format tsv et parquet. La maille de résolution est celle de carrés de 55 km de côté environ à l'échelle de la planète.
Lien ajouté le 16 janvier 2025
Le rapport de l'IofA Planetary Solvency – finding our balance with nature. Global risk management for human prosperity publié en janvier 2025 met en évidence notre sous-estimation collective du risque climatique. Il existe une large gamme d’estimations de pertes de PIB allant de moins de 5 % à environ 25 % en 2050. Les auteurs affirment que « ces dommages dépassent déjà les coûts d’atténuation nécessaires pour limiter le réchauffement climatique à 2°C », c’est-à-dire qu’il sera extrêmement positif sur le plan économique de limiter le réchauffement climatique. Cependant, cette estimation exclut bon nombre des risques les plus graves auxquels on s’attend désormais si nous ne parvenons pas à limiter le réchauffement climatique. Outre l’hypothèse selon laquelle une récession économique est impossible, quelle que soit la gravité des chocs climatiques, l’approche ne prend pas en compte les impacts des points de basculement climatiques, les événements extrêmes liés au climat, les impacts sur la santé humaine, les conflits liés aux ressources ou aux migrations, les tensions géopolitiques, les risques liés à la nature ou à l’élévation du niveau de la mer.Les auteurs eux-mêmes reconnaissent que si ces facteurs supplémentaires étaient pris en compte, l’impact économique réel serait probablement plus important que celui estimé dans leur étude. Cela revient à effectuer une évaluation des risques de l’impact du Titanic sur un iceberg, mais en excluant de notre modèle la possibilité que le navire puisse couler, la pénurie de canots de sauvetage et la mort par noyade ou l’hypothermie. Les résultats modélisés seraient rassurants mais dangereux car ils sous-estimeraient considérablement le niveau de risque. En d’autres termes, même si les résultats montrent une réduction très importante du PIB de 15 % d’ici 2050, il se peut qu’il s’agisse d’une sous-estimation car elle ne tient pas compte de tous les risques à prévoir.
Cependant, certains décideurs politiques continuent d’utiliser l’estimation des dommages de Nordhaus pour justifier l’affirmation selon laquelle bien que le changement climatique soit préoccupant, il ne constitue pas une priorité immédiate en raison de l’impact négligeable attendu de 2 % du PIB d’ici 2100 avec un réchauffement de 3 °C. Une analyse plus approfondie des hypothèses sous-jacentes à cette estimation montre qu’en plus d’exclure de l’analyse de nombreux risques actuellement attendus, elle exclut également 87 % de l’économie de l’analyse, en supposant qu’un certain nombre de secteurs seront négligeablement affectés par le changement climatique. Bien que les modèles fournissent généralement une documentation complète des hypothèses et des limites, peu de décideurs politiques sont susceptibles de les comprendre pleinement. Cela augmente la probabilité que les décisions politiques soient basées sur des résultats de modèles qui sous-estiment considérablement les risques et ne sont pas cohérents avec la science du climat. En d’autres termes, les décideurs politiques qui utilisent ces résultats de modèles peuvent accepter des niveaux de risque bien plus élevés qu’ils ne le pensent.
Articles connexes
Carte de répartition des risques naturels en France métroplitaine (IGN)
Rapport du Forum économique mondial sur la perception des risques globaux
Les risques globaux prévus en 2021 selon le site Control Risks
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Analyser et discuter les cartes de risques : exemple à partir de l'Indice mondial des risques climatiques
Aborder la question de l'inégalité des pays face au changement climatique
La France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
Data visualisation sur la responsabilité et la vulnérabilité par rapport au changement climatique
Atlas climatique interactif Copernicus
-
11:27
Un anniversaire unique
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatique« Née en 1994 sur la base d’une technologie naissante réservée à des spécialistes, l’Association pour le système d’information du territoire s’est fixée l’objectif de faciliter l’accès aux géodonnées et de promouvoir le partage dans ce domaine », rappelait à l’occasion du 30e anniversaire de l’Asit Daniel Gnerre, son actuel Président. « Aujourd’hui, la diversification est de plus en plus importante auprès des acteurs publics ou privés, et depuis 2020, l’Asit s’implique hors du territoire Vaudois. La géo information n’est pas qu’une affaire technique, mais une source d’inspiration, ouverte à tous ». Montée par les étudiants en arts de l’Eracom et du CEPV, l’expo « Cartographies de pixels et d’argile » en était une belle illustration pourtant fugace. En effet, la quarantaine d’oeuvres n’aura été visible que trois jours autour de la salle. Un parcours ludique vécu comme le temps qui passe sans s’arrêter. Cette approche de l’éphémère persistait à la salle del Castillo, lors du diner d’anniversaire ouvert par Antoine Dormond, municipal de l’urbanisme et mobilité de Vevey. Quelque 200 invités y écoutaient les cartographes de presse Jules Grandin et Clara et, avec le chercheur et artiste sonore Christophe Felley, des topographies sonores de vallées : un moment unique.
+ d'infos :
assit-aso.ch
-
11:00
Mappery: Candles and Globes
sur Planet OSGeoRaf shared this pic. ’Candles shelf decorated with globes at Les Topettes perfume shop in Barcelona Raval’
-
9:16
Étude des mobilités étudiantes à partir des données INSEE et Parcoursup
sur Cartographies numériquesSource : « En 2022, 58 % des nouveaux bacheliers quittent leur zone d’emploi en entrant dans l’enseignement supérieur » (Insee Première, n° 2031, janvier 2025).
L'INSEE a publié début janvier 2025 une étude intéressante sur les mobilités étudiantes à partir des données Parcoursup. L'analyse est conduite à partir des données de 2022 et à l'échelle des 306 zones d'emploi en France (une échelle d’analyse géographique de la mobilité plus fine que les académies). Elle concerne aussi bien l'hexagone que les départements d'outre mer.
En 2022, 58 % des nouveaux bacheliers quittent leur zone d’emploi en entrant dans l’enseignement supérieur. Peu de zones d’emploi sont dépourvues d’établissement d’enseignement supérieur, mais l’offre de formation postbac est plus concentrée dans les grandes agglomérations que la population des lycéens. En 2022, parmi un demi-million de néo-bacheliers résidant en France, 58 % quittent la zone d’emploi de leur domicile au moment du baccalauréat pour rejoindre la formation qu’ils ont acceptée, et 17 % changent de région du fait de cette inadéquation.
Les néo-bacheliers sont plus mobiles quand ils viennent d’une zone d’emploi peu pourvue en formations, sont d’origine sociale favorisée au regard des chances de réussite scolaire, ou obtiennent un baccalauréat général ou une mention Très bien. Ils se déplacent aussi plus souvent pour rejoindre les filières les plus concentrées sur le territoire comme les écoles d’ingénieurs et de commerce. Ces facteurs de mobilité se retrouvent à la fois dans les vœux confirmés sur Parcoursup et dans les vœux acceptés.
Part de néo-bacheliers ayant quitté leur zone d’emploi d’origine à leur entrée dans l’enseignement supérieur (source : Insee)
Parmi les néo-bacheliers mobiles, ceux d’origine sociale très favorisée, provenant de lycées privés ou rejoignant une école de commerce, une école d’ingénieurs ou une classe préparatoire aux grandes écoles sont aussi ceux qui se déplacent le plus loin de leur domicile au moment du baccalauréat. À l’inverse, les néo-bacheliers qui changent le moins souvent de région pour leurs études se destinent à un PASS (5 %), à un BTS ou à une licence accès santé (LAS). Les zones d’emploi dont l’offre est inférieure de plus de 20 % au nombre de néo-bacheliers ont 7 fois moins d’entrants que de sortants. C’est le cas des zones d’emploi résidentielles, ou spécialisées dans les secteurs de l’industrie, du tourisme ou de l’agriculture : plus de 80 % des néo-bacheliers les quittent à l’entrée dans l’enseignement supérieur.
L'un des principaux intérêts de cette étude est de montrer que les mobilités étudiantes ne dépendent pas uniquement de l'offre de formation. Elles sont liées également à l'origine sociale, au sexe, au niveau et au profil des étudiants. Les données disponibles en téléchargement permettent de conduire des analyses plus détaillées et de produire ses propres cartes. Une série d'études à l'échelle régionale permet aussi d'approfondir l'analyse :
- « Orientation post-bac : les bacheliers préfèrent la filière à la proximité. Enseignement supérieur en Auvergne-Rhône-Alpes » (Insee Analyse Auvergne-Rhône-Alpes).
- « Plus d’entrées en BTS qu’ailleurs, peu de départs vers l’Hexagone. Orientations et mobilités post-bac à La Réunion » (Insee Analyse Réunion).
Articles connexes
Géographie de la formation et de la mobilité étudiante d'après une étude de l'Insee
Cartographier les flux de mobilité étudiante en Europe et dans le monde
Publication des données Parcoursup en open data sur le site Data.gouv.fr
Que vaut la data map qui géolocalise les voeux des candidats sur Parcoursup ?
Etudier les mobilités scolaires à partir des données de déplacements domicile-études de l'Insee
Étudier les mobilités résidentielles des élèves à partir des statistiques de la DEPP
Étudier les mobilités résidentielles des jeunes Américains à partir du site Migration Patterns
Le Mobiliscope, un outil de géovisualisation pour explorer les mobilités urbaines heure par heure
Portail des mobilités dans le Grand Paris (APUR)
CAPAMOB, un guide du Cerema pour réaliser des diagnostics de mobilités en territoire rural ou péri-urbain - « Orientation post-bac : les bacheliers préfèrent la filière à la proximité. Enseignement supérieur en Auvergne-Rhône-Alpes » (Insee Analyse Auvergne-Rhône-Alpes).
-
21:04
Free and Open Source GIS Ramblings: Trajectools 2.4 release
sur Planet OSGeoIn this new release, you will find new algorithms, default output styles, and other usability improvements, in particular for working with public transport schedules in GTFS format, including:
- Added GTFS algorithms for extracting stops, fixes #43
- Added default output styles for GTFS stops and segments c600060
- Added Trajectory splitting at field value changes 286fdbd
- Added option to add selected fields to output trajectories layer, fixes #53
- Improved UI of the split by observation gap algorithm, fixes #36
Note: To use this new version of Trajectools, please upgrade your installation of MovingPandas to >= 0.21.2, e.g. using
i
mport pip; pip.main(['install', '--upgrade', 'movingpandas'])
or
conda install movingpandas==0.21.2
-
18:12
Café géo de Saint-Malo, 18 janvier 2025 : Géohistoire des humains sur la Terre, avec Marion Chalot
sur Les cafés géographiquesSamedi 18 décembre 2025, de 16h30 à 18h30, Salons de l’Hôtel de l’Univers, Place Chateaubriand, Saint-Malo
microcentrale6
-
11:31
The Big Foot Sightings Map
sur Google Maps ManiaIn October 2004, Rodney Frank Williams's daughters reported hearing what they described as "a combination of a whale and a dinosaur" coming from the state forestland near their home in Joyce, Washington. Upon further investigation, Williams discovered a footprint "much like a large wide human print dressed in a moccasin." Additional incidents, including a mysteriously moved pumpkin, led
-
11:27
Itinéraires de randonnée hivernale sur les massifs montagneux français (Géoportail)
sur Cartographies numériquesLa Fondation Petzl, en coopération avec le site Skitourenguru.ch, a entrepris de numériser la plupart des itinéraires de randonnée hivernale des Alpes pour les diffuser sur le Géoportail, le portail national de la connaissance du territoire mis en œuvre par l’IGN. Depuis l’automne 2021, la fondation Petzl et Skitourenguru.ch numérisent l’ensemble des courses classiques de ski de randonnée et de raquettes à neige des Alpes françaises. Près de 4000 itinéraires sont actuellement tracés à l’aide d’un logiciel de cartographie également appelé “système d’information géographique” (SIG).
Le principe consiste à tracer les itinéraires les plus sûrs en évitant autant que possible les terrains avalancheux. Le numériseur peut afficher plusieurs couches d’informations qui lui permettent de louvoyer à l’écart des zones les plus critiques. Sur une carte IGN classique au 1 : 25 000, il consulte la carte des pentes, la carte des terrains avalancheux (ATHM, Avalanche Terrain Hazard Map), la photo satellite en condition estivale ou hivernale et les traces GPS enregistrées par les pratiquants lors de leurs sorties pour tenir compte des passages réellement empruntés.
Après les cartes des pentes, la Fondation Petzl et l’IGN ont conclu un nouveau partenariat en 2023 pour diffuser gratuitement les itinéraires de randonnée hivernale sur le Géoportail.
Les traces de randonnée hivernale proposées par la Fondation Petzl en coopération avec Skitourenguru.ch (traits orange) sont intégrées au fur et à mesure du cycle de production et de diffusion de la carte IGN au 1: 25 000 (SCAN 25®) . Durant cette phase transitoire, les nouvelles traces (orange) vont coexister avec les anciennes traces (traits bleus), puis progressivement les remplacer. Les pratiquants sont invités à privilégier les tracés orange proposés par la Fondation Petzl et Skitourenguru.
Voir les traces sur le Géoportail
Pour accéder à la collection de traces de randonnée hivernale : aller dans le menu Cartes (en haut à gauche de l’écran) ? Données thématiques ? Développement durable ? Risques ? Traces de randonnée hivernale
L'objectif est d’optimiser le tracé des itinéraires en période hivernale en vue de réduire le risque d’avalanche et de glissade dangereuse dans les passages délicats (voir le détail des explications dans cet article). Pour télécharger une trace sous format GPX et préparer vos courses, il est possible d'utiliser les applications Skitourenguru et Yéti
Articles connexes
Les stations de montagne face au changement climatique (rapport de la Cour des comptes)
Etudier les villes moyennes en France en utilisant les cartes au 1/25 000 du Géoportail
La carte de Cassini embellie sur le site du Géoportail
Globes virtuels et applicatifs
-
8:05
Pour une IA favorable aux travailleurs
sur Dans les algorithmes« Lorsqu’une technologie ne permet pas encore d’améliorer significativement la productivité, son déploiement massif en remplacement des travailleurs humains aboutit à tous les inconvénients, sans aucun avantage. » Daron Acemoglu
-
8:00
Internet n’explique rien
sur Dans les algorithmes« Internet est plus doué pour raconter des histoires que pour donner du sens ». « Notre quête d’un motif, d’une explication, ne va bien souvent nulle part ». Charlie Warzel « Nous avons atteint la fin d’Internet en tant que système d’information ». Ian Bogost.
-
7:30
Les avantages sociaux du privé… ne durent pas
sur Dans les algorithmesLe monde de la tech a longtemps été célèbre pour ses avantages sociaux extravagants et tape à l’œil, comme les cantines exotiques ou les salons de massages. Des commodités fantaisistes, luxueuses ou pro-sociales généreuses. Mais discrètement, ces avancées ont partout reculé, rapporte le New York Times. Netflix a toujours un congé parental généreux, mais l’entreprise a invité ses employés à moins l’utiliser. Les cuisines exotiques et artisanales de Google ont fermé. Même le télétravail a reflué. Et avec les licenciements massifs du secteur (254 000 emplois en 2023, 100 000 en 2022), les travailleurs de la technologie ont peut-être perdu leur plus grand avantage : la sécurité de l’emploi.
-
7:00
De notre éblouissement
sur Dans les algorithmes
-
17:59
Normandie : les géodonnées au coeur des politiques
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa Région Normandie met en œuvre de manière très concrète la diffusion, l’ouverture et la valorisation des données géolocalisées, au-delà de la seule cartographie. L’équipe Service Information Géographique et Open Data déploie des solutions dans ses nombreux domaines d’intervention.Avec son littoral long de 640 km et huit ports de commerce tournés vers la mer la plus fréquentée du monde, la Normandie est l’une des régions les plus connues au monde. Elle a la chance de disposer d’offres uniques qui fondent sa notoriété mondiale comme le Mont-Saint-Michel, le tourisme de mémoire autour notamment du Débarquement, l’Impressionnisme ou le patrimoine médiéval. Sa réputation s’est aussi construite autour de sa gastronomie et de son art de vivre. La Normandie n’est pas en reste sur le plan économique. La région regroupe les 1er et 6e plus grands ports français. (Le Havre, Rouen) et c’est également une région industrielle (automobile, pétrochimie), leader dans le domaine de l’énergie. Depuis une dizaine d’années, elle accueille des activités innovantes avec le développement de l’éolien off-shore et la structuration d’une filière de l’hydrogène. Sans oublier l’agriculture et l’élevage, autant de sujets qui sont évalués et cartographiés dans les nombreuses applications proposées sur le portail « Normandie à la Carte » mis en place par l’équipe du SIG Normandie.
Retrouvez la suite de cette enquête dans le magazine SIGMAG N°43
-
15:54
10 tendances à suivre dans les SIG en 2025
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
A l'instar des technologies de l'information de manière générale, l’industrie géospatiale traverse depuis quelques années une ère de transformation sans précédent, portée par des avancées technologiques et un besoin d’intégration de données spatiales d'une quantité et d'une diversité croissante. En 2025 le monde des SIG s'apprête à élargir ses horizons avec des innovations qui promettent d’améliorer l’efficacité, la précision et l’accessibilité dans l'usage des données géographiques. En ce début d'année, je prends le temps d'un article pour se pencher sur les 10 principales tendances qui façonneront le paysage géospatial en 2025 et au-delà.
Un SIG augmenté par l'Intelligence Artificielle
L'intégration du Machine Learning (y compris le Deep Learning) dans les SIG est une réalité depuis de nombreuses années mais nous entrons dans une nouvelle période pour l'IA dans les SIG où elle deviendra de plus en plus présente notamment avec l'arrivée de nouvelles capacités d'IA Générative. En 2025, que ce soit dans les tâches d'extraction et d'analyse de données (GeoAI) ou pour accompagner l'utilisateur dans l'usage quotidien de ses applications SIG (Assistants IA), l'IA se généralise dans les applications SIG pour plus d'efficacité dans l'usage des outils et pour assurer une meilleure qualité des données exploitée.
Dans ArcGIS, l'arrivée de nouveaux algorithmes de Deep Learning couplés à des moteurs conversationnels vont par exemple permettre une extraction plus interactive de données à partir de cartes et d'imagerie. L'amélioration des outils de Machine Learning (AutoML et AutoDL notamment) vont permettre d'analyser et de prédire plus facilement des modèles géospatiaux, et d'améliorer les capacités de prise de décision. De plus en plus, l'IA facilitera la détection d'anomalies dans vos données pour en améliorer la qualité mais aussi pour combler les données manquantes. L'ajout de nouveaux modèles de Deep Learning pré-entrainés va améliorer de nouveau vos capacités autour des enjeux de classification et d'extraction des données géospatiales à partir de sources d'imagerie. Enfin, l'année 2025 marquera une accélération dans l'ajout des assistants d'IA dans les applications pour pouvoir, via des prompts en langage naturel, interroger les ressources documentaires, générer des applications, écrire des expressions et du code, construire vos cartes, collecter des données, ...
SIG Temps-Réel et IoT
On l'évoque depuis de nombreuses années, grâce à l'Internet des objets (IoT), les nouvelles données ultra-dynamiques que ces capteurs connectés engendrent vont nécessiter des SIG eux-même temps-réel. Cela veut dire des SIG capables de concentrer, intégrer et diffuser la variété des flux de données temps réel disponible dans les organisation et d'exploiter leur dimension géospatiale pour filtrer, analyser et représenter ces "Big Data". De nombreuses études démontrent que le déploiement de la 5G, la baisse des prix et des services associés aux capteurs connectés (comptages véhicules/vélo/piétons, capteurs météo ou environnementaux, compteurs énergétiques, équipements de sécurité,...) feront de 2025 l'année de la multiplication des dispositifs connectés (41 milliards d'après). La conséquence sera la génération d'une grande quantité de données géospatiales en temps réel. Ces données, collectées permettront de mieux superviser et de gérer les infrastructures de votre territoire, les catastrophes naturelles, les risques environnementaux, etc...
Coté ArcGIS, le support continue de nouveaux types de connecteurs (format et protocoles) dans ArcGIS GeoEvent Server et dans ArcGIS Velocity permet depuis longtemps d'intégrer progressivement ces nouvelles sources de données et de les traiter à la volée avec une palette d'opérateurs de filtrage, de correction, de validation et d'enrichissement qui évoluent également régulièrement. Au-delà des améliorations autours des capacités de représentation de ces Big Data, l'arrivée d'ArcGIS Velocity dans ArcGIS Enterprise permettra de proposer la nouvelle technologie temps-réel dans un context "on-premises" et plus uniquement en mode "SaaS".
Cartographie 3D et Réalité Virtuelle (VR)
Notre monde et donc la manière de l'appréhender est en 3D. Les outils de cartographie et d'analyse 3D seront plus transparents et natifs dans les SIG, notamment pour les applications métiers autour de l'urbanisme, l'architecture, la gestion des infrastructures et la gestion des risques. Pour élargir l'utilisation des données 3D de référence gérées par le SIG, ce dernier va offrir de plus en plus de capacités de représentation en réalité virtuelle dans des environnements immersifs. La capacité à collecter, gérer, visualiser et analyser les données géospatiales nativement en 3D devient un standard. Pour tirer profit des nouvelles sources de données d'imagerie en 3D, des capacités de modélisation plus réalistes et plus précises vont se généraliser dans les SIG, permettant une meilleure appropriation de l'information géographique en 3D et facilitant ainsi la prise de décisions pour des projets complexes.
Le système ArcGIS est déjà très avancé en termes de capacités 3D. Cependant, de nombreuses innovations sont prévues en 2025 comme le support généralisé du format 3D Tiles pour maximiser l'interopérabilité avec d'autres systèmes 3D, l'exploitation des données OvertureMaps pour vous fournir un meilleur fond de carte 3D mondial, l'arrivée de nouveaux outils de modélisation 3D de phénomènes atmosphériques, l'ajout de nouveaux outils d'analyse 3D interactifs dans les apps web. Esri poursuit également en 2025 différents travaux autour des capacités d'AR/VR et de l'interaction entre SIG et moteurs de jeux (Unity, Unreal, ...) avec par exemple l'arrivée d'une nouvelle application ArcGIS Urban XR.
Cloud Computing et SIG SaaS
C'est un constat que nous faisons quotidiennement, les solutions SIG basées sur le Cloud (SIG SaaS - Software as a Service) continue de croître et cette tendance va s'accélérer dans les prochaines années. La migration vers des solutions SaaS peut concerner l'ensemble de son SIG ou seulement certaines composantes (stockage, IoT, applications, analyse, ....). L'approche SaaS permet la construction de plateformes géospatiales plus accessibles, évolutives et collaboratives. L'implémentation d'un SIG SaaS permettra aux utilisateurs de traiter et d'analyser des volumes plus importants de données géospatiales sans avoir besoin de gérer des infrastructures coûteuses à maintenir et à sécuriser. Le Cloud permettra aussi une meilleure intégration des SIG avec d'autres technologies liées à l'hébergement et à la diffusion de Big Data, à l'accès à des services d'IA ou des plateformes IoT. Implémenter les capacités des plateformes de Cloud Computing c'est aussi proposer un SIG capable d'être déployé totalement ou partiellement par votre organisation sur la plateforme Cloud (publique ou privée) de son choix pour tirer parti des avantages des architectures modernes telle que Kubernetes par exemple.
En ce qui concerne le système ArcGIS, l'implémentation d'un SIG sur le Cloud est une réalité et chaque mise à jour de la plateforme offre toujours plus de capacités SIG en mode SaaS, en particulier avec ArcGIS Online. En 2025, de nombreuses évolutions permettront aux utilisateurs d'utiliser plus d'outils d'analyse et de modélisation en mode SaaS et aux administrateurs de mettre en place des workflows d'entreprise complexes avec ArcGIS Online similaires à ceux d'une architecture "on-premise" avec ArcGIS Enterprise. L'année 2025 sera également l'occasion pour Esri de finaliser certaines capacités dans l'édition Kubernetes d'ArcGIS Enterprise faciliter la migration vers ce type d'architecture si vous êtes concernés.
Utilisation accrue des données satellites
Les données d'imagerie (terrestres ou aéroportées) connaissent une croissance exponentielle en raison de l'accélération du déploiement de satellites mais aussi avec la généralisation de la collecte d'images par drone et par véhicules terrestres. Dans le domaine de l'imagerie satellitaire, l'explosion de l'imagerie issue des constellations de petits satellites à orbites basses (LEO), permettra de disposer d'images plus précises, plus fréquentes sur la zone ciblée et plus accessible car moins couteuse. Le lancement de nouvelles constellations comme Japetus en 2025 permettra un taux de revisite exceptionnel, avec des observations toutes les 2 heures en moyenne, voire toutes les 45 minutes. Ces données joueront un rôle clé dans la gestion des ressources naturelles, l'agriculture de précision, la surveillance environnementale et la gestion des catastrophes. L'accès facilité aux images satellites, drones ou terrestres en temps quasi réel changera la manière dont les entreprises et les gouvernements gèrent les crises et les ressources. L'accélération des satellites radar (SAR) va aussi avoir un impact important sur les activités de surveillance continue de la planète (météorologie, avalanches, déforestation, évolution des zones côtières, occupation des sols,...) et nécessitera des capacités spécifiques de prise en charge des capteurs correspondant (lecture, calibration, traitement des signaux,...) dans les SIG pour tirer profit de ces données souvent invisibles par les capteurs optiques.
Dans le système ArcGIS, de nombreuses évolutions sont à venir pour supporter cette explosion des données d'imagerie satellites disponible. Le support du standard STAC va simplifier l'accès depuis ArcGIS aux catalogues d'images des principaux fournisseurs tels que Airbus DS. L'amélioration dans le support et la manipulation de l'imagerie multi-spectrale et des données SAR sera également un point important dans les capacités d'imagerie d'ArcGIS en 2025. ?
Le SIG en contexte de mobilité
Les applications SIG dédiées aux activités en situation de mobilité continueront de se développer avec l'usage des smartphones et des tablettes pour collecter et analyser des données géospatiales sur le terrain. Dotés de plus en plus d'autonomie et d'intelligence "locale", ces application SIG mobiles permettront de fonctionner dans des contextes totalement ou partiellement déconnecté du portail de services SIG. L'arrivée de l'IA permettra également d'automatiser et d'accélérer la saisie de certaines informations à partir de l'analyse intelligente de photos ou de vidéos collectée sur le terrain. Autre tendance, la multitude de capteurs pouvant être associées aux appareils permettra d'augmenter les mesures réalisées sur le terrain et directement intégrables dans les SIG. Ces outils seront utilisés dans des secteurs très variés, tels que l'agriculture, la logistique, la gestion des infrastructures, les secours d'urgence, et la gestion des services publics, pour des applications et des workflows de collectes de plus en plus métiers et spécifiques à chaque opérateur terrain. Les applications SIG mobiles évolueront donc en 2025 pour être plus facilement configurables et personnalisables.
Disposant de multiples applications mobiles depuis plusieurs années, ArcGIS va poursuivre son évolution vers plus de capacités en mode déconnecté, notamment sur des modèles de données avancés comme les Utility Networks. L'ajout de capacités d'IA Générative va permettre la génération de formulaires de saisie par de simples prompts en langage naturel, d'automatiser leur traduction dans différentes langues. L'ajout de capacités d'IA de type "vision par ordinateur" pour extraire des données automatiquement depuis des photos prises avec l'appareil mobile.
?
SIG et Développement Durable
Avec l'accent mis sur la transition écologique et la lutte contre le changement climatique, les SIG joue déjà aujourd'hui et joueront demain un rôle toujours plus stratégique dans l'analyse des impacts environnementaux, la gestion des ressources naturelles, et la planification de l’aménagement du territoire. Les SIG seront utilisés non seulement pour suivre les émissions de carbone, les risques liés aux catastrophes naturelles, la gestion des eaux et des forêts, mais aussi pour prédire et planifier le développement de villes plus durables. Pour cela, les SIG seront dotés de nouveaux outils de modélisation dynamique pour simuler les phénomènes tels que les inondations, le bruit, la pollution, le potentiel solaire/éolien, ... En 2025, les SIG vont également s'enrichir de nouveaux outils de planification urbaine intelligente pour pouvoir plus facilement d'estimer les impacts environnementaux, sociaux et économiques de différents options d'aménagement sur un territoire en prenant en compte toute sa complexité.
Dans ArcGIS, plusieurs fonctionnalités clés feront leur apparition dans l'année comme par exemple l'évolution sur le modélisateur d'aptitude d'ArcGIS Pro qui permettra de comparer plusieurs modèles, de comprendre leur différences et choisir le meilleur. Dans un autre domaine, un nouveau "solver" dans Network Analyst va permettre de traiter spécifiquement les problématiques d'optimisation de tournées de ramassage de déchets domestiques. ?
Le SIG pour cartographier et gérer les espaces Indoor
Depuis quelques années maintenant, exploiter les capacités de collecte, de gestion et d'analyse des SIG aux espaces intérieurs des infrastructures est une tendance qui se confirme et s'accélère. Les SIG joueront désormais un rôle clé dans la cartographie et la géolocalisation en Indoor pour répondre à la demande croissante de gestion intelligente des bâtiments et d'expérience facilitée pour leurs occupants. Les flux de personnes, les réseaux, les équipements mobiles, les véhicules sont autant d'éléments qui nécessite une continuité en l'extérieur et l'intérieur des bâtiments. Ainsi, l'enjeux est à la fois de collecter, gérer et analyser les bâtiments, leurs équipements et leurs occupants mais aussi de disposer d'un SIG unique et homogène pour prendre en charge l'indoor et l'outdoor. Ce besoin est particulièrement évident dans les aéroports, sites industriels, parcs de loisirs, parcs d'exposition, hôpitaux ou campus d'entreprises.
Chez Esri, cette problématique est essentiellement prise en charge par ArcGIS Indoors et ArcGIS IPS (pour la géolocalisation précise à l'intérieur des infrastructures). Ces applications vont évoluer de manière notable en 2025 avec l'arrivée de nombreux outils facilitant l'intégration des données CAD/BIM et des plans d'étages. 2025 verra également l'arrivée d'une nouvelle application mobile plus moderne et plus riche fonctionnellement, prenant notamment en charge les vues immersive à l'intérieur et à l'extérieur des bâtiments. D'autres évolutions concerneront la gestion des espaces et les spécificités de planification liées aux nouveaux modes de travail (bureaux tournants, télétravail, ...). Pour ArcGIS IPS, l'année à venir sera largement orientée sur la prise en charge de nouveaux systèmes de localisation intérieure (IPS) comme le Wifi et à des workflows de déploiement sans phase d'arpentage préalable.
?
Interopérabilité des données géospatiales
Bien qui ne s'agisse pas toujours d'innovation technologique, les efforts pour standardiser et rendre les données (et les métadonnées) géospatiales interopérables continueront d'être un enjeu majeur pour les outils géospatiaux. L'intégration des SIG avec d'autres types de données (comme celles des systèmes d'information d'entreprise, des entrepôts de données sur le cloud, des données ouvertes) permettra une meilleure analyse croisée des informations et une prise de décision plus complète. En implémentant les nouvelles générations de normes d'interopérabilité issues de l'OGC, de l'ISO, du W3C, ou des standards industriels de l'IOT, de l'architecture et de la construction (CAD/BIM), des moteurs de jeux,… En 2025, les SIG proposeront des applications nouvelles intégrant les données temps-réel, la cartographie immersive ou la planification urbaine par IA générative et, plus que jamais, devront s'interconnecter avec d'autres composants du SI de vos organisations.
Coté ArcGIS, cela va se traduire pas de nombreuses évolutions cette année. Par exemple, avec un support amélioré des formats comme GeoParquet, 3D Tiles ou IFC, uen connexion simplifiée à One Drive ou Google Drive, le support avancé des colonnes spatiales de certains Cloud Data Warehouses, des nouvelles normes OGC API, ... Après l'intégration des bases de données de Graphes ces 2 dernières années, 2025 verra l'intégration des bases de données NoSQL comme source de données standard dans ArcGIS. L'interopérabilité de données "Cloud to Cloud" continuera d'évoluer avec de nouveaux connecteurs, de nouvelles API et le support avancé de certains mécanismes d'authentification dans ArcGIS Data Pipeline.
?
Cartographie automatisée de la réalité
L'automatisation des processus de cartographie 2D et 3D sera encore plus simple et plus systématique grâce à l'usage de nouvelles sources de données comme les images de drones, les capteurs embarqués pour la collecte de données comme le LiDAR (Light Detection and Ranging). Ces outils permettront de cartographier plus fréquemment et plus précisément des zones à forts enjeux évoluant très rapidement ou encore des zones d'intérêt difficiles d'accès, telles que des zones peu accessibles, des zones à risques ou des environnements urbains complexes. Cette cartographie automatisée reposera notamment sur de nouveaux outils de photogrammétrie numérique pour générer des données très fidèles à la réalité (Orthophoto vraie, MNT/MNS haute-résolution, Objets 3D texturés, Photomaillages 3D....). Pour les SIG, c'est une étape incontournable pour constituer le socle des jumeaux numériques des territoires.
Dans ArcGIS, l'imagerie satellite issue d'acquisition multi-stéréo apportant non seulement de la flexibilité en termes de couverture des zones ciblées mais elle offrira aussi la possibilité de générer des contenus 3D par des processus de photogrammétrie. L'explosion des drones et l'amélioration constante de leur autonomie et de leur résolution vont permettre d'obtenir des produits cartographiques 2D et 3D toujours plus précis grâce au moteur de photogrammétrie "ArcGIS Reality" qui est la fondation d'ArcGIS Drone2Map, Site Scan for ArcGIS, ArcGIS Reality Studio ou encore ArcGIS Reality for Pro. De nombreuses évolution sont à venir en 2025 sur la qualité des produits générés, la performance des traitement et l'intégration de ces applications dans le système ArcGIS, notamment dans ArcGIS Enterprise. Enfin, grâce à des système de prise de vue panoramiques de plus en plus accessible et simple à mettre en oeuvre, l'imagerie orientée acquise depuis le sol va continuer de se généraliser dans ArcGIS en tant que source de données standard à haute valeur ajoutée pour fournir le contexte réel du terrain, réaliser des mesure sans se déplacer sur site, extraire automatiquement des données, ... Par exemple, vous verez arriver très rapidement dans Experience Builder un widget d'imagerie orientée similaire à celui de Map Viewer ou celui d'ArcGIS Pro.
Voilà pour ce rapide tour d'horizon de quelques grandes tendances que j'ai choisies de manière un peu arbitraire, il y en a tant d'autres. Je vous donne rendez-vous tout au long de l'année 2025 pour approfondir tout cela et faire le lien avec vos outils et vos usages quotidiens...
-
12:05
Le data storytelling des populations annuelles
sur Icem7Cas d’école du data storytelling, la mise à jour annuelle des populations communales (dites « de référence ») se dévoile chaque décembre dans un ballet parfaitement réglé : l’Insee publie le même jour un « Focus » national et 17 « Flash » régionaux, immédiatement amplifiés par la presse locale et nationale.
Grande gagnante de la remise des prix : l’Occitanie ! À vrai dire, ce n’est pas nouveau, la vitalité démographique de cette région est régulièrement soulignée. Mais cette année, deux seuils symboliques sont en passe d’être franchis.
Capitale régionale, Toulouse (la commune) parait sur le point de dépasser Lyon, en nombre d’habitants au 1er janvier 2022 – date de référence de la mise à jour. Avec Montpellier, elle continue de progresser à vive allure, avec les plus forts taux de croissance observés parmi les villes de plus 200 000 habitants. Plus globalement, la région Occitanie talonne désormais la Nouvelle-Aquitaine, après avoir doublé, l’année précédente, les Hauts-de-France. C’est parmi les régions de l’Hexagone celle qui progresse le plus vite. Au niveau national, seules la Guyane et la Corse la devancent (peut-être aussi Mayotte, dont les chiffres ne sont pas connus).
Ce qui explique le dynamisme occitan, ce n’est pas la natalité, mais bien plutôt la formidable attractivité de la région : des étudiants et des jeunes actifs viennent aimantés par les métropoles de Toulouse et de Montpellier ; des retraités affluent de régions plus septentrionales, tout particulièrement friands des franges méditerranéennes.
Voilà pour le storytelling, même s’il provient davantage des commentaires enthousiastes de la presse et des politiques que des plus posés statisticiens de l’Insee Occitanie. Ceux-ci s’efforcent, dans leur analyse, d’en dire un peu plus ; mais le discours technique qu’ils ont appris à tisser est, pour le profane, parfois difficile à démêler.
Car si la notion de population parait simple à saisir, il n’en va pas de même pour la méthode de mesure (l’enquête annuelle de recensement), les indicateurs clés (taux d’évolution annuel moyen, solde naturel et solde migratoire apparent…) ou les grilles géographiques (qu’est-ce qu’une ville, une métropole, comment définir le rural et ses divers degrés de « profondeur » ?).
L’Occitanie, c’est aussi ma région, et la pédagogie par les graphiques, une de mes passions. Voyons maintenant comment résumer et expliquer en 15 images la vive progression de la population occitane. L’outil graphique, bien maitrisé, est un puissant révélateur ; il permet aussi de mieux mémoriser les trouvailles les plus marquantes. J’expliquerai mes choix, y compris dans la présentation des chiffres, endossant l’habit de l’explorateur statisticien et sémiologue.
L’Occitanie, c’est où, c’est quoi ?Faut-il le rappeler, l’Occitanie est une construction administrative toute récente : ce qui est évident pour les services de l’État et les collectivités territoriales de cette région – sa localisation, et surtout son étendue – ne l’est pas forcément pour tout le monde.
Une carte doit donc poser le décor : l’Occitanie est délimitée en rouge, et pour bien se figurer la croissance de la population, exprimons-là d’abord en volume (habitants perdus ou gagnés) et par an.
Rares sont les régions qui ont perdu de la population entre 2016 et 2022.
L’ordre de grandeur des sept plus forts gains annuels est celui de la population d’une ville moyenne, entre 30 000 et 50 000 habitants. C’est une concrétisation assez facile à se représenter. Dans un bel ensemble, plusieurs services régionaux de l’Insee en filent du reste l‘image dans leurs « Flash » : chaque année, Paca « gagne l’équivalent de la population d’une commune comme Montélimar », la Nouvelle-Aquitaine s’accroit d’un nouvel Angoulême, et pour l’Occitanie l’Insee donne l’équivalence de Sète ou d’Alès (j’aurais, en bon Midi-Pyrénéen, proposé aussi Tarbes). Quoi qu’il en soit, c’est bien en Occitanie que le gain, en valeur absolue, est le plus élevé.
Bien que les chiffres soient mis à jour chaque année, la population et ses évolutions s’analysent par fenêtres de 5 ou 6 ans. En effet, le recensement de la population est désormais un sondage glissant. En 5 ans (ou 6 ans dernièrement du fait de la pause Covid), chaque habitant des petites communes (moins de 10 000) aura été recensé, et 40 % de ceux des grandes. Ce recul de 5 ou 6 ans est donc nécessaire pour disposer d’une photographie précise des évolutions. La période 2016-2022 sera par la suite comparée à la période précédente : 2011-2016.
Place aux départements, dont le maillage est plus équilibré que celui des régions, ce qui rend les comparaisons en volume un peu plus pertinentes. Avec +18 010 habitants par an, la Haute-Garonne est dans le duo de tête avec la Gironde.
J’ai bien en tête que vous, lecteur et lectrice, ne savez pas tous forcément où se trouvent la Haute-Garonne et la Gironde, mais j’en ai dit et dessiné assez pour que vous les situiez…
Face à la Nouvelle-Aquitaine ou Auvergne – Rhône-Alpes, considérez la belle assise de l’Occitanie, bénéficiant de la poussée combinée des métropoles de Toulouse et Montpellier.
Qu’est-ce qu’un taux d’évolution annuel moyen ?Par la suite, et pour asseoir plus correctement les comparaisons entre territoires, je vais rapporter ces progressions à la population de départ, comme le fait l’Insee. Le taux d’évolution de la population sur 2016-2022 est calculé en progression annuelle, pour qu’on puisse le comparer avec le taux observé entre 2011 et 2015, dont le pas est différent (6 ans versus 5 ans).
À l’échelle de l’Occitanie, le taux d’évolution 2016-2022 s’établit à 0,77 %, il est très proche de celui observé entre 2011 et 2016.
Comme la plupart des pourcentages, il est difficile de se représenter un tel chiffre, surtout quand il est très faible. En fait, cela veut dire que, chaque année sur la période 2016-2022, la population est multipliée par 1,0077.
Ainsi, pop2022 = pop2016 * 1,0077 * 1,0077 * 1,0077 * 1,0077 * 1,0077 * 1,0077
Ce 0,77 % se calcule donc à partir de la racine sixième de pop2022 / pop2016, mais je vous fais grâce de la formule…
On peut dire aussi que pour 10 000 habitants au départ, on se retrouve un an plus tard avec 77 personnes de plus !
Les deux moteurs des mouvements de populationL’Occitanie progresse à un rythme deux fois plus élevé que la moyenne française.
J’arrondis ici un peu violemment, car le rapport exact entre ces deux rythmes est de 0,77 / 0,35 = 2,2, mais truffer son discours de chiffres et de décimales le rend rarement plus lisible. Le lecteur retiendra bien mieux un ordre de grandeur et ira dans les tableaux chercher, s’il le souhaite, les valeurs exactes.
Comme le détaille le graphe suivant, le taux d’évolution peut – et c’est magique – se décomposer en deux facteurs : le solde migratoire exprime la différence entre les arrivées et les départs de personnes, le solde naturel entre les naissances et les décès. Et c’est bien ainsi que bouge en continu la population de ma commune : des enfants naissent, des personnes meurent, de nouveaux ménages s’installent dans ce lotissement récent, mes voisins déménagent et une famille moins nombreuse les remplace…
Alors qu’en moyenne en France, solde naturel et solde migratoire contribuent de façon égale à la progression, en Occitanie, ce sont les seules migrations qui expliquent le gain de population. Pour 10 000 habitants en moyenne en France, un an plus tard on en a 18 de plus avec les migrations et 16 du fait de la balance naturelle. En Occitanie, on se retrouve avec 77 personnes de plus, en quasi-totalité du fait des migrations.
Le détail des 13 départements de la région Occitanie expose trois autres faits remarquables : partout la population progresse (même si très faiblement en Lozère) et les contributions migratoires sont significatives (>= 0,5 %). Elles contrebalancent l’effet du solde naturel, négatif ou quasi nul presque partout, sauf en Haute-Garonne où les deux composantes se renforcent mutuellement.
Ce qui dans la note de l’Insee était un tableau alphabétique mérite vraiment d’être mis en graphe, trié par ordre décroissant. Je présente le solde migratoire avant le solde naturel pour une meilleure continuité visuelle.
Le lecteur attentif aura noté la différence de précision entre les deux premières lignes et celles détaillées par département : deux chiffres après la virgule, ou un seul. Curieusement, alors que les populations de référence font historiquement l’objet d’un culte « à l’unité près » (voir le titre « 6 080 731 habitants en Occitanie »), l’Insee diffuse ses taux d’évolution avec un seul chiffre, comme si soudain il n’était plus aussi sûr de la précision de ses données. Le « Focus » national y fait exception, et c’est pour cela que dans le graphique précédent, les taux nationaux ont deux décimales et les taux des départements occitans une seule.
Je suis pour ma part partisan de l’arrondi (à la dizaine ou la centaine), toujours plus lisible, des chiffres de population dès qu’ils sont agrégés au delà de la commune, mais en faveur d’un taux d’évolution à deux chiffres quand il faut comparer deux valeurs.
Par exemple, les taux d’évolution de population à Toulouse et Montpellier sont respectivement, recalculés par mes soins, de 1,23 % et 1,45 %, soit un écart de 0,22 point, mais publiés avec un écart apparent de 0,3 point sous la forme arrondie 1,2 % / 1,5 %.
Qu'est-ce qui a changé ces dix dernières années ?Le portrait dressé jusqu’à présent, sur la période 2016-2022, n’est pas très différent de l’analyse que l’on pouvait faire, il y a un an, de la fenêtre précédente (2015-2021). Élargissons donc la perspective en remontant le temps, et comparons 2011-2016 et 2016-2022.
Apparait alors un autre fait remarquable : le moteur migratoire accélère (ou se maintient) dans la plupart des départements. Et plutôt nettement dans des territoires assez peu peuplés comme la Lozère, l’Ariège ou le Lot. C’est peut-être bien là l’information majeure à retenir des chiffres publiés cette année.
Ce graphique, trié selon l’intensité de la variation d’une période à l’autre (la largeur des flèches), met en évidence quatre groupes, soulignés par un léger dégradé de couleurs.
À ce stade, le lecteur peut s’interroger : mais qu’est-ce qui explique cette attractivité forte et même croissante de l’Occitanie ? L’exercice annuel de l’Insee est très cadré (en nombre de caractères et de graphiques) et ne répond pas vraiment à cette légitime curiosité. Les Flash et Focus sur les populations de référence pour l’essentiel commentent des tableaux à partir des dernières données de comptage du recensement et de l’état civil, ils ne cherchent pas à faire de la pédagogie sur les causes.
Je suis donc allé chercher des réponses dans la bibliothèque et, bonne pioche, l’Insee a publié en partenariat avec la Région un dossier fouillé sur les migrations résidentielles en Occitanie. C’était fin 2020, ce n’est pas si vieux, je fais l’hypothèse que les migrations obéissent à des lois relativement stables à court-moyen terme.
En voici quelques extraits : « La quasi-totalité des territoires bénéficient de l’attractivité de la région et gagnent des habitants au jeu des migrations externes. 60 % des nouveaux arrivants viennent des trois régions voisines ou de l’Île-de-France. 18 % de l’étranger, mais cette part est inférieure à la moyenne nationale.
Outre étudiants et cadres réputés mobiles, les nouveaux arrivants sont aussi des chômeurs et des seniors. L’Occitanie est plus attractive vis-à-vis des couples sans enfant, des chômeurs et des seniors que les autres régions métropolitaines. Dans de nombreux territoires du littoral ou de l’arrière-pays méditerranéen, au moins un arrivant sur cinq est retraité. »
En réalité, l’Occitanie brasse beaucoup : « C’est une région que l’on quitte aussi, mais les arrivants (25 pour 1 000 hab. chaque année) sont plus nombreux que les sortants (15 pour 1 000 hab.). »
La baisse des naissances s’accélère,
le déficit naturel se creuseDepuis 2012, les naissances reculent dans la région, alors que les décès augmentent. Le solde naturel est devenu négatif en 2017 et ne cesse de se creuser depuis. Les derniers chiffres 2023 confirment cette tendance et laissent supposer que le dynamisme de la population occitane ne sera plus aussi vif à l’avenir – ou alors il faudrait que les migrations augmentent encore davantage…
Le graphique ci-dessus est reconstruit à partir d’une étude récente de l’Insee, qui prodigue d’éclairantes explications : « En Occitanie, la baisse de la fécondité explique à elle seule le fort recul des naissances en 2023, car la population en âge d’avoir des enfants progresse légèrement. En 2023, la fécondité recule fortement. L’indicateur conjoncturel de fécondité s’établit à 1,53 enfant par femme contre 1,67 en 2022 . L’Occitanie est la 4e région de France où les femmes ont le moins d’enfants, derrière la Corse, Grand Est et Nouvelle-Aquitaine. » Villes et campagnes, quelles différences ?
Le graphique suivant par catégorie d’espace, tiré du Flash de l’Insee Occitanie, est à l’origine de cet article : n’y voyant rien de facilement mémorisable, j’ai voulu en construire une version plus pédagogique. Certes, il est correct sur le plan sémiologique : les barres sont proportionnelles à la valeur de l’indicateur, la couleur distingue les deux périodes. Mais ce rouge vif fait mal aux yeux, et il met en évidence non pas la dernière période, mais la précédente. Le graphique est trié selon l’ordre de la nomenclature et pas en fonction des valeurs, si bien que l’on voit alterner des ralentissements et des progressions : en faire la synthèse demande un gros effort cognitif.
Enfin, je me suis demandé d’où venait cette typologie des catégories d’espace, et notamment la définition du rural non périurbain, dont le graphique laisse d’ailleurs à penser, si l’on n’est pas attentif, qu’il ne représente rien en Occitanie…
Mais sur le fond, ce qui m’a troublé le plus, c’est qu’après avoir vu vanter dans le Flash Insee la vigoureuse croissance de Toulouse et Montpellier, son accélération même en 2016-2022, voilà que la catégorie « grands centres urbains » de la région m’apparait globalement ralentir ! Quels sont donc, au juste, ces grands centres urbains d’Occitanie ?
Après quelques efforts pour comprendre et reconstruire cette typologie communale (elle n’est pas explicitée dans l’étude), j’isole 5 grands centres urbains, qui se divisent en 3 groupes :
- Toulouse et Montpellier, en accélération,
- Béziers, en croissance un peu ralentie,
- Nîmes et Perpignan, qui soudain marquent le pas (et même décroissent un peu).
Que se passe-t-il donc à Nîmes et Perpignan ? Voilà un nouvel angle d’exploration pour souligner ce qui est en train de changer dans la région. Mais je n’ai pas de quoi éclairer ce retournement.
Cette catégorie des grands centres urbains m’apparait donc trop hétérogène pour figurer dans un graphique.
Examinons maintenant la forte évolution opposée, l’accélération des « centres urbains intermédiaires ». Une carte les présentant arrive bientôt. J’isole dans le graphique suivant les villes les plus importantes et, par la couleur, je souligne les inflexions majeures, qui expliquent la montée en force de cette catégorie d’espace.
Alès et Tarbes, en particulier, rebondissent de façon spectaculaire, affichant une vive croissance après une période de baisse – baisse assez ancienne dans le cas de Tarbes.
Que se passe-t-il donc à Alès et Tarbes, voire Castres ou Carcassonne ? Je n’ai pas d’explication à ce stade. Mais c’est à nouveau un bel angle journalistique.
Voici donc ma reconstruction du graphique de synthèse de l’Insee, celui avec les barres rouges et bleues : j’isole Toulouse et Montpellier, et je dégage trois groupes de croissance, chacun trié. La stabilité du rural non périurbain est cette fois-ci clairement indiquée, et c’est aussi un fait marquant : les campagnes et bourgs ruraux éloignés des grands pôles urbains ne perdent globalement pas de population, et c’est grâce aux migrations.
Pas très documentée par l’Insee, cette nouvelle typologie des catégories d’espaces est un hybride de deux typologies mieux connues : la grille communale de densité et le zonage en aires d’attraction des villes (AAV). Mise en carte, cette typologie apparait assez élégante – et j’ai toujours eu un faible pour les typologies spatiales.
Ce qui dans la grille communale de densité est décrit comme rural, dans cette nouvelle catégorisation se subdivise :
- en un « rural périurbain », des communes rurales dans une aire d’attraction des villes de plus de 50 000 habitants,
- et le reste du rural, dénommé « non périurbain ».
Ainsi, l’Ariège ou la Lozère sont presque entièrement, hors quelques villes, dans un « rural non périurbain », car les aires d’attraction de Saint-Girons (ouest de l’Ariège), Foix-Pamiers ou Mende comptent moins de 50 000 habitants.
En Occitanie, ces catégories d’espace traduisent un bel équilibre, elles représentent chacune une part substantielle de population, et quatre d’entre elles voisinent ou dépassent le million d’habitants.
J’arrondis ici les chiffres à la centaine, pour un abord bien plus amical.
Qu’est-ce qu’une ville ?
À la lecture des publications de l’Insee sur les populations de référence, lecteurs et lectrices peuvent ressentir un léger flottement face aux multiples définitions d’une ville, par exemple comme Toulouse : il peut s’agir de la commune, de l’agglomération ou d’un « grand centre urbain ».
Mais cette diversité d’approches se justifie. Pour accueillir de nouveaux habitants, une commune se verra contrainte par ses limites, ses réserves foncières ou ses possibilités de transformation de friches industrielles en espaces habitables. En conséquence, la commune n’est pas le cadre le plus adapté pour comparer deux pôles en expansion, qui vont « s’étaler » en densifiant les communes périphériques.
L’agglomération se définit d’abord par la reconnaissance d’espaces où le bâti est continu (moins de 200 m) et regroupe au moins 2 000 habitants. Si une commune comprend un tel espace, elle est urbaine. Si de plus la moitié de sa population au moins réside dans cet espace continu, cette commune est susceptible de former avec une autre voisine et répondant au même critère une « agglomération ».
Ainsi, une agglomération peut s’étendre assez loin autour d’un centre, voire de multiples centres, tout en comprenant de vastes zones agricoles ou naturelles.
L’agglomération de Toulouse comprend 81 communes.
Le grand centre urbain est le cœur dense de l’agglomération : la méthode de délimitation, européenne, ignore elle-aussi dans un premier temps les limites communales et agrège des carreaux contigus de 1 km², chacun d’au moins 1 500 hab. et qui rassemblés finissent par dépasser 50 000 habitants. Un tel agrégat dense, ou « cluster » conduit à définir le « grand centre urbain » comme l’ensemble des communes dont la moitié de la population au moins réside dans ce cluster.
L’aire d’attraction des villes (AAV) dépasse ces critères morphologiques, comme « vus du ciel », pour y associer des communes encore plus périphériques, mais dont une part significative de la population active (15 % au moins) travaille dans le pôle centre. L’AAV de Toulouse englobe ainsi 527 communes !
Comment s’analyse le dynamisme démo-graphique de Toulouse et Montpellier selon ces différentes définitions ? Dans les deux cas, la population croit plus vite si l’on élargit le périmètre au grand centre urbain ou à l’agglo (et même à l’AAV dans le cas de Toulouse). Choisir la bonne délimitation n’est donc pas un geste neutre.
Le duel haletant Toulouse / Lyon
Après la conférence de presse de l’Insee, la Dépêche du Midi, le quotidien régional, n’a pas craint d’affirmer : « Il y aurait désormais plus d’habitants à Toulouse qu’à Lyon ». Et le maire de Toulouse de surenchérir : « En considérant ces résultats, nous pourrions être, aujourd’hui, la 3e ville de France. »
Au 1er janvier 2022, ce n’était pas encore le cas. Mais vu la différence de rythme avant 2022, on peut en effet imaginer que, début 2025, la commune de Toulouse a déjà dépassé celle de Lyon.
Mais il faut tout de même relativiser. En superficie, Toulouse est 2,5 fois plus grande que Lyon. Toulouse disposait et dispose encore de vastes surfaces constructibles, ce qui la rend bien plus apte à se densifier que Lyon, où la densité de population est déjà très élevée.
Tentons une comparaison plus équitable, en étendant le cadre de comparaison aux agglomérations et aux aires d’attraction : alors que, on l’a vu, la commune de Toulouse fait jeu égal avec Lyon, l’agglo ou l’aire d’attraction (AAV) de Toulouse ne représentent que les deux tiers de la population de l’agglo ou de l’AAV de Lyon. Ces deux métropoles ne sont pas encore comparables en volume, loin de là.
Mais, comme le montre le graphe suivant, il se confirme tout de même que la métropole toulousaine (AAV ou agglo) croit bien plus vite que la lyonnaise !
Pour en savoir plus Publications
- Population de référence au 1er janvier 2022 : 6 080 731 habitants en Occitanie, Insee Occitanie
- En 2023, forte baisse des naissances en Occitanie, Insee Occitanie
- Migrations résidentielles en Occitanie, Insee et Région Occitanie
- Les populations de référence des communes au 1er janvier 2022, Insee
Savoir compter, savoir conter, Daniel Temam & al., Courrier des statistiques 2009
Données et nomenclaturesPour mener mon exploration, j’ai utilisé dans un 1er temps l’outil Statistiques locales, déjà très puissant par ses capacités de sélection de zonages et de croisement d’indicateurs.
Ensuite, j’ai rassemblé les différentes ressources nécessaires, souvent disponibles dans un format excel zippé – ce qui n’est pas le plus commode – mais qui, après extraction, se manipulent fort bien avec mon outil de requête favori, DuckDB.
Cet article vous a plu ?
Découvrez nos formations sur mesure à la sémiologie graphique et au data storytelling.
L’article Le data storytelling des populations annuelles est apparu en premier sur Icem7.
-
11:10
La carte, objet éminemment politique : quand Trump dessine sa carte du monde
sur Cartographies numériquesA peine élu et avant même de prendre officiellement ses fonctions pour un second mandat, le président américain Donald Trump a esquissé sa carte du monde lors d'une conférence de presse qui s'est tenue le 7 janvier 2025 depuis Mar-a-Lago. Le Canada devrait, selon lui, devenir le 51e état des États-Unis pour des raisons économiques. Le Groenland sur lequel il avait déjà manifesté des vues expansionnistes, devrait être annexé au territoire américain pour des questions de sécurité nationale. Trump souhaiterait aussi récupérer le canal de Panama pour contrecarrer l'influence de la Chine. Le Golfe du Mexique devrait être renommé Golfe de l'Amérique. A l'appui de ces revendications territoriales, le président américain a publié sur son réseau Truth Social une carte fusionnant les États-Unis et le Canada avec un drapeau américain couvrant tout le territoire.
Pour un président qui ne se prive pas de dénoncer les fausses rumeurs (fakes), cette fakemap ne manque pas de saveur. Il faut dire que Donald Trump n'en est pas à son premier coup d'essai et qu'il s'était déjà arrangé avec la réalité lors du passage du cyclone Dorian en montrant une carte de trajectoire du cyclone dessinée à sa façon (#SharpieGate).
— Kenneth Field (@kennethfield) January 16, 2025
Le pouvoir performatif de la carte dont use et abuse Donald Trump a largement été relayé par les médias et les réseaux sociaux qui ont pris souvent ses déclarations au pied de la lettre, tout en s'en moquant pour une partie d'entre eux (voir par exemple cette carte-caricature de la Donroe Doctrine par le New York Post en référence à la doctrine Monroe revisitée par Donald Trump).
Le président Trump, qui se plaint régulièrement des relations avec le Canada et le Mexique qui côutent trop chères aux États-Unis selon lui, s'est dit prêt à user de la force économique si nécessaire pour parvenir à ses fins. Il est probable que ces déclarations provovatrices soient destinées à obtenir des accords commerciaux plus favorables pour les États-Unis. Les menaces d’annexion visent surtout à mettre une pression maximale sur le Panama pour réduire les droits de douane pour les navires américains. Pour rappel, le contrôle du canal de Panama achevé par les Etats-Unis en 1914, a été entièrement rendu à l'Etat du Panama en 1999, en vertu d'un accord signé par le président américain démocrate Jimmy Carter en 1977.
Dans le cas du Groenland, ce sont les richesses naturelles promises par la fonte de la banquise qui l'intéressent. L’intérêt de Trump pour le Groenland est lié à ses gisements de terres rares, essentiels pour des technologies comme les semi-conducteurs, les F-35 et l’IA. Avec 90 % des terres rares contrôlées par la Chine et la Russie, le Groenland est à même d'offrir une indépendance stratégique. L'objectif est également géopolitique de manière à contrebalancer la présence russe dans la région arctique. Le Groenland constitue un enjeu depuis l'époque de la Guerre froide avec la base américaine de Thulé.
[1/5] Donald Trump évoque l'annexion militaire du #Groenland, territoire stratégique de 2,16 M km² riche en minerais et crucial pour le passage du N-Ouest. L’île attire les convoitises, avec 25% de ses exportations dépendant de transferts danois couvrant 25% de son PIB. #HGGSP #geography #Greenland
— Patrick Marques (@pmarques35.bsky.social) 9 janvier 2025 à 10:27
[image or embed]
Cuba, Sicile, Philippines, Islande, port de Brême...
— Le Grand Continent (@Grand_Continent) January 7, 2025
Derrière les plans de Trump pour le Canada et le Groenland se trouve un projet impérialiste de «Grande Amérique»
Cartes exclusives et analyses à lire absolument [https:]] pic.twitter.com/4zsNW3Ypxh
Face aux vélléités trumpiennes d'expansion territoriale, les réactions n'ont pas tardé à se manifester dans différents pays. La présidente du Mexique Claudia Sheinbaum a riposté à la proposition de Donald Trump de renommer le golfe du Mexique, en suggérant que le territoire américain qui faisait auparavant partie du Mexique puisse s'appeler « Amérique mexicaine ». A l'appui de cette proposition, la présidente du Mexique a utilisé une carte du Mexique datant de 1607 montrant une partie des États-Unis actuels sous contrôle du Mexique (ce que l'on nomme aujourd'hui la Mexamerica).Claudia Sheinbaum was responding to the US president-elect's call for the Gulf of Mexico to be renamed the 'Gulf of America'. [https:]] pic.twitter.com/PfSxHS80od
— Financial Times (@FT) January 9, 2025
À la différence des dirigeants du Canada ou de Panama, la présidente de la Commission européenne, Ursula von der Leyen, n’a pas répondu aux menaces de Donald Trump proférées à Mar-a-Lago où le président élu exprimait sa volonté de s’en prendre au Danemark par la force ou par le rachat, s’il refusait de vendre le Groenland aux États-Unis. D. Trump entend peser de tout son poids pour arriver à arracher des concessions. Paris et Berlin ont condamné les menaces d’annexion. La Russie a également semblé être inquiète par les propos de D. Trump. Le Danemark a déclaré que son territoire n’était pas à vendre.[1/5] Le réchauffement climatique redessine la géopolitique mondiale. Alice Hill, experte au Council on Foreign Relations, explique que la fonte rapide des glaces en Arctique rend le Groenland stratégique pour ses ressources minières, tandis que la sécheresse perturbe le canal de Panama. #geography
— Patrick Marques (@pmarques35.bsky.social) 14 janvier 2025 à 11:55
[image or embed]
Bien qu'elles soient à prendre au sérieux pour les conséquences géopolitiques et géoéconomiques qu'elles risquent d'entraîner dans les années qui viennent, les vélléités impérialistes de Donald Trump peuvent prêter à sourire tant elles paraissent irréalistes...? URGENT : Donald Trump envisage d’annexer le Listenbourg pour son intérêt géostratégique. pic.twitter.com/PMXeFvEws6
— Olivier Varlan (@VarlanOlivier) January 8, 2025
Vilains rêves carto ?? Par Michael de Adder
— Le Cartographe ??? (@lecartographe.bsky.social) 13 janvier 2025 à 00:27
[image or embed]
Earth is flat
— Emad Hajjaj Cartoons (@EmadHajjaj) January 22, 2025
????? ???????? #Trump pic.twitter.com/mVRDUPqoG1Liens ajoutés le 20 janvier 2025
Paru en février 2019, l'ouvrage de Daniel Immerwahr How to Hide an empire. A history of the Greater United States met en lumière le côté expansionniste de l’Amérique. Nous connaissons les cartes qui délimitent les cinquante États. Nous savons aussi que les États-Unis sont un « empire » qui exerce son pouvoir dans le monde entier. Mais qu'en est-il des territoires réels – les îles, les atolls et les archipels – que ce pays a gouvernés et habités ? Le mot « empire » occupe une place particulière dans le lexique américain : il s’applique facilement à d’autres pays, mais rarement voire jamais aux États-Unis eux-mêmes (voir la conférence donnée par l'auteur en 2019 pour le Chicago Institute for the Humanities).
Le Danemark n'est pas une petite nation ! (Reddit.com/r/imaginarymaps/)Inspirée d'une ancienne carte coloniale portugaise, cette carte de propagande publiée sur Reddit est destinée à montrer l'étendue du Danemark avec ses possessions d'outre-mer. L'empire colonial danois était de fait plus étendu que celui du Portugal. Au lieu de simplement établir de petites stations commerciales le long de la Côte d'or et ailleurs, le Danemark règnait sur de vastes colonies en Inde (Tamil Nadu) et en Afrique de l'Ouest (Ghana). De plus, le Danemark possèdait la Tasmanie et les « îles Mikkelsen » de l'archipel arctique. Le Groenland, l'Islande, le Svalbard et les îles Féroé ont tous été découverts et colonisés par les Norvégiens. Ils faisaient alors partie de la Norvège (ou en font encore partie) jusqu'à ce qu'ils soient unis au Danemark. Puis, après les guerres napoléoniennes, la Suède a pris la Norvège, mais le Danemark a pu garder les territoires d'outre-mer (à l'exception du Svalbard).
Liens ajoutés le 22 janvier 2025Sur le site officiel de la Maison Blanche, l'ordonnance prise par D. Trump est présentée comme une volonté de "Restaurer les noms qui honorent la grandeur de l'Amérique" (sic).
Le changement de nom du point culminant de l'Alaska en Mont McKinley se veut tout un symbole :
"Le président William McKinley, 25e président des États-Unis, a mené héroïquement notre nation à la victoire dans la guerre hispano-américaine. Sous sa direction, les États-Unis ont connu une croissance économique et une prospérité rapides, y compris une expansion des gains territoriaux pour la nation. Le président McKinley a défendu les tarifs douaniers pour protéger l'industrie manufacturière américaine, stimuler la production nationale et porter l'industrialisation américaine et la portée mondiale vers de nouveaux sommets. Il a été tragiquement assassiné lors d'une attaque contre les valeurs de notre nation et notre succès, et il devrait être honoré pour son engagement indéfectible envers la grandeur américaine."
Concernant le golfe du Mexique rebaptisé "Golfe d'Amérique", tout un paragraphe est consacré à l'intérêt économique et stratégique de la région :"La région autrefois connue sous le nom de Golfe du Mexique a longtemps été un atout essentiel pour notre nation autrefois en plein essor et est restée une partie indélébile de l'Amérique. Le Golfe était une artère cruciale pour les premiers échanges commerciaux de l'Amérique et du monde. C'est le plus grand golfe du monde, et le littoral des États-Unis le long de cette remarquable étendue d'eau s'étend sur plus de 1 700 milles et contient près de 160 millions d'acres. Ses ressources naturelles et sa faune restent aujourd'hui au cœur de l'économie américaine. La géologie abondante de ce bassin en a fait l'une des régions pétrolières et gazières les plus prodigieuses du monde, fournissant environ 14 % de la production de pétrole brut de notre nation et une abondance de gaz naturel, et favorisant constamment de nouvelles technologies innovantes qui nous ont permis d'exploiter certains des réservoirs de pétrole les plus profonds et les plus riches du monde. Le Golfe abrite également des pêcheries américaines dynamiques regorgeant de vivaneaux, de crevettes, de mérous, de crabes de pierre et d'autres espèces, et il est reconnu comme l'une des pêcheries les plus productives au monde, avec le deuxième plus grand volume de débarquements de pêche commerciale par région du pays, contribuant à hauteur de plusieurs millions de dollars aux économies locales américaines. Le Golfe est également une destination préférée pour le tourisme et les activités de loisirs des Américains. En outre, le Golfe est une région vitale pour l'industrie maritime américaine de plusieurs milliards de dollars, offrant certains des ports les plus grands et les plus impressionnants du monde. Le Golfe continuera de jouer un rôle central dans le façonnement de l'avenir de l'Amérique et de l'économie mondiale, et en reconnaissance de cette ressource économique florissante et de son importance cruciale pour l'économie de notre pays et sa population, je demande qu'il soit officiellement rebaptisé Golfe d'Amérique."Il semble que ce paragraphe ainsi que certains autres passages des 46 décrets pris par l'Administration Trump aient été rédigés à l'aide de l'IA : un "travail bâclé et profondément discutable" selon certains analystes. La page de discussion de l’article de Wikipédia sur le Golfe du Mexique a explosé du fait que des utilisateurs sont venus exiger le changement de nom. "Quelle que soit votre opinion sur la rhétorique de Trump selon laquelle le golfe du Mexique fait partie intégrante des États-Unis, le nom du golfe du Mexique est antérieur à ce statut... vous ne pouvez forcer personne à utiliser le nouveau nom" (source : MapRoomBlog qui consacre un article à l'historique des cartes et de la manière de nommer le golfe du Mexique). Fait assez exceptionnel : le décret demande la modification du GNIS (Système d'information sur les noms géographiques), la base de données des noms officiels aux États-Unis.
Lien ajouté le 24 janvier 2025
L'expression "lac américain" était plutôt utilisée pour désigner la domination des Etats-Unis dans le Pacifique. Avec le regain d'intérêt US pour le golfe du Mexique, une nouvelle "Méditerranée américaine" en perspective ?
— Sylvain Genevois (@mirbole01.bsky.social) 24 janvier 2025 à 15:26
[image or embed]Lien ajouté le 27 janvier 2025
Carte du "Technat d'Amérique" (1940) donnant la vision du mouvement fascisant Technocracy auquel appartenait Joshua Haldeman, le grand père d'Elon Musk. "La technocratie a cherché de vastes territoires dotés de ressources abondantes pour lui permettre de s'autosuffire. Un technat est en fait une vaste étendue de terre gouvernée par une technocratie qui n'a besoin que d'un commerce minimal... Les technocrates croyaient fermement au continentalisme". On ne peut qu'être frappé par la ressemblance avec l'Amérique isolationniste défendue par Trump aujourd'hui. Bien qu'imaginaire, cette carte de l'influence des Etats-Unis va du Groenland au canal de Panama et inclut même une partie de l'Amérique du Sud.
Technate of America, 1940 (source : Wikipedia)
Lien ajouté le 31 janvier 2025Le golfe a eu de nombreux noms, du golfe de Floride au golfe de Cortès, mais il existe des preuves que le nom "Golfe du Mexique" remonte aux années 1550 (source : Historical Sketch of the Explorations in the Gulf of Mexico). On en trouve la trace sur cette carte de Mercator de 1559.
Extrait de la carte du monde de Mercator (source : Wikipédia)
En 2016, lors de la première élection du président Trump, Libération avait publié une carte du monde selon Trump (Trumpland). "Je ne suis pas le président du monde ; j'ai été élu président des Etats-Unis."
Lien ajouté le 2 février 2025Carte de Trumpland par Big © (source : Libération)
Dans la même veine, le journal The New Yorker a publié en janvier 2025 une carte parodique du dessinateur-illustrateur Bary Blitt. Intitulée "La dernière carte autorisée et presque légale des Etats-Unis", elle représente les Etats-Unis triomphants au sein d'une Amérique du Nord quasiment entièrement annexée.
Sources
« Donald Trump : Etats-Unis + Canada + Groenland + canal de Panama… Le monde vu par le président américain en une carte » (20 minutes)
« Groenland, Panama : Donald Trump renoue avec l’impérialisme de Theodore Roosevelt » (Le Monde)
« Nouvelle nomination du golfe du Mexique : la toponymie est à l’avant-garde d’un projet impérialiste aux conséquences incommensurables » (Le Monde)
« Donald Trump Jr. au Groenland : le projet impérial trumpiste d’une Grande Amérique en deux cartes exclusives » (Le Grand Continent)
« Donald Trump dessine les contours d’un nouvel impérialisme états-unien » (Mediapart)
« La présidente du Mexique demande à ce que certaines régions des États-Unis soient rebaptisées Amérique mexicaine » (The Financial Times)
« Trump peut-il faire main basse sur le Groenland ? » (Les Echos)
« Groenland : la Première ministre danoise dit à Trump que c’est au territoire de décider de son indépendance ou non » (Libération)
« En cartes. Pourquoi Trump s’intéresse au Groenland » (Cartes en mouvement). « Groenland : les enjeux de l’Arctique » (France Culture)
« Canal de Panama : en réponse à Donald Trump, le pays affirme que sa souveraineté sur l'axe maritime n'est "pas négociable" » (France-Info)
« La carte du canal de Panama, un raccourci commercial incontournable dans l'ombre des États-Unis » (El Orden Mundial)
« C'est ironique : comment la crise climatique alimente la campagne de Trump contre le Groenland et le Panama » (The Guardian)« Golfe du Mexique, mont McKinley… Pourquoi Trump veut-il renommer des sites naturels à sa façon ? Le peut-il vraiment ? » (RTBF)
« Jeux de noms : la stratégie de Trump pour le « Golfe d'Amérique » bafoue l'histoire et la coopération internationale » (Texas Observer)
« Trump peut-il simplement ordonner de nouveaux noms pour le Denali et le golfe du Mexique ? » (The Conversation). La géographe Innisfree McKinnon analyse les processus officiels de renaming aux USA gérés par le U.S. Board on Geographic Names. Elle s’intéresse aux débats sur des lieux emblématiques comme Denali ou le Golfe du Mexique, et aux implications géopolitiques.
« Google Maps va renommer le « Golfe du Mexique » en « Golfe d'Amérique » uniquement pour les utilisateurs américains et lorsque le changement de nom aura été reconnu dans les cartes officielles » (Reuters).
Articles connexes
Le monde vu à travers les tweets de Donald Trump
L'attaque du Capitole reconstituée en cartes et en vidéosLes pays bénéficiaires de l'aide des Etats-Unis depuis 1945
Qu'est-ce que le Listenbourg, ce nouveau pays fictif qui enflamme les réseaux sociaux ? (fake map)
Les nouvelles façons de « faire mentir les cartes » à l'ère numérique
La carte, objet éminemment politique
-
10:33
Los Angeles Wildfire Maps
sur Google Maps ManiaFive wildfires are currently burning in Los Angeles. At the time of writing, three of the fires remain uncontained. So far, the fires have claimed at least five lives, and 137,000 people have been evacuated. Over 1,000 structures, including many homes, have also been lost. Genasys Protect's evacuation management tool provides an interactive map where Los Angeles residents can access evacuation
-
7:00
L’IA n’est qu’un miroir
sur Dans les algorithmesDans son livre, The AI mirror (Oxford university press, 2024), la philosophe Shannon Vallor de l’Edinburgh Futures Institute, compare l’IA au Cloud Gate, cette sculpture monumentale de l’artiste Anish Kapoor qui se trouve à l’extérieur, dans la ville de Chicago, et qui ressemble à un miroir en forme de haricot géant. Quand on regarde le monde depuis ce miroir, tout y est déformé, selon l’endroit d’où on regarde. Parfois les choses sont agrandies, d’autres fois rétrécies ou tordues. Cela rappelle l’apprentissage automatique, « reflétant les modèles trouvés dans nos données, mais d’une manière qui n’est jamais neutre ou « objective » », explique la spécialiste de l’IA. Une métaphore qui est devenue la base de ses cours et de son livre, rapporte Fast Company. « Les miroirs de l’IA nous ressemblent beaucoup parce qu’ils reflètent leurs entrées et leurs données d’entraînement, avec tous les biais et particularités que cela implique. Et alors que d’autres métaphores pour désigner l’IA peuvent donner l’impression que nous sommes confrontés à une intelligence vivante (comme les perroquets stochastiques), celle du miroir semble plus approprié parce qu’elle montre que l’IA n’est pas sensible, juste une surface plane et inerte, nous captivant avec ses illusions de profondeur délirantes ». Avec le risque, que comme Narcisse, notre propre humanité soit sacrifiée à ce reflet. « Les systèmes d’IA peuvent refléter une image du comportement ou des valeurs humaines, mais, ils ne connaissent pas plus l’expérience vécue de la pensée et du sentiment que nos miroirs de chambre à coucher ne connaissent nos maux et nos douleurs intérieures ». Nos machines n’optimisent que l’efficacité et le profit, au risque de perdre de vue toutes les autres valeurs.
Dans Vox, la philosophe expliquait que le risque existentiel de l’IA n’est pas qu’elle nous submerge, mais qu’elle nous manipule et nous fasse renoncer à notre propre pouvoir, à notre autonomie et notre liberté, qu’on pense que nous devrions confier notre avenir à l’IA parce qu’elle serait plus rationnelle ou objective. Le problème fondamental du sens de l’existence c’est que nous devons le créer nous-mêmes, l’autofabriquer disait le philosophe José Ortega y Gasset. Or, la rhétorique autour de la puissance de l’IA nous invite à renoncer à notre liberté. La technologie ne peut pas nous servir à tomber dans un profond anti-humanisme. « Il y a une sorte de vide dans le transhumanisme en ce sens qu’il ne sait pas ce que nous devons souhaiter, il souhaite juste avoir le pouvoir de créer autre chose – de créer la liberté de dépasser notre corps, la mort, nos limites. Mais il s’agit toujours de liberté de, mais jamais de liberté pour. Liberté pour quoi ? Quelle est la vision positive vers laquelle nous voulons nous diriger ? (…) Pour moi, cette abstraction – l’idée d’une morale universelle pure selon laquelle des créatures qui sont complètement différentes de nous pourraient d’une manière ou d’une autre faire mieux que nous – je pense que cela ne fait que méconnaître fondamentalement ce qu’est la moralité. »
« Nous devons reconstruire notre confiance dans les capacités des humains à raisonner avec sagesse, à prendre des décisions collectives », explique-t-elle encore dans une interview pour Nautil.us. « Nous ne parviendrons pas à faire face à l’urgence climatique ou à la fracture de la démocratie si nous ne parvenons pas à réaffirmer notre confiance dans la pensée et le jugement humains, alors que toute la pensée de l’IA va à l’encontre de cela ». L’IA n’est que le miroir de la performance humaine, pas son dépassement. Elle est très douée pour faire semblant de raisonner.
Geoffrey Hinton a suggéré qu’un LLM peut avoir des sentiments. Mais il n’y parvient qu’en supprimant le concept d’émotion et en le transformant en simple réaction comportementaliste. « À partir de là, il devient très facile d’affirmer une parenté entre les machines et les humains, car vous avez déjà transformé l’humain en une machine sans esprit. » L’intelligence n’est pas ce que nous faisons, rappelle Vallor. Pour Sam Altman, l’AGI est une machine qui peut effectuer toutes les tâches économiquement utiles que les humains font. « Tout ce que nous avons comme objectif de l’IA générale, c’est quelque chose par lequel votre patron peut vous remplacer », ironise la philosophe. « Il peut être aussi insensé qu’un grille-pain, à condition qu’il puisse faire votre travail. Et c’est ce que sont les LLM : ce sont des grille-pain insensés qui font beaucoup de travail cognitif sans réfléchir ».
« Ce qui nous déroute, c’est que nous pouvons ressentir des émotions en réponse à une œuvre d’art générée par l’IA. Mais ce n’est pas surprenant, car la machine renvoie des permutations des modèles que les humains ont créés (…) et notre réponse émotionnelle n’est pas codée dans le stimulus, mais construite dans nos esprits ». Mais en tant qu’humains, nous ne sommes pas enfermés dans les modèles que nous avons ingérés, nous pouvons par exemple affirmer de nouvelles revendications morales.
Dans la Silicon Valley, l’efficacité est une fin en soi. Mais il n’y a pas de solution efficace au problème de la justice, rappelle la philosophe. Les thuriféraires de l’IA cherchent surtout à justifier le fait de priver les humains de leur capacité à se gouverner eux-mêmes. Le risque, c’est que par leurs excès, ils encouragent surtout les humains à s’éloigner de la technologie et à en provoquer le rejet. « Les outils ont été des instruments de notre libération, de notre création, de meilleures façons de prendre soin les uns des autres et des autres formes de vie sur cette planète, et je ne veux pas laisser passer cela, pour renforcer cette division artificielle entre l’humanité et les machines. La technologie, à la base, peut être une activité aussi humaine que n’importe quelle autre. Nous venons de perdre ce lien. »
La couverture du livre de Shannon Vallor, AI mirror.
-
11:13
The House Price Map
sur Google Maps ManiaOne of my favorite pastimes is searching for houses for sale in the UK and Europe. I love trawling real estate sites and discovering what kind of property I could buy if I sold my small terraced house in London. As a result of this almost daily exploration of real estate listings, you might say I have become obsessed with house prices and the cost of property in different areas of the UK.Which
-
10:30
Du 23 au 25 septembre et du 5 au 6 novembre 2025 à Lille : formation "Données Foncières"
sur Datafoncier, données pour les territoires (Cerema)Publié le 08 janvier 2025Une session de formation sur les "Données Foncières" se tiendra du 23 au 25 septembre et du 5 au 6 novembre 2025 dans les locaux du Cerema Hauts-de-France à Lille.Cette session est à destination des bénéficiaires des fichiers données foncières (Fichiers Fonciers et DV3F) et des bureaux d'études.Vous trouverez le contenu et le coût de la formation dans la rubrique AccompagnementInscription jusqu'au 31 août (…)
Lire la suite
-
10:30
Labellisation Aqua-Valley du projet Récolt'Ô
sur Makina CorpusLe projet Récolt’Ô labellisé par le pôle Aqua-Valley : une reconnaissance pour l’innovation au service de la gestion de l’eau.
-
9:30
Du 24 au 26 juin 2025 à Lille : formation "savoir utiliser DV3F" - Cloned
sur Datafoncier, données pour les territoires (Cerema)Publié le 08 janvier 2025Une session de formation "Savoir utiliser DV3F" se tiendra du 24 au 26 juin 2025 dans les locaux du Cerema Hauts-de-France à Lille.Cette session est à destination des bénéficiaires des fichiers DV3F et des bureaux d'études.Vous trouverez le contenu et le coût de la formation dans la rubrique AccompagnementInscription jusqu'au 23 mai (…)
Lire la suite
-
9:26
18-19 mars 2025 à Bordeaux: RDV autour de l’archéomatique en archéologie funéraire
sur archeomatic (le blog d'un archéologue à l’INRAP)4e séminaire-atelier : Production et analyse d’images en anthropologie et archéologie funéraire Programme et pré-inscriptions Bonjour à tous ! Voici venu le temps de l’annonce de la quatrième et dernière édition des Rendez-Vous autour de l’archéomatique en archéologie funéraire qui auront lieu à la MSH de Bordeaux. Cette collaboration fructueuse entre les Ateliers Archéomatiques et […]
-
8:12
Ça coule de source
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueGrande compagnie de gestion d’eau potable et des eaux usées en Région flamande, De Watergroep déploie depuis des années l’usage des SIG dans son organisation. Jusqu’en 2010, c’est avec un départ hésitant vers la numérisation que les SIG ont peu à peu pris leurs places. Élaborer un inventaire précis des actifs et évaluer le réseau d’eau potable, représentaient les premiers besoins. Après une collaboration avec SIGGIS et Esri BeLux, la vitesse supérieure est passée pour étendre la technologie à toutes les applications opérationnelles. Deux visualiseurs Web ont été intégrés en 2014. Depuis, 7 outils de ce genre et 5 portails de gestion ont suivi, exploités chaque jour par au moins 500 employés. De la gestion du réseau aux décisions commerciales, la compagnie a pu s’adapter rapidement aux demandes de ses partenaires avec ArcGIS.
+ d'infos :
dewatergroep.be
-
7:00
Pour une IA coopérative
sur Dans les algorithmesAujourd’hui, presque toutes les étapes du développement des modèles d’IA, de l’infrastructure de calcul aux données de formation, sont contrôlées par une poignée de grandes entreprises technologiques, rappelle la chercheuse Sarah Hubbard dans une tribune pour le Ash Center pour la gouvernance démocratique et l’innovation de Harvard. Pour que l’IA serve mieux l’intérêt public, il nous faut penser une propriété alternative et des structures de gouvernance plus partagées, défend-t-elle, en proposant de mieux explorer le modèle coopératif. A l’heure où la concentration des infrastructures est toujours plus forte, nous devrions promouvoir des alternatives pour rétablir de la concurrence, à l’image des projets coopératifs Coop-Cloud ou Common Cloud… voir défendre, comme le proposaient Nathan Sanders, Bruce Schneier et Norman Eisen, une IA publique, ou, comme le proposaient les chercheurs Tejas Narechania et Ganesh Sitaraman, des alternatives d’IA coopératives, voire encore des coopératives de données, comme Superset ou Aya, ou encore la possibilité de créer des modèles coopératifs pour que les travailleurs des données deviennent propriétaires des systèmes d’IA qu’ils contribuent à créer. Pour Sarah Hubbard nous devrions « explorer davantage les modèles opérationnels qui donnent aux utilisateurs finaux, en tant que parties prenantes, un pouvoir de décision sur les systèmes d’IA ».
De plus en plus d’initiatives de la société civile plaident en faveur d’une IA gouvernée collectivement. Le Collective Intelligence Project organise des assemblées d’alignement qui visent à intégrer la contribution du public dans le développement des systèmes d’IA. D’autres efforts sont déployés, comme les assemblées citoyennes que nous avions évoquées, ou encore les « sorties vers la communauté », c’est-à-dire les propositions pour que les entreprises du numérique passent sous contrôle coopératif de la communauté, comme Nathan Schneider l’avait envisagé pour Twitter ou comme l’avait proposé le milliardaire Franck McCourt pour TikTok.
Face à des entreprises surpuissantes, la piste coopérative peut sembler une alternative incapable de passer à l’échelle. La démocratisation de la technologie reste pourtant la seule voie pour rétablir de la confiance et de la décentralisation face à l’avenir technologique qui s’annonce. -
7:00
Les agents IA, moteurs de manipulation
sur Dans les algorithmesPour Wired, Kate Crawford estime que les assistants personnels sous IA que nous nous apprêtons à intégrer dans nos vies vont nous donner un sentiment de confort lié à l’illusion que nous nous engageons avec quelque chose qui semble humain, qui nous comprend trop bien parce que nous lui donnons accès à toutes nos données et aux services qu’on utilise. Pourtant, ces agents vont rester des systèmes qui servent des priorités industrielles qui ne sont pas nécessairement en phase avec nos propres priorités.
Nous allons surtout donner plus de pouvoir à ces priorités industrielles pour qu’elles décident pour nous de ce que nous achetons, de là où nous allons, de ce à quoi nous accédons. Ils sont conçus pour nous faire oublier leur véritable allégeance. Ce sont des « moteurs de manipulation commercialisés » qui se présentent comme des amis « pour nous rendre plus vulnérables à leur manipulation ». Le philosophe Daniel Dennett le répétait pourtant : les systèmes d’IA qui imitent les humains nous font courir un grave danger, celui d’accepter notre propre soumission. Les agents IA promettent un contrôle cognitif qui va au-delà de la publicité comportementale, puisqu’ils proposent de façonner les contours de la réalité à laquelle nous accédons. Pour Crawford, cette influence ouvre un régime psychopolitique parce qu’elle s’inscrit au coeur de notre intimité, de notre subjectivité. Alors que les formes traditionnelles de contrôle idéologique reposaient sur des mécanismes manifestes (censure, propagande, répression), désormais, elles promettent d’internaliser ces logiques, sans plus aucun moyen pour les contester, puisque leur commodité est la raison même de notre aliénation.
« Dans ce jeu de l’imitation, en fin de compte, c’est nous qui sommes joués ».
Sur les agents IA, voire également notre veille mise à jour.
-
16:44
Mises à jour janvier 2025
sur Toute l’actualité des Geoservices de l'IGNTous les nouveaux services web géoservices et toutes les mises à jour de données en téléchargement du mois de Janvier 2025.
-
13:12
Conférence de Michel Bruneau sur le Cambodge, Institut de Géographie (Paris), samedi 18 janvier 2025
sur Les cafés géographiquesSamedi 18 janvier 2025, de 10h à 12h, à l’Institut de Géographie, 191 rue Saint-Jacques, 75005 Paris, le géographe Michel Bruneau viendra animer une conférence sur le Cambodge.
Dans son ouvrage Parcours d’un géographe de transitions (L’Harmattan, 2023), Michel Bruneau revient sur le chemin qui l’a conduit de la géographie tropicale à la géographie critique. Après sa thèse sur la Thaïlande, il est devenu un éminent spécialiste de l’Asie du Sud-Est qui a proposé notamment un modèle d’organisation de l’espace du Cambodge.
Source : Michel Bruneau, Carte reproduite dans BAGF ( [https:]] )
Au-delà d’une meilleure compréhension de l’organisation de l’espace cambodgien, il faudra se demander si la relation entre les structures territoriales de l’Etat-nation actuel et celles de la période précoloniale est toujours lisible.
A lire sur le site des Cafés Géo : Les Cafés Géo » Michel Bruneau, un « géographe de transitions »
-
10:30
Transitioning farming systems in mainland France: A geography of contrasts and change, 2010 to 2020
sur CybergeoIn light of the decarbonization objectives in agriculture, environmental preservation, and the resulting challenges of economic sustainability and food security, both European (Farm to Fork) and French policies are encouraging a profound transition within agri-food systems. Consequently, the transformation of agricultural production methods has become imperative. This article delineates the landscape of transitioning farms across mainland France. It relies on a categorization of farms that integrates their agricultural production methods (organic or conventional) and their product marketing approaches (short circuits or long channels), drawing on data from the 2010 and 2020 agricultural censuses. The analysis yields a detailed map (INSEE canton level) illustrating the evolution of transitional farming from 2010 to 2020, opening the way for discussion on the factors favoring the emergence of certain transition types over others. The outcome reveals a complex geography influenced by s...
-
10:30
Concilier croissance économique, durabilité environnementale et ambitions professionnelles : le dilemme des responsables municipaux en Chine
sur CybergeoAprès des décennies d'industrialisation et d'urbanisation accélérées, la Chine a pris le tournant du développement durable en définissant sa propre vision, qui met l'accent sur l'innovation technologique et la modernisation industrielle. Alors que les grandes métropoles bénéficient de ressources humaines, matérielles et financières considérables pour s'adapter à ce changement, les petites villes situées dans des régions reculées ne bénéficient pas des mêmes avantages. Comment les cadres des petites villes parviennent-ils à développer des projets de développement territoriaux conciliant des exigences contradictoires de productivité et de durabilité environnementale ? Cet article examine les stratégies menées par deux mandatures municipales successives à Xianju, une petite ville située dans une région enclavée de l'est de la Chine, au prisme des trois grands défis de l’urbanisation en Chine : l’injonction au productivisme, la décentralisation asymétrique et le déficit structurel des b...
-
10:30
Towards an annual urban settlement map in France at 10 m spatial resolution using a method for massive streams of Sentinel-2 data
sur CybergeoThe size of urban settlements is rapidly increasing worldwide. This sprawl triggers changes in land cover with the consumption of natural areas and affects ecosystems with important ecological, climate, and social transformations. Detecting, mapping, and monitoring the growth and spread of urban areas is therefore important for urban planning, risk analysis, human health, and biodiversity conservation. Satellite images have long been used to map human settlements. The availability of the Sentinel constellation (S2) allows the monitoring of urban sprawl over large areas (e.g., countries) and at high frequency (with possible monthly updates). This massive data stream allows the proposal of new types of urban products at a spatial resolution of 10 meters. In this context, we developed a fully automated and supervised processing chain (URBA-OPT) using open-source libraries and optimized for rapid calculation on high-performance computing clusters. This processing chain has been applied ...
-
10:30
L’artificialisation des sols dans la presse française. Évolution (1982-mars 2024) et disparités spatiales : d’une notion floue à un objet juridique aux représentations multiples
sur CybergeoL’artificialisation des sols, objet sociotechnique à la définition floue, est devenue un objet juridique à travers une succession de dispositifs législatifs dont la loi Climat et Résilience de 2021. Après une rétrospective sur la formalisation de cette notion depuis 1982, une analyse de la presse française révèle que le nombre d’articles en rapport est en forte augmentation et que les registres lexicaux correspondent à des représentations protéiformes incluant notamment le changement climatique, la biodiversité, la gouvernance ou les projets urbains. La presse nationale et régionale produit et diffuse des informations d’ordre juridique, environnemental, sociétal et conflictuel sur ce paradigme désormais affirmé de l’urbanisme. Les lieux cités dans la presse du Nord de la France tend à démontrer que l’artificialisation des sols est employée à la fois dans les centres urbains les plus importants, leurs périphéries et les zones moins denses et plus agricoles, notamment lors de risques ...
-
10:30
Les gratuités des transports collectifs : quels impacts sur les politiques de mobilité ?
sur CybergeoLa gratuité des transports urbains fait partie du paysage français. Elle concerne des réseaux de taille variée, selon des modalités de mise en œuvre différentes, au point où il semble plus pertinent de parler de gratuités des transports au pluriel. Ces gratuités alimentent de nombreux débats ayant trait à la soutenabilité financière de telles mesures et à leur potentielle incidence sur la capacité des autorités organisatrices des mobilités à poursuivre la mise en œuvre de politique des mobilités durables. L’instauration de la gratuité d’un réseau de transports publics semble être perçue comme un frein à la poursuite du développement d’un réseau de transports collectifs en raison d’une baisse des moyens financiers des autorités organisatrices des mobilités. Cet article propose une analyse des conséquences des mesures de gratuité sur les politiques publiques locales de mobilité. En s’appuyant sur trois exemples de réseaux urbains passés à la gratuité durant les quatre dernières années...
-
10:30
Les territoires en déprise, espaces privilégiés de l’accueil d’exilés ? Une analyse des dynamiques du dispositif Asile et intégration dans la région Auvergne-Rhône-Alpes
sur CybergeoCet article porte sur l’hébergement des demandeurs d’asile dans la région Auvergne-Rhône-Alpes et questionne la part des espaces en déprise dans l’accueil de ces personnes. Il analyse la répartition du parc d’hébergement qui leur est dédié dans le cadre du dispositif national français Asile et intégration, à l’aide d’une base de données inédite fournie par la Direction régionale de l’économie, de l’emploi, du travail et des solidarités Auvergne-Rhône-Alpes en 2023. Cette étude est complétée par des entretiens semi-directifs avec des responsables de centre d’accueil. L’analyse à l’échelon fin de la commune permet de faire ressortir plusieurs points. D’une part, la dynamique de dispersion du parc Asile et intégration se poursuit entre 2017 et 2022, mais tend désormais à privilégier les agglomérations urbaines au détriment des espaces ruraux et les petites villes. D’autre part, on observe une tendance à un rééquilibrage territorial du parc d’hébergement des communes en déprise vers des...
-
10:30
Delineating African cities (large urban regions) to compare them within global urban networks
sur CybergeoAn important issue for Africa is evaluating cities' capacities to leverage global networks effectively to foster local development. However, this evaluation is complicated by the absence of a unified framework and criteria, making it difficult to compare African cities to both each other and with cities around the world. The first step, therefore, is to establish a basis for comparing African cities. In this paper, we address the challenges of defining urban boundaries for cities across Africa's 54 countries. We outline our methodology and present the results of adapting the concept of Large Urban Regions (LURs) (Rozenblat, 2020), which encompass regional urbanized areas surrounding the main African cities. In total, we delineated 304 African Large Urban Regions, covering 5,522 Local Administrative Units (LAU). This delineation of LURs enables African urban areas to be comparable with others worldwide and paves the way for evaluating their integration into global urban networks, esp...
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...
-
10:30
Digital twins: a territorial mediation to watch
sur CybergeoDigital technological solutions, supposedly turnkey and always effective, are regularly offered to cities. They can however attract many criticisms: for example, if they are "smart cities" - which work with difficulty when they clash with the diversity of urban forms and functions (Caruso, Pumain & Thomas, 2023); or if it is the concept of "mobility-as-a-service" that induces unanticipated effects on accessibility equity (Pangbourne et al., 2020); or "city dashboards" that ultimately offer only a very limited view of urban processes and raise ethical issues (Kitchin & McCardle, 2017). In this vein, it is the concept of Digital Twin that becomes the most fashionable for cities and territories. Would this new instrument be more convincing?
In the strict sense, the digital twin of a system is a computerized representation that simulates its internal processes and interacts with it in real time by two-way coupling (Batty, 2018). When it applies to the city, the practical meaning of the c...
-
10:30
Les jumeaux numériques : une médiation territoriale à surveiller
sur CybergeoDes solutions technologiques numériques, supposées clé-en-main et toujours efficaces sont régulièrement proposées aux villes. Pourtant, elles s’attirent maintes critiques : par exemple si ce sont des “smart cities” - qui fonctionnent difficilement quand elles se heurtent à la diversité des formes et fonctions urbaines (Caruso, Pumain & Thomas, 2023) ; ou s’il s’agit du concept de “mobility-as-a-service” qui induit des effets non anticipés sur l’équité d’accessibilité (Pangbourne et al., 2020) ; ou encore des “city dashboards” qui n’offrent finalement qu’une vue très limitée des processus urbains et qui soulèvent des enjeux éthiques (Kitchin & McArdle, 2017). Dans cette veine, c’est le concept de Jumeau Numérique qui devient le plus à la mode pour les villes et les territoires. Ce nouvel instrument serait-il plus probant ?
Au sens strict, le jumeau numérique d’un système est une représentation informatisée qui simule ses processus internes et interagit avec celui-ci en temps réel par ...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
7:00
Réguler la surveillance au travail
sur Dans les algorithmesComme nous le disions dans la précédente partie de notre dossier sur la surveillance au travail, les technologies numériques ont permis une expansion sans précédent du volume et du type de données collectées sur les travailleurs. La capacité à les analyser permet aux employeurs de tirer d’innombrables conclusions sur la productivité de leurs salariés…
Pourtant, concrètement, ces analyses sont bien souvent problématiques quand ce n’est pas défaillantes. En rendant fonctionnelles les statistiques, les indicateurs rétroagissent sur les comportements. La granularité et l’individualisation des métriques permettent de multiplier et d’accroître les pressions au travail, tous les dysfonctionnements étant renvoyés aux pratiques individuelles, « faisant peser toutes les contraintes sur le plus petit et le plus faible maillon de la chaîne », comme l’explique la sociologue Karen Levy dans son livre. Enfin, parce que dans le contexte du travail, les connaissances acquises par les données réorganisent et renforcent d’abord des déséquilibres de pouvoirs majeurs. La régulation de la surveillance n’arrive pas à limiter la recherche de l’amélioration de la production que la surveillance vise à faire advenir. Nous sommes confrontés à une surveillance qui se démultiplie sans parvenir à renforcer les protections légales des travailleurs, seules à même de les protéger d’une exploitation renforcée.
La lutte contre la surveillance devrait nous mobiliser« Des caméras alimentées par l’IA qui suivent l’attention des camionneurs aux scanners portables qui surveillent la vitesse d’emballage et de tri des colis des employés des entrepôts d’Amazon, en passant par les logiciels de vidéoconférence qui surveillent les conversations des employés pendant les réunions, dans de nombreux secteurs les entreprises utilisent de plus en plus d’outils automatisés pour collecter des données sur les travailleurs, puis utilisent ces données pour prendre des décisions automatisées sur les tâches et les horaires des travailleurs, les salaires, les promotions, la discipline et même les licenciements », explique le politologue Alexander Hertel-Fernandez sur le blog du LPE Project. Hertel-Fernandez est l’auteur d’une étude sur le management automatisé et la surveillance des travailleurs qui montre que les 2/3 des travailleurs Américains sont sous surveillance sur leur lieu de travail. Cette surveillance est désormais aussi commune pour les cols bleus que pour les cols blancs. Bien qu’elle soit souvent invisible, masquée sous les outils numériques que tous utilisent au quotidien, elle n’est pas sans conséquences : elle a un impact sur la santé et la sécurité des travailleurs.
Pour le chercheur, la montée de la surveillance nécessite d’établir des protections adaptées qui devraient recevoir du soutien de tous les travailleurs, tant celle-ci transcende les classes sociales, les professions et les secteurs. Les organisations du travail ont largement documenté comment cette surveillance érode les droits à l’action collective, intensifie les rythmes de travail, discrimine les femmes, les travailleurs âgés ou les travailleurs handicapés. Le problème pourtant, c’est que le régulateur manque de données sur cette surveillance, d’où l’importance de son enquête. Celle-ci montre d’ailleurs, que le facteur prédictif principal de l’adoption de la surveillance électronique est la taille de l’entreprise : plus l’entreprise est grande, plus la surveillance est intense et variée. L’étude montre également que plus les travailleurs sont soumis à une surveillance intensive, plus l’anxiété grimpe, notamment parce que l’intensité de la surveillance signifie d’abord une intensification des cadences. Ce couplage intensification/anxiété se retrouve dans tous les secteurs, et pas seulement les plus documentés, comme la logistique ou l’industrie. Enfin, les effets négatifs sur la santé et le bien être sont plus forts là où la surveillance est mobilisée pour renforcer la discipline et limiter l’expression. Pour le chercheur, ces résultats suggèrent que ce n’est pas nécessairement la surveillance qui est problématique, mais la manière dont elle est utilisée par le management. Parmi les mesures à prendre pour rétablir l’équilibre, le politologue suggère d’améliorer la transparence de la surveillance, des indicateurs de productivité et des quotas. Mais si le problème est l’intensité de la surveillance, la documenter ne suffira pas à la faire refluer.
L’impossible transparence de la surveillancePourtant, c’est à l’exact inverse que l’on assiste. La surveillance et ses indicateurs relèvent partout d’une opacité qui ne cesse de se renforcer, comme pour toujours mieux s’invisibiliser, à l’image des calculs d’Uber qui ne cessent d’évoluer pour échapper à la documentation comme à la régulation. En 2020, les livreurs de la plateforme Shipt, qui appartient à la chaîne de grande distribution américaine Target, ont vu leurs salaires s’effondrer. Ils ont alors créé un outil pour comprendre l’évolution de l’algorithme, expliquait la chercheuse Dana Calacci pour IEEE Spectrum, qui rappelle que l’asymétrie d’information est un moyen de contrôle (et ce d’autant que ces travailleurs indépendants, par contrat, n’ont pas de droits sur les données). Les livreurs ont utilisé les résultats de l’Observatoire des algorithmes des travailleurs, qui corroboraient l’effondrement de rémunération constaté, pour appuyer leurs revendications pour un salaire minimum garanti. Dans un rapport, le Worker Info Exchange estime que les applications de covoiturage et de livraisons devraient être contraintes de publier des données sur la charge de travail des chauffeurs et les rémunérations, d’autant que le déficit de données actuel pourrait même dissimuler d’importants vols de salaires (et pas seulement des pourboires). Des exemples qui rappellent qu’il n’y a pas d’alternative à la transparence des données, ce qui n’empêche pas celle-ci de continuer à échapper à tous. Accéder aux données reste le premier levier pour observer la surveillance et la limiter.
Image : Page d’accueil de l’observatoire algorithmique des travailleurs.
L’année dernière, le LPE Project avait publié plusieurs articles pour questionner les limites de la surveillance. La chercheuse Karen Levy y montrait que non seulement la surveillance s’opacifie, mais que les autorités en favorisent l’extension, plutôt que de chercher à la contraindre et à la limiter. La sociologue parle d’ailleurs « d’interopérabilité de la surveillance » pour pointer la compatibilité des différentes formes de surveillance, que ce soit celle des autorités de contrôle, comme celle des employeurs ou celle des tiers auxquels les employeurs accordent des accès.
L’extension, l’intensification et l’élargissement de la surveillance se fait au détriment des employés, pris en tenaille par de nouvelles injonctions liées aux objectifs multiples et contradictoires de tous ceux qui ont accès aux données produites par ces surveillances. Les surveillances “gouvernementales, patronales et commerciales” se superposent pour créer de nouvelles rigidités au travail. Le problème est que cette conjonction d’objectifs complémentaires laisse peu d’espace aux travailleurs pour résister à ces pressions concomitantes, pour résister à “un régime de surveillance supérieur à la somme de ses parties”. La surveillance est d’autant plus opaque qu’elle sert les intérêts de trop d’acteurs pour devenir transparente. Cette surveillance alimente en données des acteurs avec lesquels les entreprises ont des partenariats commerciaux, comme leurs clients. Mais pas seulement. Outre la police et les services sociaux, de plus en plus d’intermédiaires de données tentent d’en tirer profit, à l’image de services de crédits qui proposent des avances sur salaires aux employés.
La surveillance produit les cadences, modifie les conditions d’emploiLa spécialiste de l’économie des plateformes, Sarrah Kassem , auteure de Work and Alienation in the Platform Economy: Amazon and the Power of Organization, expliquait quant à elle que les travailleurs des entrepôts d’Amazon sont dépendants d’un « régime de productivité algorithmique », qui les pousse à respecter des taux « d’unités par heure », c’est-à-dire rien d’autre que des cadences, imposées par les tâches, les volumes, et les moyennes productives des autres employés auxquelles chacun est comparé. Si les solidarités collectives et les résistances sont possibles, elles sont rendues très difficiles, du fait des innombrables types de contrats qui se rencontrent dans les entrepôts (fixes, intérimaires, sous-traitants, indépendants… avec des horaires fluctuants…) et des manœuvres anti-syndicales d’Amazon.
Dans les chaînes de production numériques hyper-taylorisées du Mechanical Turk d’Amazon par contre, la surveillance, elle, est totale. La grande précarité du travail et l’absence de relation avec les autres travailleurs rend l’organisation collective encore plus compliquée, même si, à l’initiative des travailleurs, des espaces alternatifs de solidarité et de lutte ont parfois réussi à émerger. Pour le chercheur Reed Shaw, qui s’est lui aussi intéressé aux entrepôts d’Amazon, la surveillance modifie les conditions d’emploi. Si le taux de blessure y est deux fois supérieur à la moyenne nationale, c’est que l’unité de mesure du travail d’Amazon, focalise sur le temps pendant lequel les travailleurs sont inactifs entre deux colis scannés. Le nombre d’unités traitées par heure favorise l’intensification du travail qui génère en réponse une augmentation du risque de blessure et d’accident. Pour Shaw, c’est l’intensification que le taylorisme numérique produit le coupable : c’est donc sur la régulation des cadences qu’il faut pouvoir agir. D’autant que les systèmes de mesures ne s’adaptent pas à certains types d’employés, comme les femmes enceintes ou les travailleurs handicapés, qui sont encore plus sévèrement punis par les systèmes qui évaluent les cadences sans aménagements. Pour Shaw, “la surveillance généralisée des employés devrait être considérée comme modifiant le contexte de l’emploi d’une manière qui menace un large éventail de lois et de protections du droit du travail”.
Vers une surveillance sans échappatoirePour le professeur de droit Matthew Bodie, co-auteur de Reconstructing the Corporation: From Shareholder Primacy to Shared Governance, la surveillance des employés procède d’une nouvelle collecte de données et propose une nouvelle création de valeur permettant aux employeurs de tirer une nouvelle valeur de la relation de travail, explique-t-il, sans qu’il n’y ait de recours ni de droits pour les travailleurs fournisseurs de données, ni de modalités pour exercer leur pouvoir collectifs sur ces données. Pour Bodie, la frontière traditionnelle entre les informations de travail et les informations personnelles, est en train de devenir totalement floue. Toutes sortes d’informations personnelles peuvent désormais être convoquées comme “pertinentes” pour évaluer la performance individuelle au travail : notre santé, nos relations avec nos collègues, nos opinions politiques, notre consommation de caféine, notre disposition au conflit… (sans que cette “pertinence” ne soit jamais évaluée, comme le soulignaient les chercheurs Mona Sloane, Rumman Chowdhury et Emmanuel Moss dans un excellent article qui dénonçait la prétention à la connaissance des systèmes). La réponse instinctive à ce problème consisterait à renforcer la protection de la vie privée sur les lieux de travail, mais cette réponse ne convainc pas Bodie, notamment parce qu’il suffit d’un pseudo consentement imposé dans une relation de travail par nature déséquilibrée pour vider ce renforcement de sa substance.
“La relation aux données ne cesse de devenir de plus en plus déséquilibrée”, constate le chercheur. C’est par les données sur les chauffeurs et leurs clients que les entreprises de covoiturage fixent les prix et affectent les chauffeurs, sans que les conducteurs puissent avoir la main sur ce qui leur est soustrait. Bodie est pessimiste : désormais, “la relation de travail nécessite un flux de données trop important pour espérer ne jamais l’arrêter”. Selon lui, les travailleurs ont besoin de plus de droits sur leurs données et leur utilisation, à l’image de ceux que déploient le RGDP en Europe (comme le droit de limitation des finalités ou les droits d’opposition à certains types de prise de décision automatisée). Reste pourtant à trouver les modalités d’action collectives. Ici, Bodie dresse un comparatif avec l’hypersurveillance des athlètes de haut niveau, qui, malgré la démultiplication d’information sur leurs performances, gardent des droits sur leurs données voire des voix collectives pour négocier la portée de la collecte de données par les équipes. Les organisations syndicales devraient avoir la capacité de négocier avec les employeurs par l’accès aux données et leur partage – mais seulement 6% des employés du secteur privé sont syndiqués aux États-Unis. Les travailleurs sans représentation collective n’ont donc aucune perspective de pouvoir collectif sur la collecte. D’autres structures organisationnelles pourraient également faire levier, allant de l’actionnariat salarié aux coopératives de plateformes, en passant par la codétermination… et invite à imaginer des “conseils de données” habilitées à examiner toute collecte ou utilisation de données des employés. “Nous devons donner aux travailleurs la possibilité d’avoir leur mot à dire dans la gestion des données et les droits sur les données qu’ils fournissent.” Oui ! Mais là encore la contribution ne trouve pas le levier de cette activation.
On pourrait croire à lire ces billets, que le RGPD est l’alpha et l’omega de la solution. C’est oublier pourtant, comme le rappelle son intitulé complet, que celui-ci n’est pas qu’une protection vis-à-vis du traitement des données à caractère personnelles, mais qu’il organise également leur libre circulation, sous conditions.
Les calculs sont surtout opaques pour invisibiliser leurs incohérences et renforcer leur opacitéCe que ces billets disent assez imparfaitement, c’est ce que change cette surveillance, ses impacts et les modalités de cet impact. Ce qui se joue dans le renforcement de la surveillance au travail est pourtant très fort au niveau RH et plus encore au niveau de la question salariale. Les données sont de plus en plus utilisées pour produire des indicateurs de performances souvent problématiques sur de plus en plus d’employés, comme s’en émouvait un article du Washington Post prédisant l’arrivée du licenciement algorithmique. La surveillance a un impact direct sur l’employabilité, le recrutement et sur la rémunération. C’est ce qu’expliquait dans un autre billet du LPE Project la professeure de droit Veena Dubal. Dans le monde des plateformes de livraison ou de transport, la rémunération n’est pas fixe. Elle est à la fois “imprévisible, variable et personnalisée”. En cas de forte demande par exemple, les prix des courses vont augmenter et les revenus des coursiers également. Mais il n’y a pas que cette tension entre l’offre et la demande qui explique les variations, et même quand c’est cette explication qui domine, les variations demeurent incohérentes. En fait, la rémunération algorithmique n’est pas du tout une forme applicative et parfaite du marché, comme elle voudrait nous le faire croire. Au contraire.
La surveillance pour produire des discriminations
Les incohérences sont nombreuses, explique Dubal. Parfois vous pouvez obtenir une prime si vous acceptez un trajet supplémentaire, mais bien souvent cette prime n’est pas proposée à un collègue qui a le même historique de circulation. La modularité des incitations de ce type varie sans arrêt, sans que les travailleurs ne parviennent à comprendre leur logique. A l’inverse, vous pouvez attendre ce trajet et cette prime liée à un certain nombre de courses à accomplir, sans que l’algorithme ne vous donne de course, alors que d’autres conducteurs en obtiennent. Le problème, c’est que tout cela n’est pas une question de marché, de malchance ou de hasard, mais bien le résultat d’un calcul. La manipulation des données des conducteurs permet de leur faire croire que les variations de leurs rémunérations tiennent d’un Casino, expliquait dans Fortune Stephanie Vigil, conductrice pour DoorDash, qui rappelle par exemple que les pourboires que les clients donnent ne sont pas attribués directement à leurs livreurs, mais obscurcies par les plateformes pour que les chauffeurs ne privilégient pas les courses avec pourboire. Pour elle, les conducteurs doivent récupérer l’accès à leurs données, comme le défend l’association DriverRights. Les bas salaires et les pourboires sont devenus la règle chez les plateformes de livraison de nourriture, rappelait Inayat Sabhikhi de One Faire Wage dans Points, l’année dernière, rappelant qu’elles ont toutes pratiqué le vol de pourboires et que toutes les organisations réclament désormais la transparence sur ceux-ci… sans l’obtenir.De plus en plus de travailleurs du transport et de la logistique sont confrontés à un salaire constamment fluctuant lié à la gestion algorithmique du travail, explique encore Dubal. “Dans le cadre de ces nouveaux régimes de rémunération, les travailleurs perçoivent des salaires différents – calculés à l’aide de formules opaques et en constante évolution reflétant l’emplacement, le comportement, la demande, l’offre et d’autres facteurs de chaque conducteur – pour un travail globalement similaire.” Le problème de ces situations, n’est pas seulement celui d’une rémunération variable basée sur la performance, mais la conjonction de cette variabilité avec une autre : celle de la répartition du travail basée non seulement sur le comportement des travailleurs, mais également sur d’autres critères liés eux à la profitabilité que le calcul opère pour l’entreprise entre tous les critères. Elle produit une “discrimination salariale algorithmique” (voir également son papier de recherche) qui permet aux entreprises de personnaliser et différencier les salaires d’une manière inconnue à ceux que ce calcul impacte, en les payant pour qu’ils se comportent de la manière dont l’entreprise le souhaite, à la limite de ce qu’ils sont disposés à accepter. L’asymétrie d’information laisse à l’entreprise toute latitude d’ajustement. Enfin, “la discrimination salariale algorithmique crée un marché du travail dans lequel des personnes qui effectuent le même travail, avec les mêmes compétences, pour la même entreprise, en même temps, peuvent percevoir une rémunération horaire différente”, le tout via un système obscur qui ne permet ni de prédire ni de comprendre sa rémunération.
Pourtant, rappelle la chercheuse, les lois internationales du travail rappellent qu’à travail égal salaire égal, et que les entreprises ne peuvent pas introduire de règles nouvelles ou opaques pour obscurcir le calcul du salaire. “Si un mineur devait être payé en fonction de la quantité de charbon qu’il extrayait, la société minière ne pouvait pas peser le charbon après l’avoir fait passer à travers un tamis”. Pourtant, c’est ce que font les calculs algorithmiques. Ils ruinent les logiques d’équité, notamment parce que le salarié ne peut pas connaître les critères que l’entreprise a déterminé pour évaluer son travail ou le planifier, et que le calcul rend le salaire de chaque personne différent, même si le travail est le même au même moment, comme c’est le cas entre les conductrice et les conducteurs d’Uber : les femmes gagnant 7% de moins que les hommes.
En plus de saper l’équité salariale, la rémunération algorithmique est sans cesse changeante, ce qui fait que des pratiques rémunératrices peuvent ne plus le devenir d’une manière qui semble aléatoire au travailleur, alors qu’elles sont calculées. Les conducteurs parlent d’une “mécanique de casino”. Pour la chercheuse, le fait de reconnaître les coursiers comme des salariés ou de fixer des prix planchers pourraient améliorer les choses bien sûr. Mais la rémunération variable automatisée nécessite, elle, une réglementation supplémentaire. La contre-collecte de données (organisés par les travailleurs indépendants pour documenter les algorithmes auxquels ils n’ont pas accès, à l’image de ce que le Worker Info Exchange a mis en place pour et avec les chauffeurs d’Uber) ou les appels à une plus grande transparence des calculs oeuvrent dans le bon sens, mais sont également insuffisants. La chercheuse invite à aller plus loin via une “abolition de l’extraction de données au travail”. L’extraction de données au travail n’est pas nécessaire à la gestion du travail, rappelle-t-elle en invitant à en finir avec le calcul algorithmique au travail. Radical !
Réguler le croisement de donnéesSans être aussi radical qu’elle, il me semble que le problème, ici, tient du fait que nous sommes en train d’autoriser des croisements de données qui ne devraient pas l’être. A l’ère de l’Intelligence artificielle, les entreprises ont intégré l’idée que pour améliorer leurs calculs, elles devaient disposer de toujours plus de données et que de leurs croisements sortiront des indicateurs de performance toujours plus optimaux. Mais on ne s’est jamais posé la question de savoir si certains croisements n’étaient pas souhaitables, voire contraires à l’esprit du droit du travail. Que se passe-t-il quand le calcul du salaire est corrélé au planning afin d’optimiser les deux, voire l’un plus que l’autre, comme le montrait le scandale Orion à la SNCF, où dans les entrepôts du hub logistique néerlandais, où les informations de planning sont corrélées avec le calcul de primes, pour les limiter. C’est typiquement ce que montre Veena Dubal quand elle souligne que la prime devient inaccessible à un chauffeur parce que son obtention vient en conflit avec l’objectif de réduction des coûts que programme également le système d’Uber. Pour ma part, il me semble qu’à l’heure où l’on promet de pouvoir croiser toutes les données les unes avec les autres, il est temps de se demander quelles données RH ne doivent pas être croisées entre elles. Pour poser la question des limites à la surveillance, il est nécessaire de regarder ce que produit l’interconnexion de ces données et de montrer qu’il y a des croisements de données, des calculs qui ne devraient pas être possibles. A l’heure où les entreprises partent du principe que toutes les données sont associables pour produire de meilleurs calculs et de meilleurs indicateurs, la piste qui n’est jamais évoquée dans cette libération des calculs, c’est la régulation de leurs croisements. Peut-être que certains croisements ne devraient pas être rendus possibles, parce qu’ils transforment profondément l’esprit de la loi qui régit le code du travail. En tout cas, à l’heure où tous les croisements de données sont autorisés, nous interroger sur ce qui ne devrait pas être corrélé est assurément un exercice qui pêche par son absence.
Pas de transparence sans lutte socialeEn fait, les appels à la transparence se démultiplient sans être suivis d’effets, d’abord parce que le régulateur n’incite pas à la transparence, mais surtout, parce qu’à elle-seule, la transparence ne suffit pas à produire le progrès social.
En septembre, la Stanford Social Innovation Review publiait un dossier sur les questions de technologies au travail. Parmi les contributions, celle de Christina Colclough et Kate Lappin revenait sur la nécessité de se mobiliser pour que le développement technique au travail soit plus maîtrisé qu’il n’est (on avait déjà rencontré les stimulantes réflexions de Christina Colclough en défense de l’algogouvernance). « Les systèmes numériques au travail sont souvent présentés comme augmentant l’efficacité et la productivité et rendant les décisions plus neutres, en supprimant la subjectivité humaine. Mais trop souvent, les algorithmes reproduisent et intensifient les inégalités et les préjugés, conduisent à une demande croissante de productivité des travailleurs et utilisent les données des employés de manière à la fois opaque et abusive. Aujourd’hui, les travailleurs n’ont aucune idée des données qui sont collectées par devers eux ni de la manière dont elles sont utilisées pour évaluer leurs performances, alors que des jugements sont souvent effectués par des systèmes automatisés tiers, dont les fonctionnements ne sont jamais explicités ». Alors que les cas problématiques documentés sont nombreux, la même cause produit les mêmes effets : « lorsque les travailleurs n’ont pas accès aux algorithmes utilisés par les employeurs, il est presque impossible de prouver qu’il y a eu discrimination ». La transparence en matière de salaires et de conditions de travail est censée être la règle, mais les systèmes numériques propriétaires sapent ce principe.
Construire des syndicats puissants pour dominer le bossware de l’IA.
Pour l’améliorer, plusieurs initiatives sont mobilisables, comme la formation en négociation sur la numérisation dispensée par le syndicat Public Service International ou encore le guide de la gouvernance des systèmes algorithmiques au travail du Why Not Lab, le cabinet de conseil de Colclough, qui permet aux syndicats d’adresser des questions aux directions sur les systèmes utilisés ou encore la clause du droit d’entrée numérique que les syndicats proposent d’introduire dans les conventions collectives, afin que les technologies utilisées par les employeurs soient mieux documentées. Les deux autrices défendent une gouvernance inclusive des systèmes avec ceux qui sont affectés par eux. Le Community and Public Sector Union australien qui représente les travailleurs qui gèrent le système de protection sociale a négocié avec succès un ensemble de clauses dans sa nouvelle convention collective pour permettre aux travailleurs sociaux de dénoncer des utilisations d’algorithmes contraire à l’éthique, afin qu’à l’avenir un scandale comme celui du robot-dette (un programme gouvernemental qui a envoyé des demandes de remboursement de dettes à plus de 400 000 bénéficiaires de prestations sociales) ne puisse plus être possible. Reste, rappellent les deux chercheuses et militantes, qu’aucun des progrès obtenus par des travailleurs n’a été obtenu facilement : tous sont le résultat d’une lutte soutenue, et celle-ci doit désormais se faire jusqu’aux outils numériques !
Un autre article sur la surveillance des lieux de travail, explique que celle-ci n’a plus du tout comme enjeu le déploiement de caméras de surveillance. La surveillance des cadences et des comportements est désormais l’objet d’innombrables dispositifs embarqués… La pandémie a favorisé l’essor de systèmes de surveillance, comme le montrait un rapport de Data & Society sur « le patron perpétuel ». Le rapport de Coworker sur le déploiement des « petites technologies de surveillance », mais omniprésentes (qu’on évoquait dans cet article) rappelait déjà que c’est un essaim de solutions qui se déversent désormais sur les employés. A l’image des outils de surveillance des postures comme StrongArm ou Modjul qui commencent à coloniser les entrepôts de Walmart et d’Amazon et qui transforment la question de la sécurité au travail en score que les employés doivent respecter.
Le patron perpétuel, un rapport de Data & Society
Les conséquences sont diverses : augmentation de la discrimination, de la surveillance, atteintes à la vie privée et aux droits d’organisation collective, marchandisation des données, impossibilité de se déconnecter… « La surveillance n’est pas simplement une pratique commerciale invasive, mais un principe opérationnel visant à contrôler les travailleurs et à optimiser les profits ».
Le Bossware : « une pratique commerciale déloyale »Avec sa verve à nulle autre pareille, Cory Doctorow explique que les logiciels du patronat sont aussi défaillants que l’a été la gestion scientifique du travail inventée par « l’escroc » Frederic Taylor. Taylor a fait croire aux riches industriels qu’il pouvait augmenter la productivité des ouvriers en « transformant leur travail en une sorte de kabuki de l’obéissance ». Les employés n’étaient pas plus efficaces, mais avaient l’air plus obéissants, ironise-t-il, à la plus grande satisfaction de leurs patrons. Les employeurs ont pourtant bien remarqué que leurs revenus ne s’amélioraient pas avec le taylorisme, mais Taylor leur a fait croire que c’était parce que cette gestion scientifique n’était pas encore assez aboutie. « Plus ses conseils étaient mauvais, plus il y avait de raisons de le payer pour plus de conseils ». « Le taylorisme est une arnaque parfaite pour les riches et les puissants. Il alimente leurs préjugés et leur méfiance envers leurs employés, et leur confiance mal placée en leur propre capacité à comprendre le travail de leurs employés mieux que leurs employés. »
Ce management scientifique du travail est désormais disponible sous formes d’innombrables applications, explique Doctorow. C’est ce qu’on appelle le « bossware », le matériel du patron. « Les travailleurs indépendants sont au cœur du bossware ». Alors que le travailleur indépendant rêve de devenir son propre patron, il est en fait totalement dépendant d’un téléphone qui le surveille et le discipline en continue. Et l’IA vient renouveler cette bulle du bossware, qui continue à venir convaincre les patrons que l’IA va pouvoir faire votre travail à votre place, comme il a été convaincu que la gestion scientifique du travail allait améliorer la productivité.
Pour Alvaro Bedoya, commissaire à la Commission fédérale du travail américaine (FTC) qui s’intéresse à la protection des travailleurs, cette gestion algorithmique du travail devrait être considérée comme illégale, explique-t-il dans une stimulante défense. En moyenne, rappelle ce dernier, un employé d’un centre d’appels est soumis à au moins 5 formes de surveillance qui pèsent sur lui, le dénigrent et ne tolèrent aucune discussion. A savoir, une surveillance vidéo sous IA, une surveillance vocale sous IA qui prétend mesurer leur empathie, une IA qui chronomètre leurs appels, une autre qui analyse les sentiments durant l’appel et une dernière qui évalue la réussite des employés à atteindre des objectifs arbitraires. Bedoya estime que ces surveillances pourraient être qualifiées de pratiques commerciales déloyales… Prouver une pratique commerciale déloyale nécessite de démontrer qu’elle cause un « préjudice substantiel », qu’elle ne peut pas être « raisonnablement évitée » et qu’elle n’est pas corrigée par un « avantage compensatoire ». Dans son discours, Bedoya fait valoir que la gestion algorithmique du travail satisfait à ces trois critères… et que la FTC qui est chargée de réguler les pratiques commerciales déloyales devrait être capable d’agir. Par exemple, il est clair que l’augmentation des cadences que produit le bossware conduit à des préjudices sur la santé des employés. Que l’autoritarisme des applications de surveillance des chauffeurs-livreurs ne peut pas être évité. Enfin, elles ne proposent aucun avantage compensatoire, au contraire. La gestion algorithmique du travail produit surtout des sanctions arbitraires, comme quand les opérateurs de centres d’appels qui ont un accent, du Sud des Etats-Unis ou des Philippines, sont évalués négativement par les IA qui sont chargés de détecter leur émotion. « Les travailleurs devraient avoir le droit de savoir quelles données les concernant sont collectées, par qui elles sont partagées et comment elles sont utilisées. Nous devrions tous avoir ce droit. »
« Les gens riches peuvent rester irrationnels plus longtemps que vous ne pouvez rester solvables. Les marchés ne résoudront pas ce problème, mais le pouvoir des travailleurs le peut », conclut Doctorow.
Reste que démontrer l’arbitraire et pire encore l’absurdité des calculs reste extrêmement difficile.
Dans un autre billet, l’infatigable Doctorow revient sur le travail d’un groupe de chercheurs et de hackers européens, Reversing Works (une division spécialisée du collectif AI Forensics, ex-Tracking Exposed), qui ont contribué à un travail d’ingénierie inversée sur l’application de livraison italienne Glovo/Foodinho, multicondamnée par les autorités italiennes pour atteinte à la vie privée. Dans un rapport publié par l’Institut syndical européen en novembre 2023, on apprenait que l’application démultipliait l’utilisation de données problématiques, surveillait les travailleurs au-delà de leurs heures de travail, utilisait un score de notation des travailleurs et envoyait d’innombrables informations confidentielles à des tiers. Pour Doctorow, ce mode d’enquête et de révélation présente un réel potentiel pour les organisations syndicales qui cherchent à protéger les travailleurs et promet également de développer des outils d’action directe qui permettent aux travailleurs de retrouver du pouvoir. « Ce n’est qu’en s’emparant des moyens de calcul que les travailleurs et les syndicats peuvent renverser la situation face au système de domination, à la fois en modifiant directement les conditions de leur emploi et en produisant les preuves nécessaires à ces démonstrations. Autant d’outils que les régulateurs pourraient également utiliser pour forcer les employeurs à rendre ces changements permanents. » Comme l’expliquait le collectif dans un communiqué, le RGPD est insuffisamment utilisé par les syndicats, notamment parce que « la vie privée est un droit individuel qui n’est pas considéré comme un outil de lutte des travailleurs », alors qu’il permet de contester nombre de pratiques déloyales.
Reste que la production de « contre-données » – comme l’ont fait Reversing Works avec Glovo, le Worker Info Exchange ou le Stop-Club au Brésil ou encore Driver’s seat, une coopérative de chauffeurs qui aide les conducteurs à utiliser leurs données pour optimiser leurs revenus – n’est pas si simple. Le problème, bien sûr, c’est que ces collectes sont compliquées et fragiles à mettre en place et leurs résultats pas toujours assurés. En 2021 par exemple, des livreurs de Doordash avaient mis au point un outil pour observer les pourboires qu’ils recevaient sur l’application pour veiller à ce que l’entreprise ne les accapare pas… jusqu’à ce que l’entreprise ferme l’accès aux données. Sans compter que bien souvent, le législateur ne permet pas aux employés de produire des données en parallèle de celles de l’employeur.
Pas plus qu’il n’oblige les entreprises au partage de données à leurs employés et à leurs représentants… Le problème, c’est que le RGPD en consacrant exclusivement un droit aux données personnelles a oublié d’armer le droit aux données collectives. C’est bien souvent au prétexte que les données mobilisées par les entreprises sont personnelles que les collectifs de travail et les syndicats ne peuvent y avoir accès, alors que leur traitement collectif, lui, est possible pour les entreprises.
Limiter les cadences comme on lutte contre le morcellement des horairesAutre piste d’action pour limiter la surveillance au travail : mettre des seuils aux cadences que la convergence des systèmes de surveillance numérique tentent d’optimiser ! La réponse consiste alors pour le régulateur à poser des limites aux cadences (à l’image d’une récente loi californienne et de la décision de la Cnil contre Amazon Logistic) tout comme il intervient parfois pour définir des limites aux morcellement horaires du travail en définissant par exemple des durées minimales de travail journalier.
Reste que légiférer pour faire que les outils de contrôle du travail rendent des comptes est difficile, comme le montre l’échec de la loi new-yorkaise à imposer des audits aux outils d’embauches automatisés qui continuent à proposer peu de recours et de garantie aux chercheurs d’emplois (voir notre article sur la question, qui pointait les limites de la régulation des outils de recrutement automatisés).
Autre risque : le caractère discrétionnaire et opaque des promotions et avantages, à l’image du titre de « Master » qu’Amazon attribue à certains travailleurs du Mechanical Turk selon un score de confiance confidentiel : une forme de plafond de verre algorithmique que dénonçait la chercheuse Lilly Irani. Même chose quand Amazon finalement note les travailleurs de ses entrepôts selon leur rapidité d’exécution ou leur taux d’erreur, sans prendre en compte les particularités de ses employés, indifférent aux situations, au genre, au handicap… ou au taux d’accident provoqué. Ajoutez à cela le fait que les données permettent de fixer des objectifs dynamiques, des performances changeantes et opaques… et vous avez un cocktail de paramètres opaques qui vient directement impacter et fragiliser le droit du travail.
Il n’y aura pas de limites à la surveillance sans consacrer un droit d’accès aux données pour les travailleursQui décide de la signification que les traitements produisent depuis les données ? Telles sont les questions que pose un intéressant travail sur la dataification du travailleur réalisé par la chercheuse Alexandra Mateescu pour Data & Society. La chercheuse y rappelle simplement que le management algorithmique ne peut pas remplacer les règles qui garantissent des droits équitables, comme le pointait déjà l’AI Now Institute. Quant à l’information des salariés sur la collecte et le traitement des données les concernant, elle est bien souvent insuffisante pour remédier aux problèmes. Le management algorithmique ne peut pas remplacer les droits des travailleurs, bien au contraire, il les sape.
Pour dépasser ces problèmes, nombre de travailleurs tentent de s’organiser pour reprendre la main sur leurs données, explique Alexandra Mateescu. Mais ces tentatives nécessitent de leur part une organisation, une expertise et des moyens dont ils ne disposent pas toujours.
Les syndicats sont néanmoins de plus en plus conscients de l’impact des données et tentent de plus en plus souvent d’inclure des dispositions relatives à celles-ci dans leurs négociations, comme le montrait la chercheuse Lisa Kresge dans un rapport pour le Labor Center de Berkeley. Une coalition de syndicats de services publics européens a mis en place un espace de ressource (en français) pour faciliter les négociations sur les enjeux numériques. Reste que la question des données et de leur accès demeure trop souvent secondaire dans les négociations syndicales. On le comprend. Mais il n’y aura pas de limites à la surveillance sans consacrer un droit d’accès et de traitement pour les travailleurs et leurs représentants.
Hubert Guillaud
-
12:42
Café géo d’Orléans, 15 janvier 2025 : « La révolution du millet en Inde du Sud. La souveraineté alimentaire au défi du changement climatique et de la santé » avec Bertrand Sajaloli
sur Les cafés géographiques
-
9:03
Proposez vos sujets
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiquePrincipal événement de la Suisse Romande consacré aux usages de la géodonnée et des outils de la géomatique, la 4e édition de la journée romande de la géoinformation se tiendra le 13 novembre 2025 à Lausanne. Un appel à communication est ouvert jusqu’au 25 février aux professionnels du secteur public, privé ou académique. Les prises de paroles, en français, seront attachées à 8 thématiques : prises de décision grâce aux géodonnées, démarches participatives et outils collectifs, jumeaux numérique et geoBIM, architecture GeoIT, visualisation des données, data-science, enjeux énergétiques et adaptation au changement climatique ou info géo pour les situations de crise. Plus de 800 participants sont attendus.
+ d'infos :
georomandie.com
-
9:48
Agglo immersive
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueDéambuler à la façon d’un Google Streetview dans les rues des quinze communes de l’Agglo de ValParisis est désormais possible pour les géomaticiens de cette collectivité, mais aussi pour tous. Depuis 2022, le territoire s’est lancé dans une collecte de vue 360° pour répondre à de nouveaux besoins. Avec des prises de vues aériennes de 5 cm de résolution, complétées d’un recensement terrain à l’aide de tablettes et des outils Esri, de nombreuses données peuvent être caractérisées. Entre 2022 et 2024, ce sont environ 2.178 km qui ont été couverts. À la naissance de Panoramax en 2023, ces images ont rapidement alimenté le géocommun numérique, puisque les équipes de la communauté l’ont intégré immédiatement. Elles sont donc accessibles librement et sont réutilisables. À noter que « Panoramax for ArcGIS » a été annoncé lors de SIG 2024, ce qui facilitera encore plus les échanges entre le géocommun et son SIG.
+ d'infos :
panoramax.fr
-
22:31
Géohistoire des humains sur la Terre
sur Les cafés géographiquesCafé de Flore, Paris, mardi 17 décembre 2024, C. Grataloup et D. Oster (de droite à gauche, photo de M. Huvet-Martinet)
Ce mardi soir, un public nombreux assiste au Café géo dont le sujet porte sur la « géohistoire des humains sur la Terre ». Pour aborder cette question un unique intervenant : Christian Grataloup, le géohistorien bien connu qui incarne largement la réflexion géohistorique depuis de nombreuses années. Auteur d’un livre d’une ambition rare (Géohistoire. Une autre histoire des humains sur la Terre, Les Arènes, 2023), C. Grataloup se propose durant cette soirée d’éclairer ce que l’histoire des sociétés doit à leur espace. Rien que cela !
DO : Ton livre Géohistoire paru l’année dernière marque l’aboutissement d’un long cheminement dans ta réflexion géohistorique. C’est peut-être pour cela que tu as choisi de le titrer sobrement Géohistoire, même si un sous-titre plus explicite l’accompagne : Une autre histoire des humains sur la Terre.
CG : En fait, le titre Géohistoire est un choix éditorial qui montre bien que l’expression créée par Fernand Braudel est tout à fait passée dans le domaine public.
DO : Les médias qui t’ont interviewé n’ont pas manqué de te demander une énième fois ta définition de la géohistoire. Tu réponds souvent qu’il s’agit d’éclairer ce que l’histoire des sociétés doit à leur espace. Dans ce livre tu évoques une synthèse de deux types de relations : les relations entre les sociétés et les relations avec le reste de la biosphère. Peux-tu préciser cet objectif ?
CG : La géohistoire assume sa bâtardise (histoire et géographie). Il faut articuler constamment les logiques d’organisation spatiale avec les processus de temporalité. Il faut tenir compte de tous ces éléments. Certains journalistes aiment dire que je suis le plus historien des géographes. Mais peut-être suis-je le plus géographe des historiens ?
Pour moi, par exemple, un des éléments clés du livre est la distance, c’est-à-dire l’éloignement ou la proximité entre les différentes sociétés, soit un élément géographique fondamental de l’évolution historique. Je parle d’un « singulier pluriel » pour une seule espèce humaine et des sociétés très différentes les unes des autres. L’histoire humaine est prise entre proximité et mobilité. Cette diversité des sociétés est un élément essentiel en même temps que le regroupement, les fusions, les diminutions, par exemple du nombre des langues D’où l’importance à mes yeux de la carte des langues au XVe siècle (17 000 à cette époque contre 6 000 aujourd’hui).
DO : Ton travail consiste à faire de la géohistoire à l’échelle mondiale comme le prouvent les titres de la plupart de tes livres. Mais il est bien sûr possible de faire de la géohistoire à une autre échelle, par exemple nationale ou locale.
CG : C’est vrai qu’aujourd’hui, en France, la géohistoire est rangée dans la catégorie de l’histoire globale. Je pense que la première est particulièrement bien adaptée à la seconde. Mais le problème de distance entre les différents acteurs sociaux est le même à toutes les échelles. Par exemple, c’est ce que j’ai essayé de faire avec l’Atlas historique de la France (Les Arènes-L’Histoire, 2019).
DO : On te questionne souvent sur ton utilisation de l’histoire contrefactuelle qu’on appelle aussi l’histoire des possibles. Peux-tu rappeler ce qu’est ce type d’histoire et pourquoi tu y as recours quelquefois ?
CG : L’uchronie raisonnée est une démarche expérimentale dans un processus temporel, elle aide à la réflexion et notamment permet de relativiser. Par exemple, si le monde avait été tissé par les Polynésiens, le monde aurait été totalement différent de ce qu’il est devenu à partir du XVIe siècle, lorsque les Européens ont influencé considérablement les interrelations entre les sociétés humaines.
DO : Abordons maintenant l’histoire des humains sur la Terre avec la préhistoire, plus précisément le paléolithique, avant donc la révolution néolithique. C’est le moment où l’animal humain sort de la savane arborée pour migrer vers des environnements très divers. Une carte très intéressante représente l’aire de diffusion des homo erectus, elle est titrée très pertinemment « sortir de son écosystème : le propre des humains ». Peux-tu expliquer ce titre ?
CG : Il y a actuellement des discussions à propos de la traduction du titre de l’ouvrage (5 traductions en cours). Les Néerlandais ont choisi de titrer le livre en utilisant l’expression De la savane à la ville. Ceci pour dire que ce qui me semble caractériser l’espèce humaine par rapport à tous les autres primates, c’est son ubiquité : il y a des humains partout. Ce processus a commencé il y a 2 millions d’années quand homo erectus est sorti d’Afrique ; les différentes espèces humaines ont su vivre dans des milieux qui n’étaient pas biologiquement le leur grâce à la maîtrise du feu, à la maîtrise du vêtement, à la construction de logements complexes, donc grâce à leur capacité à produire des micro-milieux. C’est vrai pour Sapiens depuis 300 000 ans.
Ce qui est à l’origine d’une part, de l’unité de l’espèce, et d’autre part, du fractionnement en de multiples sociétés (diversité des langues, des modes de vie, etc.)
DO : Sapiens vit donc dans tous les milieux. On peut parler de diffusion-dispersion avec pour corollaire le fractionnement en sociétés sans contact. A cet endroit du livre, tu cites la controverse de Valladolid et La Planète des singes de l’écrivain Pierre Boulle. Pourquoi cela ?
CG : Selon l’Eglise, ce qui prouvait l’humanité des populations autochtones rencontrées lors des « Grandes Découvertes » c’était l’interfécondité entre ces populations et les Européens. Quant au livre La planète des singes, il montre à sa manière comment le romancier Pierre Boulle s’est emparé de la question d’une commune espèce humaine.
DO : Evoquons maintenant l’avènement du Néolithique qui se caractérise par la domestication du vivant (végétaux et animaux) et la sédentarisation des populations. Au lieu du néolithique tu préfères parler des néolithiques, sans doute à cause de la dispersion des foyers de néolithisation dans le monde. Comment peut-on expliquer la simultanéité relative de cette dispersion ?
CG : Effectivement, les premières domestications sont apparues dans plusieurs foyers très dispersés sur la terre (Proche-Orient, Chine, Asie méridionale, Afrique occidentale, etc.) mais dans une fourchette de temps assez réduite. Pourquoi ces foyers indépendants de domestication ? Une première explication : l’absence de communications avérées. Une autre cause : la très forte coïncidence chronologique a empêché le déploiement d’un processus de diffusion. Il faut donc admettre le polygénisme des sociétés agricoles.
DO : Qu’en est-il des conséquences de la synchronie hétérogène au niveau des domestications (« le lama et la vache ») ?
CG : Les deux grands ensembles géographiques de plantes et d’animaux domestiqués (l’Eufrasie et l’Amérique) diffèrent par les potentialités préalables de domestication. Il semble bien s’agir d’une question d’offre. Le déséquilibre est flagrant dans le domaine animal. L’Amérique ne disposait d’aucun gros mammifère domesticable comme le cheval ou le dromadaire. Cela a eu des conséquences pour l’alimentation, le transport, le travail et même l’art militaire.
DO : Un chapitre passionnant traite des dernières diffusions spatiales, notamment en Amérique et en Océanie. La science archéologique progresse au point de donner aujourd’hui une profondeur historique à des espaces tels que les grandes plaines centrales d’Amérique du Nord et l’Amazonie. Prenons l’exemple de cette dernière qui illustre parfaitement ce qu’on appelle les « peuples sans histoire ». Que sait-on de nos jours de l’histoire de l’Amazonie ?
CG : Des régions entières n’ont entretenu que des liens rares et distendus avec l’axe de l’Ancien Monde. Certaines sociétés ont tout de même été partiellement reliées à cet axe comme celles du littoral de l’est africain. D’autres sociétés étaient entièrement coupées de cet axe comme les sociétés amérindiennes qui ont vécu indépendamment de l’histoire de l’Eufrasie et qui de ce fait ont eu une histoire de pandémies tout à fait particulière.
Grâce aux progrès de l’archéologie, deux grandes régions ont acquis une profondeur historique à peine perçue jusqu’à la seconde moitié du XXe siècle : les grandes plaines centrales d’Amérique septentrionale et l’Amazonie.
DO : La carte « L’Axe de l’Eufrasie au début de notre ère » montre un monde connecté de la Chine à Rome en l’an 200. Depuis le Néolithique, une zone de forte densité humaine (au moins les deux tiers de l’humanité) s’est structurée des mers de Chine à la Méditerranée. Au IIe siècle, elle est organisée autour de grands empires. Ceux-ci font face, au nord, aux peuples des steppes, éleveurs et caravaniers. Plus au sud se trouvent des ensembles plus petits. C’est une « première mondialisation » avec les routes de la soie et celles des épices maritimes. Peux-tu développer ce que tu appelles « l’origine axiale du Monde ».
CG : Depuis plusieurs milliers d’années, entre Chine et Méditerranée, l’axe de l’Ancien Monde regroupe approximativement les trois quarts de l’humanité. Là, les sociétés sont nécessairement interconnectées puisque voisines ; quand une société a une innovation, celle-ci va se répandre chez les autres. Il y a d’ailleurs toutes sortes de passages : des mers littorales, des axes fluviaux, des steppes qui vont être peuplées par des peuples faisant le choix de l’élevage. Se sont donc développées des sociétés très différenciées : au sud, des sociétés « à racines » (des cultivateurs) ; au nord, des sociétés « à pattes » (des pasteurs).
DO : Abordons maintenant « la bifurcation du Monde » avec les « Grandes Découvertes » et l’Europe qui devient le centre du Monde. Pourquoi le succès de l’Europe (des hasards et des envies) ?
CG : La connexion avec les sociétés autres que celles de l’axe de l’Ancien Monde ne pouvait a priori être faite que par une société de l’Ancien Monde. Ensuite pourquoi les Européens ? La situation d’extrême occident de l’Europe pouvait inciter ses sociétés à l’aventure maritime. Madère et les Açores furent les premières îles à sucre des Européens qui n’eurent plus qu’à déplacer vers l’ouest au XVIe siècle le complexe socio-économique de la plantation.
DO : Et si le Sud avait créé le Nord ?
CG : Une petite uchronie radicale. Imaginons un rapport Nord-Sud inversé avec des sociétés tropicales qui auraient eu envie de produits tels que le lait ou la viande produits sur des terres avec hivers. Tout ceci pour dire que la péjoration du Sud n’est pas un phénomène naturel.
DO : Pour terminer, quels sont les principaux aspects géohistoriques du XXe siècle et du début du XXIe siècle ? Peut-on distinguer ceux qui se situent dans la continuité du siècle précédent et ceux qui sont en rupture avec lui ? Il me semble que le tableau de notre monde actuel met en jeu trois données fondamentales : une interdépendance accrue, les fractures profondes entre les sociétés, la gestion indispensable de la planète.
CG : Commençons par une mutation fondamentale : la croissance démographique avec un milliard d’habitants sur la Terre en 1800 et plus de 8 milliards aujourd’hui. Les humains sont devenus une espèce invasive qui détruit la mince pellicule de vie végétale et animale. Rien qu’à cause de cela, toutes les sociétés sont interconnectées. La question centrale c’est comment affronter ensemble, avec des sociétés si différentes, ce problème de gestion de notre unique bien commun qui est cette pellicule de vie. Aujourd’hui, on est à la fois dans une urgence d’agir en commun et de prendre en compte la diversité liée souvent à l’héritage colonial… La réflexion géohistorique traduit la nécessité de comprendre le fractionnement des sociétés et de pouvoir contribuer à essayer de le dépasser.
Un deuxième élément de réponse réside dans les rejeux d’héritages. Dans la diversité des sociétés on a des types de configurations sociales qui se sont construites en position les unes par rapport aux autres. Le planisphère politique est un puzzle, celui des Etats-nations. Parmi les plus grandes pièces du puzzle se trouvent en particulier les Etats héritiers des anciens empires de l’Axe (Chine et Russie). Parmi les plus petites pièces du puzzle, il y a de nombreux supports à des activités qui se jouent de l’international (paradis fiscaux, narcotrafic, etc.). Au total, on a un certain nombre d’éléments qui nous posent d’énormes problèmes pour pouvoir organiser ensemble la gestion de notre Planète.
Questions de la salle :
Q1 : Peut-on imaginer l’évolution du monde si Néandertal l’avait emporté ?
CG : Le Musée de l’homme a organisé récemment une exposition sur Néandertal. Celle-ci montre que Néandertal a changé de statut. Il y a 30 ans on le représentait comme une brute épaisse, contrairement à l’Homo Sapiens, qui lui apparaissant comme un civilisé (en devenir). Cela traduisait une vision du monde, celle qui opposait le sauvage à l’homme civilisé (c’est-à-dire l’Européen). Aujourd’hui, une parfaite inversion oppose Néandertal, le « gentil écolo », à Sapiens « qui recherchait le profit et avait tous les défauts ». En fait, on apprendra peut-être que Sapiens avait quelques avantages (sur les possibilités langagières ?) par rapport à Néandertal. Des processus historiques très différents n’auraient sans doute pas existé si Néandertal l’avait emporté.
Q2 : L’Europe affectée à la fin du Moyen Age par le « précapitalisme » a-t-elle bénéficié de ces conditions pour impulser à son profit la mondialisation amorcée par les « Grandes Découvertes » ?
CG : Là, vous posez la question des configurations sociales internes des sociétés. Ma réflexion géohistorique a fait le choix de s’intéresser avant tout aux logiques externes, c’est-à-dire essentiellement aux interrelations entre les sociétés (connexion, pas connexion, hiérarchie ou égalité dans les connexions, etc.). Ce qui se passe à l’intérieur des sociétés n’a pas été un élément important de ma réflexion mais mon livre donne les éléments de contextualisation qui peuvent permettre ensuite de s’intéresser aux structures internes (chinoises, indiennes, ottomanes, etc.) qui sont des éléments importants.
Q3 : Et si Napoléon n’avait pas vendu la Louisiane ?
CG : La Louisiane est très largement un mythe. Au XVIIIe siècle, la Louisiane française (la Nouvelle-France) forme un vaste espace entre le Saint-Laurent et le delta du Mississipi, peuplé (modestement) de colons, l’essentiel étant constitué de territoires où une poignés de Français et de « coureurs des bois » s’adonnent au commerce avec les nations amérindiennes. La configuration géopolitique principale dans le sud des Grandes Plaines était la Comancheria (l’empire comanche, qu’on peut qualifier d’« empire cavalier »), qui avait une réalité plus importante que la Nouvelle-France des chancelleries. Napoléon qui n’avait pas la maîtrise des mers a préféré vendre la Louisiane qu’il n’avait pas la possibilité de contrôler, ni de développer.
Compte rendu rédigé par Daniel Oster, décembre 2024
-
16:43
Cap sur 2025, Bonne Année !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierEn 2024, un nombre encore croissant de géomaticiens aura consulté régulièrement les articles d'arcOrama. Au-delà du plaisir non dissimulé de partager avec vous ma passion pour les technologies Esri en vous informant sur leurs usages et leurs évolutions, j'y vois surtout l'intérêt croissant pour les contenus proposés sur ce blog. Cela constitue donc une motivation supplémentaire pour continuer à vous informer depuis maintenant plus de 17 ans. C'est également pour moi l'occasion de vous remercier pour vos questions, vos commentaires et vos messages tout au long de l'année. Ils enrichissent souvent nos échanges et nourrissent les futurs contenus de ce blog.
L'année 2024 est déjà derrière nous, et il est temps de se tourner vers 2025. Pour arcOrama, au-delà des articles sur l'actualité des solutions Esri, je continuerai de vous proposer des contenus originaux axés sur l'utilisation concrète et les bonnes pratiques des différentes applications ArcGIS. Cette année, un focus particulier sera mis sur certaines technologies clés comme la modélisation 3D des territoires, les technologies de Reality Mapping, l'intégration de la Réalité Virtuelle et l'exploitation des nouvelles sources de données d'Imagerie. 2025 marquera également l'arrivée de la seconde génération des capacités d'Intelligence Artificielle dans ArcGIS, je ne manquerai pas d'y revenir tout au long de l'année.
D'un point de vue des usages, nous assisterons également en 2025 à l'accélération de grandes tendances géospatiales, telles que l'intégration accrue des SIG dans les stratégies de durabilité, l'essor des plateformes territoriale de données comme outils d'aide à la décision en temps réel, et la convergence entre données géospatiales et IoT pour répondre aux défis des villes intelligentes et des territoires connectés.
En attendant, sur ma dernière photo de 2024 (Lac Pavin - Auvergne), je vous souhaite une excellente année 2025, pleine de succès, de découvertes et d'accomplissements, tant sur le plan personnel que professionnel. Ensemble, continuons à tracer le futur si enthousiasmant des sciences géospatiales !
-
10:30
Transitioning farming systems in mainland France: A geography of contrasts and change, 2010 to 2020
sur CybergeoIn light of the decarbonization objectives in agriculture, environmental preservation, and the resulting challenges of economic sustainability and food security, both European (Farm to Fork) and French policies are encouraging a profound transition within agri-food systems. Consequently, the transformation of agricultural production methods has become imperative. This article delineates the landscape of transitioning farms across mainland France. It relies on a categorization of farms that integrates their agricultural production methods (organic or conventional) and their product marketing approaches (short circuits or long channels), drawing on data from the 2010 and 2020 agricultural censuses. The analysis yields a detailed map (INSEE canton level) illustrating the evolution of transitional farming from 2010 to 2020, opening the way for discussion on the factors favoring the emergence of certain transition types over others. The outcome reveals a complex geography influenced by s...
-
10:30
Concilier croissance économique, durabilité environnementale et ambitions professionnelles : le dilemme des responsables municipaux en Chine
sur CybergeoAprès des décennies d'industrialisation et d'urbanisation accélérées, la Chine a pris le tournant du développement durable en définissant sa propre vision, qui met l'accent sur l'innovation technologique et la modernisation industrielle. Alors que les grandes métropoles bénéficient de ressources humaines, matérielles et financières considérables pour s'adapter à ce changement, les petites villes situées dans des régions reculées ne bénéficient pas des mêmes avantages. Comment les cadres des petites villes parviennent-ils à développer des projets de développement territoriaux conciliant des exigences contradictoires de productivité et de durabilité environnementale ? Cet article examine les stratégies menées par deux mandatures municipales successives à Xianju, une petite ville située dans une région enclavée de l'est de la Chine, au prisme des trois grands défis de l’urbanisation en Chine : l’injonction au productivisme, la décentralisation asymétrique et le déficit structurel des b...
-
10:30
Towards an annual urban settlement map in France at 10 m spatial resolution using a method for massive streams of Sentinel-2 data
sur CybergeoThe size of urban settlements is rapidly increasing worldwide. This sprawl triggers changes in land cover with the consumption of natural areas and affects ecosystems with important ecological, climate, and social transformations. Detecting, mapping, and monitoring the growth and spread of urban areas is therefore important for urban planning, risk analysis, human health, and biodiversity conservation. Satellite images have long been used to map human settlements. The availability of the Sentinel constellation (S2) allows the monitoring of urban sprawl over large areas (e.g., countries) and at high frequency (with possible monthly updates). This massive data stream allows the proposal of new types of urban products at a spatial resolution of 10 meters. In this context, we developed a fully automated and supervised processing chain (URBA-OPT) using open-source libraries and optimized for rapid calculation on high-performance computing clusters. This processing chain has been applied ...
-
10:30
L’artificialisation des sols dans la presse française. Évolution (1982-mars 2024) et disparités spatiales : d’une notion floue à un objet juridique aux représentations multiples
sur CybergeoL’artificialisation des sols, objet sociotechnique à la définition floue, est devenue un objet juridique à travers une succession de dispositifs législatifs dont la loi Climat et Résilience de 2021. Après une rétrospective sur la formalisation de cette notion depuis 1982, une analyse de la presse française révèle que le nombre d’articles en rapport est en forte augmentation et que les registres lexicaux correspondent à des représentations protéiformes incluant notamment le changement climatique, la biodiversité, la gouvernance ou les projets urbains. La presse nationale et régionale produit et diffuse des informations d’ordre juridique, environnemental, sociétal et conflictuel sur ce paradigme désormais affirmé de l’urbanisme. Les lieux cités dans la presse du Nord de la France tend à démontrer que l’artificialisation des sols est employée à la fois dans les centres urbains les plus importants, leurs périphéries et les zones moins denses et plus agricoles, notamment lors de risques ...
-
10:30
Les gratuités des transports collectifs : quels impacts sur les politiques de mobilité ?
sur CybergeoLa gratuité des transports urbains fait partie du paysage français. Elle concerne des réseaux de taille variée, selon des modalités de mise en œuvre différentes, au point où il semble plus pertinent de parler de gratuités des transports au pluriel. Ces gratuités alimentent de nombreux débats ayant trait à la soutenabilité financière de telles mesures et à leur potentielle incidence sur la capacité des autorités organisatrices des mobilités à poursuivre la mise en œuvre de politique des mobilités durables. L’instauration de la gratuité d’un réseau de transports publics semble être perçue comme un frein à la poursuite du développement d’un réseau de transports collectifs en raison d’une baisse des moyens financiers des autorités organisatrices des mobilités. Cet article propose une analyse des conséquences des mesures de gratuité sur les politiques publiques locales de mobilité. En s’appuyant sur trois exemples de réseaux urbains passés à la gratuité durant les quatre dernières années...
-
10:30
Les territoires en déprise, espaces privilégiés de l’accueil d’exilés ? Une analyse des dynamiques du dispositif Asile et intégration dans la région Auvergne-Rhône-Alpes
sur CybergeoCet article porte sur l’hébergement des demandeurs d’asile dans la région Auvergne-Rhône-Alpes et questionne la part des espaces en déprise dans l’accueil de ces personnes. Il analyse la répartition du parc d’hébergement qui leur est dédié dans le cadre du dispositif national français Asile et intégration, à l’aide d’une base de données inédite fournie par la Direction régionale de l’économie, de l’emploi, du travail et des solidarités Auvergne-Rhône-Alpes en 2023. Cette étude est complétée par des entretiens semi-directifs avec des responsables de centre d’accueil. L’analyse à l’échelon fin de la commune permet de faire ressortir plusieurs points. D’une part, la dynamique de dispersion du parc Asile et intégration se poursuit entre 2017 et 2022, mais tend désormais à privilégier les agglomérations urbaines au détriment des espaces ruraux et les petites villes. D’autre part, on observe une tendance à un rééquilibrage territorial du parc d’hébergement des communes en déprise vers des...
-
10:30
Delineating African cities (large urban regions) to compare them within global urban networks
sur CybergeoAn important issue for Africa is evaluating cities' capacities to leverage global networks effectively to foster local development. However, this evaluation is complicated by the absence of a unified framework and criteria, making it difficult to compare African cities to both each other and with cities around the world. The first step, therefore, is to establish a basis for comparing African cities. In this paper, we address the challenges of defining urban boundaries for cities across Africa's 54 countries. We outline our methodology and present the results of adapting the concept of Large Urban Regions (LURs) (Rozenblat, 2020), which encompass regional urbanized areas surrounding the main African cities. In total, we delineated 304 African Large Urban Regions, covering 5,522 Local Administrative Units (LAU). This delineation of LURs enables African urban areas to be comparable with others worldwide and paves the way for evaluating their integration into global urban networks, esp...
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...
-
10:30
Digital twins: a territorial mediation to watch
sur CybergeoDigital technological solutions, supposedly turnkey and always effective, are regularly offered to cities. They can however attract many criticisms: for example, if they are "smart cities" - which work with difficulty when they clash with the diversity of urban forms and functions (Caruso, Pumain & Thomas, 2023); or if it is the concept of "mobility-as-a-service" that induces unanticipated effects on accessibility equity (Pangbourne et al., 2020); or "city dashboards" that ultimately offer only a very limited view of urban processes and raise ethical issues (Kitchin & McCardle, 2017). In this vein, it is the concept of Digital Twin that becomes the most fashionable for cities and territories. Would this new instrument be more convincing?
In the strict sense, the digital twin of a system is a computerized representation that simulates its internal processes and interacts with it in real time by two-way coupling (Batty, 2018). When it applies to the city, the practical meaning of the c...
-
10:30
Les jumeaux numériques : une médiation territoriale à surveiller
sur CybergeoDes solutions technologiques numériques, supposées clé-en-main et toujours efficaces sont régulièrement proposées aux villes. Pourtant, elles s’attirent maintes critiques : par exemple si ce sont des “smart cities” - qui fonctionnent difficilement quand elles se heurtent à la diversité des formes et fonctions urbaines (Caruso, Pumain & Thomas, 2023) ; ou s’il s’agit du concept de “mobility-as-a-service” qui induit des effets non anticipés sur l’équité d’accessibilité (Pangbourne et al., 2020) ; ou encore des “city dashboards” qui n’offrent finalement qu’une vue très limitée des processus urbains et qui soulèvent des enjeux éthiques (Kitchin & McArdle, 2017). Dans cette veine, c’est le concept de Jumeau Numérique qui devient le plus à la mode pour les villes et les territoires. Ce nouvel instrument serait-il plus probant ?
Au sens strict, le jumeau numérique d’un système est une représentation informatisée qui simule ses processus internes et interagit avec celui-ci en temps réel par ...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
11:58
Géopolitique de l’Ouzbékistan dans une Asie centrale très convoitée
sur Les cafés géographiquesC’est au retour d’un voyage en Ouzbékistan que Maryse Verfaillie retrace le rôle qu’a eu ce pays au cœur de l’Asie pendant plus de deux millénaires d’histoire.
-
14:00
LMFP : LE catalogue magique !
sur GeotribuUne extension QGIS peut-être (trop) méconnue : Layers Menu From Project permet de simplifier la vie des administrateurs ET des utilisateurs, retour d'expérience à deux voix.
-
11:54
Les potentiels éoliens sur l'ensemble du monde arrivent dans le Living Atlas ArcGIS
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Juste avant la fin de l’année, Esri annonce l’ajout du Global Wind Atlas dans le Living Atlas ArcGIS. Il s'agit de nouvelles couches d’imagerie multidimensionnelle très intéressantes pour analyser le potentiel éolien à une échelle locale ou sur l'ensemble du monde. Ces dernières résultent d’un partenariat entre le département de l’énergie éolienne de l’université technique du Danemark (DTU Wind Energy) et la Banque Mondiale, avec pour objectif "d’aider les décideurs politiques, les planificateurs et les investisseurs à identifier les zones à fort vent pour la production d’énergie éolienne pratiquement partout dans le monde".
Ces nouvelles couches sont utiles dans une multitude d’applications que je ne pourrais pas détailler dans cet article mais n’hésitez pas à visiter cette StoryMap "Explore the Global Wind Atlas" (en anglais) réalisée par mes collègues d'Esri. Vous pouvez y découvrir davantage d'informations sur ces couches et voir comment nous les avons utilisées pour évaluer les ressources en énergie éolienne à des fins de décision et de planification, notamment un exemple d'analyse d'adéquation d'un parc éolien à l'aide du modélisateur d'adéquation (Suitability Modeler) dans ArcGIS Pro.
Concrètement, il s'agit de 3 couches d'imagerie dont je vous propose de découvrir rapidement le contenu :
Vitesse du vent
Cette couche affiche la vitesse moyenne du vent mesurée en mètres par seconde. Elle offre une résolution de 250 mètres ainsi que des informations pour cinq niveaux de hauteur au dessus du sol : 10, 50, 100, 150 et 200 mètres. Les valeurs de ces hauteurs sont accessibles via les différentes dimensions de cette couche d'imagerie multidimensionnelle.
Densité de puissance
Cette couche mesure la ressource éolienne totale et prend en compte la vitesse et l'altitude du vent, ou la densité du vent. Cette couche affiche une densité de puissance avec une résolution de 250 mètres à cinq hauteurs différentes de 10, 50, 100, 150 et 200 mètres. Les valeurs de ces hauteurs sont accessibles via les différentes dimensions de cette couche d'imagerie multidimensionnelle.
Facteur de capacité
Les couches de facteurs de capacité montrent trois éoliennes distinctes, avec une hauteur de moyeu de 100 mètres et des diamètres de rotor de 112, 126 et 136 mètres. Celles-ci appartiennent à trois classes de la Commission Electrotechnique Internationale : CEI1, CEI2 et CEI3 et sont accessible via les différentes dimensions de la couche d'imagerie multidimensionnelle. Les facteurs de capacité peuvent être utilisés pour calculer une estimation préliminaire du rendement énergétique d'une éolienne (de l'ordre du MW), lorsqu'elle est placée à un endroit donné.
-
11:23
2024 chez Geomatys
sur Le blog de Geomatys2024 chez Geomatys
- 23/12/2024
- Jordan Serviere
Alors que 2024 s’achève, Geomatys se distingue une fois de plus comme un acteur clé dans le domaine de l’information géospatiale, des systèmes d’information environnementale et de la défense. Cette année a été marquée par des avancées technologiques concrètes, des reconnaissances importantes et des collaborations stratégiques qui ont renforcé notre position dans des secteurs en constante évolution. Retour sur ces douze mois faits de projets ambitieux et de réalisations collectives.
Examind C2 : réinvention de la gestion tactiqueLe lancement d’Examind C2 représente une étape cruciale en 2024, tant pour Geomatys que pour les secteurs de la défense, de la cybersécurité et de la gestion de crise. Cette plateforme de Commande et Contrôle (C2), conçue pour répondre aux besoins complexes des environnements multi-milieux et multi-champs, se distingue par son interopérabilité avancée et son traitement en quasi-temps réel. Les visualisations dynamiques qu’elle propose offrent une supériorité informationnelle essentielle pour optimiser les prises de décision dans des situations critiques. Avec des capacités étendues en traitement de données spatiales, Examind C2 anticipe également les attentes futures des utilisateurs. Pour une analyse approfondie de ses capacités et de ses cas d’utilisation, rendez-vous sur le site officiel.
AQUALIT : vers une gestion durable de l’eau potableEn 2024, Geomatys a franchi une nouvelle étape avec la commercialisation d’AQUALIT, une plateforme novatrice destinée à l’analyse des mesures d’eau. Conçue spécifiquement pour les producteurs d’eau potable, AQUALIT leur fournit des outils puissants pour surveiller, analyser et optimiser la qualité de leurs ressources. Cette solution intègre des fonctionnalités avancées en gestion des données hydrologiques, en analyse prédictive et en visualisation cartographique. Dans un contexte où la gestion durable de l’eau est devenue un enjeu prioritaire, AQUALIT illustre parfaitement l’engagement de Geomatys en faveur de l’environnement et de l’innovation. Pour en savoir plus et découvrir toutes ses fonctionnalités, consultez le site d’AQUALIT.
OPAT devient ShoreInt : une évolution pour mieux répondre aux besoins côtiersEn 2024, notre projet OPAT a connu une évolution majeure en devenant ShoreInt. Cette transition reflète notre désir d’offrir une solution toujours plus adaptée aux enjeux complexes de la gestion des zones côtières. ShoreInt intègre des données issues de technologies comme l’AIS, les images satellites et la modélisation spatiale pour fournir une analyse précise des activités maritimes et des dynamiques environnementales. Avec une interface ergonomique et des outils avancés de visualisation, ShoreInt est conçu pour aider les décisionnaires à gérer les interactions complexes entre les activités humaines et les écosystèmes côtiers. Pour en savoir plus sur cette solution innovante, consultez le site de ShoreInt.
Lauréat du Concours d’innovation avec EpiWiseUn des temps forts de 2024 est sans conteste la distinction obtenue par Geomatys pour son projet EpiWise lors des Concours d’innovation de l’État. Soutenu par France 2030, ce projet épidémiologique figure parmi les 177 initiatives lauréates reconnues pour leur potentiel à transformer durablement leur secteur. Cette récompense reflète notre capacité à innover tout en répondant à des besoins sociétaux majeurs, tels que la prévention des pandémies et la modélisation épidémiologique. En s’appuyant sur des technologies de machine learning et de traitement des big data, EpiWise offre des perspectives nouvelles pour la santé publique.
Collaboration et continuité : une stratégie collectiveAu-delà de ces projets phares, Geomatys a maintenu en 2024 un rythme soutenu de collaboration dans des initiatives d’envergure. Parmi elles, FairEase, le portail Géosud et nos partenariats stratégiques avec Mercator Ocean et l’Office Français de la Biodiversité. Ces travaux, axés sur la valorisation des données spatiales, l’interopérabilité et la gestion des ressources naturelles, témoignent de notre engagement à développer des solutions ouvertes, accessibles et adaptées aux enjeux environnementaux contemporains. Ces projets, loin de s’arrêter en 2024, constituent un socle solide pour notre développement en 2025 et au-delà.
Et en 2025...Alors que nous nous tournons vers 2025, Geomatys se prépare à renforcer son impact et à ouvrir de nouvelles perspectives. En poursuivant nos investissements dans la recherche et le développement, notamment en télédétection, modélisation environnementale et gestion des données massives, nous ambitionnons de créer des solutions toujours plus performantes et adaptées aux besoins d’un monde en mutation rapide. L’année à venir sera marquée par le renforcement de nos relations avec nos partenaires stratégiques, dans une perspective de collaboration continue et durable. Nous adressons nos sincères remerciements à nos collaborateurs, dont l’engagement et les compétences sont le moteur de nos réussites, ainsi qu’à nos clients et partenaires pour leur soutien indéfectible. Ensemble, faisons de 2025 une année riche en projets et accomplissements. Toute l’équipe vous souhaite de très belles fêtes de fin d’année. Rendez-vous en 2025 !
MenuLinkedin Twitter Youtube
The post 2024 chez Geomatys first appeared on Geomatys.
-
11:23
Le blog de Geomatys: 2024 chez Geomatys
sur Planet OSGeo2024 chez Geomatys
- 23/12/2024
- Jordan Serviere
Alors que 2024 s’achève, Geomatys se distingue une fois de plus comme un acteur clé dans le domaine de l’information géospatiale, des systèmes d’information environnementale et de la défense. Cette année a été marquée par des avancées technologiques concrètes, des reconnaissances importantes et des collaborations stratégiques qui ont renforcé notre position dans des secteurs en constante évolution. Retour sur ces douze mois faits de projets ambitieux et de réalisations collectives.
Examind C2 : réinvention de la gestion tactiqueLe lancement d’Examind C2 représente une étape cruciale en 2024, tant pour Geomatys que pour les secteurs de la défense, de la cybersécurité et de la gestion de crise. Cette plateforme de Commande et Contrôle (C2), conçue pour répondre aux besoins complexes des environnements multi-milieux et multi-champs, se distingue par son interopérabilité avancée et son traitement en quasi-temps réel. Les visualisations dynamiques qu’elle propose offrent une supériorité informationnelle essentielle pour optimiser les prises de décision dans des situations critiques. Avec des capacités étendues en traitement de données spatiales, Examind C2 anticipe également les attentes futures des utilisateurs. Pour une analyse approfondie de ses capacités et de ses cas d’utilisation, rendez-vous sur le site officiel.
AQUALIT : vers une gestion durable de l’eau potableEn 2024, Geomatys a franchi une nouvelle étape avec la commercialisation d’AQUALIT, une plateforme novatrice destinée à l’analyse des mesures d’eau. Conçue spécifiquement pour les producteurs d’eau potable, AQUALIT leur fournit des outils puissants pour surveiller, analyser et optimiser la qualité de leurs ressources. Cette solution intègre des fonctionnalités avancées en gestion des données hydrologiques, en analyse prédictive et en visualisation cartographique. Dans un contexte où la gestion durable de l’eau est devenue un enjeu prioritaire, AQUALIT illustre parfaitement l’engagement de Geomatys en faveur de l’environnement et de l’innovation. Pour en savoir plus et découvrir toutes ses fonctionnalités, consultez le site d’AQUALIT.
OPAT devient ShoreInt : une évolution pour mieux répondre aux besoins côtiersEn 2024, notre projet OPAT a connu une évolution majeure en devenant ShoreInt. Cette transition reflète notre désir d’offrir une solution toujours plus adaptée aux enjeux complexes de la gestion des zones côtières. ShoreInt intègre des données issues de technologies comme l’AIS, les images satellites et la modélisation spatiale pour fournir une analyse précise des activités maritimes et des dynamiques environnementales. Avec une interface ergonomique et des outils avancés de visualisation, ShoreInt est conçu pour aider les décisionnaires à gérer les interactions complexes entre les activités humaines et les écosystèmes côtiers. Pour en savoir plus sur cette solution innovante, consultez le site de ShoreInt.
Lauréat du Concours d’innovation avec EpiwiseUn des temps forts de 2024 est sans conteste la distinction obtenue par Geomatys pour son projet Epiwise lors des Concours d’innovation de l’État. Soutenu par France 2030, ce projet épidémiologique figure parmi les 177 initiatives lauréates reconnues pour leur potentiel à transformer durablement leur secteur. Cette récompense reflète notre capacité à innover tout en répondant à des besoins sociétaux majeurs, tels que la prévention des pandémies et la modélisation épidémiologique. En s’appuyant sur des technologies de machine learning et de traitement des big data, Epiwise offre des perspectives nouvelles pour la santé publique.
Collaboration et continuité : une stratégie collectiveAu-delà de ces projets phares, Geomatys a maintenu en 2024 un rythme soutenu de collaboration dans des initiatives d’envergure. Parmi elles, FairEase, le portail Géosud et nos partenariats stratégiques avec Mercator Ocean et l’Office Français de la Biodiversité. Ces travaux, axés sur la valorisation des données spatiales, l’interopérabilité et la gestion des ressources naturelles, témoignent de notre engagement à développer des solutions ouvertes, accessibles et adaptées aux enjeux environnementaux contemporains. Ces projets, loin de s’arrêter en 2024, constituent un socle solide pour notre développement en 2025 et au-delà.
Et en 2025...Alors que nous nous tournons vers 2025, Geomatys se prépare à renforcer son impact et à ouvrir de nouvelles perspectives. En poursuivant nos investissements dans la recherche et le développement, notamment en télédétection, modélisation environnementale et gestion des données massives, nous ambitionnons de créer des solutions toujours plus performantes et adaptées aux besoins d’un monde en mutation rapide. L’année à venir sera marquée par le renforcement de nos relations avec nos partenaires stratégiques, dans une perspective de collaboration continue et durable. Nous adressons nos sincères remerciements à nos collaborateurs, dont l’engagement et les compétences sont le moteur de nos réussites, ainsi qu’à nos clients et partenaires pour leur soutien indéfectible. Ensemble, faisons de 2025 une année riche en projets et accomplissements. Toute l’équipe vous souhaite de très belles fêtes de fin d’année. Rendez-vous en 2025 !
MenuLinkedin Twitter Youtube
The post 2024 chez Geomatys first appeared on Geomatys.
-
10:30
Transitioning farming systems in mainland France: A geography of contrasts and change, 2010 to 2020
sur CybergeoIn light of the decarbonization objectives in agriculture, environmental preservation, and the resulting challenges of economic sustainability and food security, both European (Farm to Fork) and French policies are encouraging a profound transition within agri-food systems. Consequently, the transformation of agricultural production methods has become imperative. This article delineates the landscape of transitioning farms across mainland France. It relies on a categorization of farms that integrates their agricultural production methods (organic or conventional) and their product marketing approaches (short circuits or long channels), drawing on data from the 2010 and 2020 agricultural censuses. The analysis yields a detailed map (INSEE canton level) illustrating the evolution of transitional farming from 2010 to 2020, opening the way for discussion on the factors favoring the emergence of certain transition types over others. The outcome reveals a complex geography influenced by s...
-
10:30
Concilier croissance économique, durabilité environnementale et ambitions professionnelles : le dilemme des responsables municipaux en Chine
sur CybergeoAprès des décennies d'industrialisation et d'urbanisation accélérées, la Chine a pris le tournant du développement durable en définissant sa propre vision, qui met l'accent sur l'innovation technologique et la modernisation industrielle. Alors que les grandes métropoles bénéficient de ressources humaines, matérielles et financières considérables pour s'adapter à ce changement, les petites villes situées dans des régions reculées ne bénéficient pas des mêmes avantages. Comment les cadres des petites villes parviennent-ils à développer des projets de développement territoriaux conciliant des exigences contradictoires de productivité et de durabilité environnementale ? Cet article examine les stratégies menées par deux mandatures municipales successives à Xianju, une petite ville située dans une région enclavée de l'est de la Chine, au prisme des trois grands défis de l’urbanisation en Chine : l’injonction au productivisme, la décentralisation asymétrique et le déficit structurel des b...
-
10:30
Towards an annual urban settlement map in France at 10 m spatial resolution using a method for massive streams of Sentinel-2 data
sur CybergeoThe size of urban settlements is rapidly increasing worldwide. This sprawl triggers changes in land cover with the consumption of natural areas and affects ecosystems with important ecological, climate, and social transformations. Detecting, mapping, and monitoring the growth and spread of urban areas is therefore important for urban planning, risk analysis, human health, and biodiversity conservation. Satellite images have long been used to map human settlements. The availability of the Sentinel constellation (S2) allows the monitoring of urban sprawl over large areas (e.g., countries) and at high frequency (with possible monthly updates). This massive data stream allows the proposal of new types of urban products at a spatial resolution of 10 meters. In this context, we developed a fully automated and supervised processing chain (URBA-OPT) using open-source libraries and optimized for rapid calculation on high-performance computing clusters. This processing chain has been applied ...
-
10:30
L’artificialisation des sols dans la presse française. Évolution (1982-mars 2024) et disparités spatiales : d’une notion floue à un objet juridique aux représentations multiples
sur CybergeoL’artificialisation des sols, objet sociotechnique à la définition floue, est devenue un objet juridique à travers une succession de dispositifs législatifs dont la loi Climat et Résilience de 2021. Après une rétrospective sur la formalisation de cette notion depuis 1982, une analyse de la presse française révèle que le nombre d’articles en rapport est en forte augmentation et que les registres lexicaux correspondent à des représentations protéiformes incluant notamment le changement climatique, la biodiversité, la gouvernance ou les projets urbains. La presse nationale et régionale produit et diffuse des informations d’ordre juridique, environnemental, sociétal et conflictuel sur ce paradigme désormais affirmé de l’urbanisme. Les lieux cités dans la presse du Nord de la France tend à démontrer que l’artificialisation des sols est employée à la fois dans les centres urbains les plus importants, leurs périphéries et les zones moins denses et plus agricoles, notamment lors de risques ...
-
10:30
Les gratuités des transports collectifs : quels impacts sur les politiques de mobilité ?
sur CybergeoLa gratuité des transports urbains fait partie du paysage français. Elle concerne des réseaux de taille variée, selon des modalités de mise en œuvre différentes, au point où il semble plus pertinent de parler de gratuités des transports au pluriel. Ces gratuités alimentent de nombreux débats ayant trait à la soutenabilité financière de telles mesures et à leur potentielle incidence sur la capacité des autorités organisatrices des mobilités à poursuivre la mise en œuvre de politique des mobilités durables. L’instauration de la gratuité d’un réseau de transports publics semble être perçue comme un frein à la poursuite du développement d’un réseau de transports collectifs en raison d’une baisse des moyens financiers des autorités organisatrices des mobilités. Cet article propose une analyse des conséquences des mesures de gratuité sur les politiques publiques locales de mobilité. En s’appuyant sur trois exemples de réseaux urbains passés à la gratuité durant les quatre dernières années...
-
10:30
Les territoires en déprise, espaces privilégiés de l’accueil d’exilés ? Une analyse des dynamiques du dispositif Asile et intégration dans la région Auvergne-Rhône-Alpes
sur CybergeoCet article porte sur l’hébergement des demandeurs d’asile dans la région Auvergne-Rhône-Alpes et questionne la part des espaces en déprise dans l’accueil de ces personnes. Il analyse la répartition du parc d’hébergement qui leur est dédié dans le cadre du dispositif national français Asile et intégration, à l’aide d’une base de données inédite fournie par la Direction régionale de l’économie, de l’emploi, du travail et des solidarités Auvergne-Rhône-Alpes en 2023. Cette étude est complétée par des entretiens semi-directifs avec des responsables de centre d’accueil. L’analyse à l’échelon fin de la commune permet de faire ressortir plusieurs points. D’une part, la dynamique de dispersion du parc Asile et intégration se poursuit entre 2017 et 2022, mais tend désormais à privilégier les agglomérations urbaines au détriment des espaces ruraux et les petites villes. D’autre part, on observe une tendance à un rééquilibrage territorial du parc d’hébergement des communes en déprise vers des...
-
10:30
Delineating African cities (large urban regions) to compare them within global urban networks
sur CybergeoAn important issue for Africa is evaluating cities' capacities to leverage global networks effectively to foster local development. However, this evaluation is complicated by the absence of a unified framework and criteria, making it difficult to compare African cities to both each other and with cities around the world. The first step, therefore, is to establish a basis for comparing African cities. In this paper, we address the challenges of defining urban boundaries for cities across Africa's 54 countries. We outline our methodology and present the results of adapting the concept of Large Urban Regions (LURs) (Rozenblat, 2020), which encompass regional urbanized areas surrounding the main African cities. In total, we delineated 304 African Large Urban Regions, covering 5,522 Local Administrative Units (LAU). This delineation of LURs enables African urban areas to be comparable with others worldwide and paves the way for evaluating their integration into global urban networks, esp...
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...