Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
4563 éléments (105 non lus) dans 55 canaux
- Cybergeo (20 non lus)
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (5 non lus)
- Mappemonde (20 non lus)
- Dans les algorithmes (10 non lus)
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN (7 non lus)
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier (8 non lus)
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée
- Geotribu (3 non lus)
- Les cafés géographiques (5 non lus)
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO) (9 non lus)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (2 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques (7 non lus)
- Veille cartographie
- Makina Corpus (2 non lus)
- Oslandia (6 non lus)
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Éléments récents
-
10:30
Appropriations de l’espace et répression du mouvement des Gilets jaunes à Caen
sur MappemondeEn mobilisant différentes méthodologies de recherche issues principalement de la géographie sociale et de la sociologie politique, le présent article souhaite esquisser quelques pistes d’analyse et répondre à la question suivante : comment rendre compte par la cartographie des espaces de lutte du mouvement des Gilets jaunes dans l’agglomération caennaise ? En explorant ainsi sa dimension spatiale, nous désirons contribuer aux débats méthodologiques et analytiques qui ont accompagné ce mouvement qui s’est distingué par ses revendications et sa durée, mais aussi par sa géographie.
-
10:30
Les cartes dans l’analyse politique de l’espace : de l’outil à l’objet de recherche
sur MappemondeLa publication de la carte répertoriant les trajets d’utilisateurs de l’application de sport Strava, en 2017, a rendu identifiables des bases militaires dont les membres utilisaient Strava lors de leurs entraînements (Six, 2018). Cet exemple souligne à la fois l’omniprésence de l’outil cartographique dans nos vies et sa dimension stratégique. Aucune carte n’est anodine, quand bien même son objet semble l’être. Nos sociétés sont aujourd’hui confrontées à de nouveaux enjeux, liés à l’abondance des cartes sur Internet, dans les médias, au travail, que celles-ci soient réalisées de manière artisanale ou par le traitement automatisé de données géolocalisées. L’usage de la cartographie, y compris produite en temps réel, s’est généralisé à de nombreux secteurs d’activités, sans que l’ensemble des nouveaux usagers ne soit véritablement formé à la lecture de ce type de représentation, ni à leur remise en question. Dans ce cadre, le rôle du géographe ne se limite pas à la production de cartes...
-
10:30
Les stratégies cartographiques des membres de la plateforme Technopolice.fr
sur MappemondeConséquence de la transformation des cadres institutionnels du contrôle et de la sécurité, le déploiement de la vidéosurveillance dans l’espace public est aujourd’hui contesté par plusieurs collectifs militants qui s’organisent à travers des modes d’action cartographiques. Leurs pratiques entendent dénoncer, en la visibilisant, une nouvelle dimension techno-sécuritaire des rapports de pouvoir qui structurent l’espace. Grâce aux résultats d’une enquête de terrain menée auprès des membres de la plateforme Technopolice, nous montrons que le rôle stratégique de la cartographie collaborative dans leurs actions politiques réside dans ses fonctions agrégatives et multiscalaires. La diffusion de cartes et leur production apparaissent alors comme des moyens complémentaires, analytiques et symboliques, utilisés par les militants pour mieux appréhender et sensibiliser le public au phénomène auquel ils s’opposent.
-
10:30
La végétalisation de Paris vue au travers d’une carte : une capitale verte ?
sur MappemondeCet article s’intéresse à un dispositif cartographique en ligne proposant de visualiser les projets de végétalisation urbaine entrant dans la politique municipale parisienne. Avec une approche de cartographie critique, nous montrons comment la construction de la carte, et en particulier le choix des figurés et la récolte des données, participe à donner à la capitale française une image de ville verte. Le mélange de données institutionnelles et de données contributives composant la carte du site web Végétalisons Paris traduit l’ambiguïté de la politique de végétalisation parisienne, entre participation citoyenne et instrumentalisation politique.
-
10:30
Géopolitique de l’intégration régionale gazière en Europe centrale et orientale : l’impact du Nord Stream 2
sur MappemondeDépendante des importations de gaz russe, l’Union européenne tente de diversifier ses approvisionnements depuis la crise gazière russo-ukrainienne de 2009. En Europe centrale et orientale, cette politique se traduit par un processus d’intégration régionale des réseaux gaziers. Planifié depuis 2013, ce processus n’a pas connu le développement prévu à cause des divisions engendrées par le lancement du projet de gazoduc Nord Stream 2 porté par Gazprom et plusieurs entreprises énergétiques européennes. Ainsi la dimension externe de la politique énergétique des États membres a un impact sur la dimension interne de la politique énergétique européenne.
-
10:30
Les Petites Cartes du web
sur MappemondeLes Petites Cartes du web est un ouvrage de 70 pages de Matthieu Noucher, chargé de recherche au laboratoire Passages (Bordeaux). Il s’adresse à un public universitaire ainsi qu’à toute personne intéressée par la cartographie. Son objet est l’analyse des « petites cartes du web », ces cartes diffusées sur internet et réalisées ou réutilisées par des non-professionnel?les. Elles sont définies de trois manières :
-
historique, comme des cartes en rupture avec les « grands récits » de la discipline ;
-
politique, comme des cartes « mineures », produites hors des sphères étatiques et dominantes ;
-
technique, en référence aux « petites formes du web » d’É. Candel, V. Jeanne-Perrier et E. Souchier (2012), participant à un « renouvellement des formes d’écriture géographique ».
Ce bref ouvrage, préfacé par Gilles Palsky, comprend trois chapitres. Les deux premiers, théoriques, portent l’un sur la « profusion des “petites cartes” » et l’autre sur l’actualisation de la critique de la cartographie. L...
-
-
10:30
L’Amérique latine
sur MappemondeEn choisissant de commencer son ouvrage par la définition du terme « latine », Sébastien Velut donne le ton d’une approche culturelle et géopolitique de cette région centrale et méridionale du continent américain. Grâce à une riche expérience, il présente ce « grand ensemble flou » (p. 11), ce continent imprévu qui s’est forgé depuis cinq siècles par une constante ouverture au Monde. L’ouvrage, destiné à la préparation des concours de l’enseignement, offre une riche analyse géographique, nourrie de travaux récents en géographie et en sciences sociales, soutenue par une bibliographie essentielle en fin de chaque partie. L’exercice est difficile mais le propos est clair, explicite et pédagogique pour documenter l’organisation des territoires de l’Amérique latine. En ouverture de chaque partie et chapitre, l’auteur pose de précieuses définitions et mises en contexte des concepts utilisés pour décrire les processus en œuvre dans les relations entre environnement et sociétés.
En presque 3...
-
10:30
Les cartes de l’action publique. Pouvoirs, territoires, résistances
sur MappemondeLes cartes de l’action publique, ouvrage issu du colloque du même nom qui s’est déroulé en avril 2018 à Paris, se présente comme une recension de cas d’étude provenant de plusieurs disciplines des sciences sociales. Sociologues, politistes et géographes proposent au cours des 14 chapitres de l’ouvrage (scindé en quatre parties) une série d’analyses critiques de cartes dont il est résolument admis, notamment depuis J. B. Harley (1989), qu’elles ne sont pas neutres et dénuées d’intentionnalités. Cette position, assumée dès l’introduction, sert de postulat général pour une exploration de « l’usage politique des cartes, dans l’action publique et dans l’action collective » (p. 12).
Les auteurs de la première partie, intitulée « Représenter et instituer », approchent tout d’abord les cartes de l’action publique par leur capacité à instituer et à administrer des territoires.
Dans un premier chapitre, Antoine Courmont traite des systèmes d’information géographique (SIG) sous l’angle des scien...
-
10:30
Vulnérabilités à l’érosion littorale : cartographie de quatre cas antillais et métropolitains
sur MappemondeL’érosion littorale est un phénomène naturel tangible dont la préoccupation croissante, compte tenu du changement climatique, nous a menées à travailler sur la problématique de la cartographie de certaines composantes du risque d’érosion comprenant l’étude de l’aléa et de la vulnérabilité. Les terrains guadeloupéens (Capesterre-Belle-Eau et Deshaies) et métropolitains (Lacanau et Biarritz) ont été choisis, présentant une grande diversité d’enjeux. À partir d’un assortiment de facteurs, puis de variables associées à ces notions, la spatialisation d’indices à partir de données dédiées permettrait d’aider les décideurs locaux dans leurs choix de priorisation des enjeux et de mener une réflexion plus globale sur la gestion des risques.
-
10:30
La construction d’une exception territoriale : L’éducation à la nature par les classes de mer finistériennes
sur MappemondeLes classes de mer, inventées en 1964 dans le Finistère, restent encore aujourd’hui très implantées localement. Dépassant la seule sphère éducative, ce dispositif est soutenu par des acteurs touristiques et politiques qui ont participé à positionner le territoire comme pionnier puis modèle de référence en la matière à l’échelle nationale. Tout en continuant à répondre aux injonctions institutionnelles, poussant à la construction d’un rapport normalisé à la nature (développement durable, éco-citoyenneté), cette territorialisation du dispositif singularise la nature à laquelle les élèves sont éduqués.
-
9:05
Guess Where You Are
sur Google Maps ManiaI am currently ranked Number One in the world in the game GuessWhereYouAre. However, I suspect I won't stay on top of the leaderboard for long, especially after other players discover this exciting new Street View game. GuessWhereYouAre is a fun and engaging location-based game that places players in random spots around the world using Street View. Your goal is to explore your surroundings and
-
8:52
Une communauté en poche
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa Géo Communauté est désormais dotée d’une application mobile. Nommée « Géo Communauté Esri France », l’appli disponible sur iPhone, iPad et Android, propose un accès aux différents contenus. Les Web Séminaires en direct et en replay peuvent être suivis à tout moment. Cet outil devient aussi une façon plus facile et fluide d’interagir avec les autres utilisateurs Esri francophones grâce à la messagerie interne et le forum. Des groupes d’intérêts sont établis pour échanger à propos de sujet et de thématiques spécifiques. Les dernières informations apparaissent sur le fil d’actualité et il est possible d’activer les notifications push. Dans le cadre d’évènements proposés par Esri France, comme le Géo événement (photo), l’application devient un moyen pour centraliser les informations, pour préparer un programme et faciliter le networking.
+ d'infos :
geo-communaute.fr
-
21:25
Free and Open Source GIS Ramblings: LLM-based spatial analysis assistants for QGIS
sur Planet OSGeoAfter the initial ChatGPT hype in 2023 (when we saw the first LLM-backed QGIS plugins, e.g. QChatGPT and QGPT Agent), there has been a notable slump in new development. As far as I can tell, none of the early plugins are actively maintained anymore. They were nice tech demos but with limited utility.
However, in the last month, I saw two new approaches for combining LLMs with QGIS that I want to share in this post:
IntelliGeo plugin: generating PyQGIS scripts or graphical modelsAt the QGIS User Conference in Bratislava, I had the pleasure to attend the “Large Language Models and GIS” workshop presented by Gustavo Garcia and Zehao Lu from the the University of Twente. There, they presented the IntelliGeo Plugin which enables the automatic generation of PyQGIS scripts and graphical models.
The workshop was packed. After we installed all dependencies and the plugin, it was exciting to test the graphical model generation capabilities. During the workshop, we used OpenAI’s API but the readme also mentions support for Cohere.
I was surprised to learn that even simple graphical models are actually pretty large files. This makes it very challenging to generate and/or modify models because they take up a big part of the LLM’s context window. Therefore, I expect that the PyQGIS script generation will be easier to achieve. But, of course, model generation would be even more impressive and useful since models are easier to edit for most users than code.
Image source: https://github.com/MahdiFarnaghi/intelli_geo ChatGeoAI: chat with PyQGISChatGeoAI is an approach presented in Mansourian, A.; Oucheikh, R. (2024). ChatGeoAI: Enabling Geospatial Analysis for Public through Natural Language, with Large Language Models. ISPRS Int. J. Geo-Inf., 13, 348.
It uses a fine-tuned Llama 2 model in combination with spaCy for entity recognition and WorldKG ontology to write PyQGIS code that can perform a variety of different geospatial analysis tasks on OpenStreetMap data.
The paper is very interesting, describing the LLM fine-tuning, integration with QGIS, and evaluation of the generated code using different metrics. However, as far as I can tell, the tool is not publicly available and, therefore, cannot be tested.
Image source: [https:]]Are you aware of more examples that integrate QGIS with LLMs? Please share them in the comments below. I’d love to hear about them.
-
11:00
Mappery: Johannes Kepler
sur Planet OSGeoPièce jointe: [télécharger]
This portrait of Johannes Kepler was spotted by Reinder at the Collegium Maius in Cracow. Don’t you love the way old paintings so often have a globe or a map in the background (presumably a symbol of status)?
-
23:26
The Nicknames of America
sur Google Maps ManiaSome U.S. cities have very quirky nicknames. Apparently, the citizens of Auburn, Alabama like to call their town the 'Armpit of the Confederacy'. While their nearby neighbors in Gordo, Alabama call their home the 'Armpit of Civilization'. Elmwood and Belleville in Wisconsin both claim to be the 'UFO Capital of the World' (presumably because of all the strange, alien-looking folk living in
-
21:35
Café géo de Saint-Brieuc, 17 octobre 2024 : D’une frontière à l’autre : Etats-Unis et Mexique face à l’immigration clandestine, avec Thomas Cattin
sur Les cafés géographiquesLycée Renan, Saint-Brieuc, 18h-20h
Moins connue que sa jumelle au nord, la frontière sud du Mexique est devenue la principale zone de transit de migrants sans-papiers voyageant vers le nord. Alors que la question de l’immigration cristallise le débat politique aux Etats-Unis, l’administration américaine a fait pression pour que le gouvernement mexicain renforce ses contrôles à sa frontière avec le Guatemala. C’est sur cette frontière stratégique, et plus particulièrement dans la petite ville de Tapachula, que se concentre dès lors un important dispositif policier, militaire et administratif visant à immobiliser les migrants. Le quotidien de Tapachula, surnommée la « ville prison » est bouleversé par la présence de plusieurs milliers « d’étrangers » en attente de visas. Thomas Cattin, doctorant à l’Institut Français de Géopolitique, se propose de montrer les bouleversements générés dans l’espace urbain par ces milliers de migrants.
Thomas Cattin est doctorant à l’Institut Français de Géopolitique. Ses pays d’étude sont le Mexique et les Etats-Unis. Il a publié un ouvrage « Le mur de la discorde » édition Le Grand Continent, 2019.
Amphithéâtre du Lycée Renan, 2, Boulevard Hérault – 22000 – Saint-Brieuc
Entrée libre et gratuite, sans réservation. Accès aux personnes à mobilité réduite
AFFICHE Café Géo Saint-Brieuc 17 octobre 2024
Contact : cafegeo.saintbrieuc@gmail.com
-
18:40
L’autosuffisance alimentaire est-elle possible pour La Réunion ?
sur Cartographies numériques
Billen, G., Garnier, J., Pomet, A. et al. Is food self-sufficiency possible for Reunion Island ? Regional Environnemental Change, 24, 58 (2024). [https:]]Résumé
Dans un contexte d’instabilité politique et économique, l’autosuffisance alimentaire des pays et territoires devient un enjeu brûlant. La Réunion est un petit territoire français densément peuplé et isolé au milieu de l’océan Indien. Le modèle GRAFS, qui permet d’établir des bilans cohérents en utilisant l’azote (N) comme métrique commune pour toutes les cultures et denrées alimentaires, a été appliqué à La Réunion en considérant 11 sous-régions pour tenir compte de la variété des paysages. La Réunion consacre 87 % de sa production végétale en termes de protéines récoltées à l’exportation de sucre et de fruits tropicaux, tandis qu’elle importe 67 % de son approvisionnement alimentaire, 54 % de l’alimentation du bétail et 57 % de tous les apports d’azote fertilisant pour les sols agricoles. Au total, l’approvisionnement d’une tonne d’azote en alimentation nécessite l’importation de 2,7 tonnes d’azote en alimentation humaine, animale et fertilisante. Le modèle a également démontré que l'action simultanée sur trois leviers de changement permettrait d’atteindre l’autosuffisance en termes d’alimentation humaine, animale et fertilisante :
- la généralisation des rotations agroécologiques alternant légumineuses à grains et fourragères, céréales et autres cultures vivrières ;
- la reconnexion de l’élevage à l’agriculture et un meilleur recyclage des fumiers ainsi que des excréments humains ;
- une réduction drastique de l’alimentation animale dans le régime alimentaire réunionnais, jusqu’à 20 % des produits animaux dans l’apport protéique total par habitant, au lieu de la part actuelle de 60 %. La surface dédiée à la culture de la canne à sucre devrait être réduite à 15-25 % de sa valeur actuelle.
Le principal intérêt de l'article est de présenter différents scénarios afin que La Réunion puisse atteindre la souveraineté alimentaire. Cet objectif est incompatible avec la spécialisation actuelle de l’Île dans la production sucrière. L’autonomie du système agro-alimentaire de la Réunion, est biophysiquement possible, moyennant des bouleversements structurels considérables.
Pour accéder à un article plus simple et en français présentant les principales conclusions de l'article, voir : « L’île de La Réunion pourrait-elle atteindre la souveraineté alimentaire ? » (The Conversation).
Conférence sur le développement durable et les risques à La Réunion (INSEE/DEAL). Jeudi 26 septembre 2024 (Université de La Réunion - INSPE).
Lien ajouté le 10 octobre 2024
Intervenantes : Caroline COUDRIN (DEAL Réunion) et Aurore FLEURET (INSEE Réunion)
La conférence présente l'évolution des indicateurs du développement durable à La Réunion sur ces 20 dernières années. Cette étude permet d'avoir un panorama social, économique et environnemental de La Réunion au travers d'une trentaine d'indicateurs. Leur évolution est analysée et comparée aux cibles réglementaires nationales ou locales quand elles existent.
L'exposition de la population réunionnaise à certains risques et nuisances permet d'identifier les populations vivant dans des zones soumises à des risques (inondations et mouvements de terrain) et des nuisances (bruits routiers et mauvaise qualité de l'eau).
Pour accéder aux différentes parties de la conférence :
0:00 - 0:18 : Introduction. Les enjeux éducatifs du développement durable et de l'éducation aux risques (S. Genevois)
0:19 - 0:51 : Une économie en croissance, une pauvreté et des inégalités en baisse, mais toujours peu d’emplois (A. Fleuret)
0:52 - 1:16 : Une population davantage diplômée, une vie associative en essor, des violences plus fréquentes qu'ailleurs mais en baisse (A. Fleuret)
1:17 - 1:33 : Santé et conditions de logement s’améliorent, mais les enjeux d’environnement et d’accompagnement du vieillissement restent forts (A. Fleuret et C. Coudrin)
1:34 -2:08 : La Réunion face au défi du changement climatique (C. Coudrin)
2:09 - 2:18 : Malgré les efforts de protection, la biodiversité est de plus en plus menacée (C. Coudrin)
2:19 - 2:26 : À La Réunion, une même exposition aux risques et nuisances, quel que soit le niveau de vie (A. Fleuret)
Articles connexes
L'insécurité alimentaire dans le monde (rapport du FSIN)
Les grands enjeux alimentaires à travers une série de story maps du National Geographic
Des différentes manières de cartographier la pauvreté dans le monde
Atlas des Objectifs de développement durable (Banque mondiale)
Estimation du PIB agricole à l'échelle mondiale sur une trame de 10x10km²Cartes et données sur l'occupation des sols en France (à télécharger sur le site Theia)
Un Atlas de la PAC pour une autre politique agricole commune
Publication des résultats du recensement agricole 2020
-
17:33
Datavisualisation sur les prix Nobel attribués depuis 1901
sur Cartographies numériquesKerri Smith & Chris Ryan (2024). How to win a Nobel prize. Nature.
Le prix Nobel a été décerné dans trois domaines scientifiques – la chimie, la physique et la physiologie ou médecine – presque chaque année depuis 1901, à l’exception de quelques interruptions dues principalement aux guerres. Nature a analysé les données concernant 346 prix et 646 lauréats (les prix Nobel peuvent être partagés par trois personnes maximum) pour déterminer quelles peuvent être leurs caractéristiques.
Pour avoir les meilleures chances de remporter un prix Nobel, l’idéal est de naître en Amérique du Nord et d’y rester (54 % des prix Nobel décernés) ou encore en Europe, avec un moins de chance cependant. Les lauréats sont issus la plupart du temps de laboratoires d'autres lauréats.
Une analyse de 3 des 69 prix scientifiques décernés entre 1995 et 2017 révèle que quelques disciplines sont surreprésentées. Au cours du XXe siècle, seulement 11 prix Nobel ont été décernés à des femmes. Depuis 2000, 15 autres prix ont été décernés à des femmes. L'article comporte de nombreux graphiques ainsi qu'une datavisualisation animée qui montre les trajectoires migratoires des Nobels.
Articles connexesUne vidéo sur l'évolution du réseau Internet (1997-2021) à partir du projet Opte
La carte mondiale de l'Internet selon Telegeography
Quand Facebook révèle nos liens de proximité
Une cartographie mondiale des points de connexion Wi-Fi réalisée dans le cadre du projet WiGLE
Mesurer le rayonnement des grandes puissances à travers leurs réseaux diplomatiques
L'essor parallèle de la Silicon Valley et d'Internet : du territoire au réseau et inversement
-
16:15
« Notre planète suffoque, et nos cartes restent muettes » (Karine Hurel)
sur Cartographies numériques
« Notre planète suffoque, et nos cartes restent muettes » (source : Libération)Pour la géographe Karine Hurel, il faut réinventer notre façon de cartographier le monde, afin de mieux le comprendre et pour protéger les écosystèmes dont nous dépendons. Cette approche anthropocentrée de la cartographie a ainsi privilégié une vision du monde centrée sur l’humain, reléguant au second plan la représentation des écosystèmes qui nous entourent, leur richesse et leur complexité. Or comment par exemple traduire la richesse d’un sol quand nos conventions cartographiques nous poussent à voir le monde uniquement d’en haut ? Comment exprimer l’essence d’un lieu, ses vulnérabilités ou notre attachement à celui-ci, quand la norme cartographique privilégie l’analyse de données quantifiables ? Comment prétendre protéger ce que nous ne savons pas représenter ? Ce manque de représentation du monde vivant dans nos imaginaires collectifs a très probablement contribué à la faible considération que nous avons accordée à notre environnement et à la crise écologique que nous vivons. Pourtant, les cartes ont un rôle crucial à jouer pour nous montrer l’invisible, et nous reconnecter au vivant. Elles peuvent être les catalyseurs d’une prise de conscience collective, les boussoles qui guideront nos sociétés vers un avenir plus durable. A elles seules, elles ont le pouvoir de lanceuses d’alerte.
Pour compléter
Transition écologique : le temps des villes et des territoires (Libération)« Comment réconcilier métropoles et campagnes, périphéries et centres-villes, écologie et habitat ? Plongée, en partenariat avec Popsu (Plateforme d’observation des projets et stratégies urbaines) dans les initiatives qui améliorent les politiques urbaines ».
Articles connexes
Paul Crutzen et la cartographie de l'Anthropocène
Feral Atlas, une exploration de l’Anthropocène perçu à travers la féralisation
Cartographier l'anthropocène à l'ère de l'intelligence artificielle (IGN, 2024)
CartNat : une cartographie du gradient de naturalité potentielle de la France métropolitaine
Traces GPS et suivi des déplacements d'animaux
Environnement et justice dans les paysages anthropisés. Une exposition virtuelle du Leventhal Center
Cartes et données sur l'occupation des sols en France (à télécharger sur le site Theia)
Les nouvelles façons de « faire mentir les cartes » à l'ère numérique
La carte, objet éminemment politique
-
15:40
Une cartographie réglementaire incohérente menace silencieusement les rivières et les ruisseaux
sur Cartographies numériques
Messager M. L., Pella H., Datry T. (2024). Inconsistent Regulatory Mapping Quietly Threatens Rivers and Streams. Environmental Science & Technology. DOI : [https:]]Les cours d’eau français, qui n’ont de définition officielle que depuis 2015, sont inégalement protégés d’un département à l’autre, où un même cours d’eau pourra successivement gagner ou perdre ce statut réglementaire. Des disparités qui peuvent affecter la santé des bassins versants. C’est ce que montre cette étude qui a voulu reconstituer la carte de tous les cours d’eau officiellement reconnus dans notre pays, une démarche unique au monde. Les chercheurs de l’Inrae dénoncent les failles d’un chantier qui « menace les rivières et les ruisseaux ».
Carte nationale des cours d'eau protégés par la loi sur l'eau en France métropolitaine en 2023 (source : Messager & al., 2024)
En comparant ces cartes à la base de données topographique de l’Institut national de l’information géographique et forestière (IGN), les auteurs estiment qu’environ un quart des tronçons hydrographiques précédemment cartographiés, les lignes bleues (pointillées ou non) sur les cartes topographiques, ont été qualifiés de non-cours d’eau.
Cette analyse met également en lumière des variations géographiques frappantes dans l’étendue des cours d’eau protégés au titre de la loi sur l’eau. Si certains ruisseaux sont considérés comme cours d’eau dans un département, ils peuvent être considérés comme non-cours d’eau ou disparaître totalement de la carte dans le département voisin ! Ces variations reflètent une application inégale de la définition officielle du cours d’eau, et peuvent compromettre la continuité amont aval du réseau fluvial.
Pour évaluer les implications de la définition légale et de la cartographie des cours d’eau réalisée au titre de la loi sur l’eau à l’échelle nationale, les auteurs ont compilé et harmonisé 91 cartes départementales couvrant toute la France métropolitaine, sauf la Corse. Cette nouvelle carte nationale des cours d’eau comprend plus de 2 millions de tronçons couvrant 93 % de la France métropolitaine, le reste ayant été laissé de côté au cas par cas par certains départements.
L'hydrographie est sociale et politique, insistent les auteurs. « L'effacement d'un cours d'eau sur une carte réglementaire peut se traduire par son efficacement réel du paysage, en le rendant vulnérable au remblaiement, au creusement de fossés [...] ou aux prélèvements d'eau. » Cela montre bien qu'on ne peut pas détacher la dimension technique des données de la dimension politique de leur usage. Le traitement de l'information est un continuum politique.
L'hydrographie est sociale et politique (source : Messager & al., 2024).
Lien ajouté le 17 octobre 2024
Il y a plus de 856 000 plans d’eau en France (IGN).
Initié en mars 2022 à la suite du Varenne agricole de l’eau de février 2022 et des Assises de l’eau de juin 2019, l’Inventaire national des plans d’eau (INPE) recense l’ensemble des plans d’eau du territoire français. Ce nouveau référentiel doit permettre d’outiller les acteurs de l’eau et de suivre les nombreux enjeux associés à ces milieux. Télécharger le rapport Inventaire national des plans d'eau de l'IGEDD.
Liens ajoutés le 22 octobre 2024
Nouvel attribut dans la BD TOPO : les inventaires police de l’eau (IGN).
Dans la BD TOPO® qui est publiée mi-octobre 2024, au sein du thème hydrographique, on trouve sur les tronçons hydrographiques un nouvel attribut « inventaire police de l’eau ». 4 valeurs sont possibles : inscrit, non inscrit, expertise en cours et sans valeur. Différents inventaires et cartes départementales représentant différents types d’écoulements ont été élaborés au fil du temps, à partir de différents référentiels géométriques locaux ou nationaux. Constat est fait qu’un même écoulement physique peut apparaître avec un tracé différent selon le référentiel ou la carte considéré, ce qui peut impliquer des erreurs potentielles d’interprétation lors de l’application des différentes réglementations. Dans ce contexte, l’objectif, afin de clarifier l’information donnée au public, aux associations et aux professionnels du secteur agricole, est d’harmoniser ces différentes cartographies en s’appuyant sur un référentiel géométrique commun. L’IGN contribue à cette ambition, à la fois sur plan institutionnel en poursuivant ses échanges avec les différentes administrations centrales concernées, mais aussi au plan opérationnel via la BD TOPO®, avec la réalisation de la BD TOPAGE®, à travers l’intégration des inventaires police de l’eau (à valeur informative) ainsi qu’ en accompagnant localement les services de l’Etat dans leurs travaux d’harmonisation des géométries des inventaires police de l’eau et des bonnes conditions agricoles et environnementales.
Cartographier les cours d’eau, ça coule de source ! (Conférence de la communauté OpenStreetMap avec @JLZIMMERMANN)L’hydrologie prend de plus en plus d’importance alors que notre climat change et qu’il faut mieux comprendre la circulation de l’eau sur notre territoire. Cela tombe bien, OpenStreetMap permet de consolider cette connaissance, notamment à propos de multiples natures de cours d’eau. Nous souhaitons vous présenter ces possibilités, montrer les travaux en cours et envisager quelques évolutions futures pour la clé waterway=* !
Lien ajouté le 6 novembre 2024
Le retour à la vie des petites rivières urbaines par Marina Julienne (CNRS Le journal)En France, des milliers de kilomètres de petits cours d’eau urbains oubliés et pollués au cours du temps constituent pourtant un réseau hydrographique essentiel à l’environnement. Des opérations de restauration sont en cours, notamment pour éviter les inondations.
Les petites rivières urbaines : environnement, évaluation, gestion et restauration, fascicule 22, Piren Seine, décembre 2024
Pour compléter
« Une cartographie inédite des cours d’eau officiels pointe les inchérences de la réglementation » (The Conversation).
« A cause d’une cartographie incohérente», les ruisseaux poussés dans le fossé » (Libération).
« Quand le gouvernement et la FNSEA redessinent la carte des cours d’eau » (Reporterre).
Articles connexes
Impact du changement climatique sur le niveau des nappes d'eau souterraines en 2100
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
Conflits liés à l'eau : les prévisions du site Water, Peace and Security
La cartographie des déchets plastiques dans les fleuves et les océans
Les barrages vieillissants constituent une menace croissante à travers le monde (rapport de l'ONU)
L'histoire par les cartes : plus de deux siècles d'aménagements fluviaux sur le Rhin
Un jeu de données SIG sur les fleuves qui servent de frontières dans le monde
Connaître l'état des eaux souterraines de l'Union européenne (projet Under the Surface)
Données de réanalyse hydrologique concernent les débits fluviaux et les inondations (GloFAS v4.0)
Diffusion de la 1ère version de la BD TOPAGE® métropole
-
11:00
Mappery: Fire Finding with an Alidade
sur Planet OSGeoPièce jointe: [télécharger]
Have you heard of an alidade? I hadn’t until Walter Schwartz sent me these pics.
He said “Behold the ingenious alidade, a surveying instrument here used as a fire finder. This one is displayed at the Cole Land Transportation Museum in Bangor, Maine. Forest rangers used these atop fire towers to report the distance and, in conjunction with another tower, the coordinates of fires. The map on this table covers an approximately 25 mile diameter (40 KM) inclusive of Augusta to Rockport Maine. The user viewed through a rectangular slot on one upright and rotated the metal structure to view the fire. Some tables were on slides so that the view would not be obstructed by parts of the tower structure. GPS and cameras solve the same problem today. “
Well who knew that? I found this great explanation of the alidade.
-
17:49
OSGeo Announcements: [OSGeo-Announce] FOSS4G 2022 Firenze (Italy) recordings are online
sur Planet OSGeosee news item: FOSS4G 2022 Firenze (Italy) recordings are online - OSGeo
FOSS4G 2022 has been a great event Firenze (Italy). The videos are now published on Youtube.
We hope you will enjoy them.
You find the videos of the talks at our FOSS4G Youtube Channel.
355 videos were uploaded.
We hope you like the videos and get valuable information. We would like to spread the world and we hope you will learn about our great software and our community.
We would like to thank all people involved organizing FOSS4G 2022.
About OSGeo
-------------------
The Open Source Geospatial Foundation (OSGeo) [13] is a non-profit organization dedicated to the development and promotion of open-source geospatial technologies and data. OSGeo serves as an umbrella organization for the collaborative development of open source geospatial software, and provides financial, organizational, and legal support to the broader geospatial community._______________________________________________
Announce mailing list
Announce@lists.osgeo.org
[https:]]1 post - 1 participant
-
16:35
Markus Neteler: Migration of grass-dev mailing list to OSGeo Discourse
sur Planet OSGeoThe post Migration of grass-dev mailing list to OSGeo Discourse appeared first on Markus Neteler Consulting.
-
14:00
Revue de presse du 27 septembre 2024
sur GeotribuAutomne 2024 : carte à base de composants électroniques, un nouveau service gratuit de tuiles OSM, Panoramax continue de se déployer, des nouvelles des conférences QGIS ... et une plaidoirie de défense du format Shapefiles.
-
11:00
Mappery: Your world at Pied a Terre
sur Planet OSGeoPièce jointe: [télécharger]
Reeinder said “At the Amsterdam bookstore Scheltema, one can put a post-it on a kind of world map display, to mark the spot where one has been.”
-
9:39
Finding Your Coordinate Twins
sur Google Maps ManiaDid you know San Francisco shares the same latitude as Fukushima, Japan? Or that Chicago lines up with Rome? These surprising global connections can now be explored with a fun new interactive map that reveals your latitude and longitude twins from across the world!Introducing LatLon Connect - an interactive tool that lets you discover cities around the globe that sit on the same latitude or
-
8:57
Réunis pour les réseaux
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueTrois fournisseurs de solutions, 1Spatial, RMSI et Cyclomedia, s’associent pour adresser le marché de la cartographie des réseaux d’utilité publique. Cette alliance permettra aux gestionnaires d’infrastructures de disposer rapidement d’un plan cartographique précis, complet et à jour, plaçant ainsi les données critiques au coeur de leurs projets. En fournissant technologies et services de la capture à l’enrichissement des données, l’initiative vise tous types de réseaux (eau/assainissement, énergie et télécom). Elle permettrait d’améliorer la sécurité conformité avec les réglementations de travaux, d’optimiser la maintenance et les extensions des réseaux d’un point de vue financier comme environnemental. Cette maitrise du contexte géospatial est aussi nécessaire pour la construction d’un jumeau numérique optimal, sur base de réseaux intelligents (Smart Grids) indispensables face aux enjeux énergétiques et climatiques.
+ d'infos :
1spatial.com
-
7:30
De l’automatisation des inégalités
sur Dans les algorithmesCet article inaugure une nouvelle catégorie de publications, celle d’articles de fond essentiels à nos compréhensions communes. Ici, nous vous proposons un article publié en janvier 2018 sur Internet Actu, qui revenait en détail sur le livre que venait de faire paraître Virginia Eubanks, Automating Inequality (MacMillan, 2018, non traduit).
Dans une tribune pour le New York Times, l’avocate Elisabeth Mason, directrice du Laboratoire pauvreté et technologie qui dépend du Centre sur la pauvreté et l’inégalité de Stanford, soulignait que le Big data et l’intelligence artificielle étaient amenés à être des outils puissants pour lutter contre la pauvreté. Les grands ensembles de données peuvent désormais être exploités pour mieux prédire l’efficacité des programmes d’aides et les évaluer. « Le big data promet quelque chose proche d’une évaluation impartiale, sans idéologie, de l’efficacité des programmes sociaux », explique-t-elle en rêvant d’une société parfaitement méritocratique, tout entière fondée sur la « preuve de ce qui marche » (Evidence-based policymaking). Un propos qui pourrait paraître un peu naïf, si on l’éclaire par le livre que vient de publier la spécialiste de science politique, Virginia Eubanks : Automatiser les inégalités : comment les outils high-tech profilent, policent et punissent les pauvres.
Vous avez été signalés ! Couverture du livre d’Eubanks.Les processus de décision sont de plus en plus confiés à des machines, rappelle la chercheuse. « Des systèmes d’éligibilité automatisés, des algorithmes de classements, des modèles de prédiction des risques contrôlent les quartiers qui doivent être policés, quelles familles peuvent obtenir des aides, qui peut accéder à un emploi, qui doit être contrôlé pour fraude. (…) Notre monde est parcouru de sentinelles informationnelles (…) : d’agents de sécurité numérique qui collectent de l’information sur nous, qui fabriquent des inférences à partir de nos comportements et contrôlent l’accès aux ressources ». Si certains sont visibles, la plupart sont impénétrables et invisibles. « Ces outils sont si profondément tissés dans la fabrique de la vie sociale, que la plupart du temps, nous ne remarquons même pas que nous avons été surveillés et analysés ».
Reste que bien peu de personnes s’intéressent à ce que signifie d’être signalés par ces programmes et les catastrophes individuelles que cela engendre. Se voir retirer son assurance santé au moment où vous êtes le plus vulnérable laisse ceux qui en sont victimes désespérés et acculés. Le problème, souligne très bien Virginia Eubanks est « qu’il n’y a pas de règles qui vous notifient le fait que vous avez été signalé » (ref-flagged) par un programme. La plupart des gens ne savent pas qu’ils ont été la cible de systèmes de décisions automatisés.
Eubanks souligne que ce contrôle s’exerce sur des membres de groupes sociaux plus que des individus : gens de couleurs, migrants, groupes religieux spécifiques, minorités sexuelles, pauvres et toutes populations oppressées et exploitées. Les groupes les plus marginalisés sont ceux sur lesquels le plus de données sont collectées. Et le problème, souligne Virginia Eubanks, c’est que « cette collecte de données renforce leur marginalité » en créant « une boucle de rétroaction de l’injustice » qui renforce à son tour la surveillance et le soupçon.
Des hospices… aux hospices numériquesLe propos de la chercheuse est éminemment politique : en enquêtant sur une poignée de systèmes automatisés développés pour optimiser les programmes sociaux américains, elle dénonce une politique devenue performative… c’est-à-dire qui réalise ce qu’elle énonce. Selon elle, les programmes sociaux n’ont pas pour objectif de fonctionner, mais ont pour objectif d’accumuler de la stigmatisation sur les programmes sociaux et renforcer le discours montrant que ceux qui bénéficient de l’assistance sociale sont, au choix, des criminels, des paresseux ou des profiteurs. La rationalisation des programmes d’aide publics du fait de la crise et des coupes budgétaires les contraint à toujours plus de performance et d’efficacité. Or cette performance et cette efficacité s’incarnent dans des outils numériques qui n’ont rien de neutre, pointe la chercheuse.
Le problème, c’est que ces outils de surveillance sont partout : dans les marges où nous entraîne la chercheuse, les histoires où les technologies facilitent la communication et ouvrent des opportunités sont rares. Pour les plus démunis, la révolution numérique ressemble surtout à un cauchemar. Comme elle le soulignait déjà, pour comprendre l’avenir de la surveillance, il faut regarder comment elle se développe déjà auprès des populations les plus marginalisées.
Dans la première partie de l’ouvrage, Virginia Eubanks dresse un rapide historique pour rappeler que, à la suite de Michel Foucault, les communautés les plus démunies ont toujours été les plus surveillées. Elle souligne la continuité entre les asiles, les prisons, les hospices de la fin du XVIIIe siècle aux bases de données d’aujourd’hui, rappelant que les premières bases de données ont été créées par les promoteurs de l’eugénisme pour discriminer les criminels et les faibles d’esprit.
Elle souligne aussi combien cette histoire de l’assistance publique est intimement liée, surtout aux Etats-Unis, à des vagues régulières de critiques contre l’aide sociale. Partout, l’enjeu a été de mettre en place des règles pour limiter et contrôler le nombre de bénéficiaires des aides sociales, privées comme publiques. Une histoire qui s’intrique à celle des représentations de la pauvreté, de son coût, de la fraude, de la dénonciation de l’inefficacité des aides… Les « hospices numériques » (digital poorhouse), c’est-à-dire les systèmes automatisés de contrôle des aides que reçoivent les plus pauvres, naissent dès les années 70, avec l’informatique elle-même, rappelle la chercheuse. La recherche d’outils neutres pour évaluer les dépenses publiques pour ces bénéficiaires a surtout consisté dans le développement d’outils de surveillance des récipiendaires de l’aide publique. Des programmes de détection des fraudes, des bases de données de bénéficiaires ont été créées et reliées pour tracer les dépenses et les comportements de leurs bénéficiaires dans de multiples programmes sociaux. « Le conflit entre le développement des droits pour les bénéficiaires de l’aide sociale et le faible soutien aux programmes d’assistance publique a été résolu par le développement d’outils technologiques punitifs ». Alors que le droit développait l’aide publique, la technologie était utilisée pour réduire le nombre de leurs allocataires ! Certains programmes d’aides multipliant les situations de non-conformité et les sanctions pour un retard à un rendez-vous, ou pour ne pas avoir consulté un médecin prescrit… Pour Virginia Eubanks, ces systèmes automatisés sont une continuité et une expansion des systèmes de gestion des pauvres punitifs et moralistes, des hospices de la fin du XVIIIe siècle et du début du XIXe siècle que pointait le travail de Michel Foucault. « Si ces systèmes sont présentés pour rationaliser et gérer les bénéficiaires, leur but premier reste et demeure de profiler, surveiller et punir les pauvres ».
S’intéresser aux effets des calculs sur la sociétéDans son livre, Virginia Eubanks se concentre sur l’étude de 3 systèmes : un système mis en place par l’Indiana pour automatiser l’éligibilité de candidats aux programmes d’assistance publique de l’Etat ; un répertoire des SDF de Los Angeles ; et un système d’analyse du risque pour prédire les abus ou négligence sur enfants dans un comté de la Pennsylvanie. Des exemples et des systèmes assez spécifiques, par nature très Américains, qui pourraient nous laisser indifférents, nous Européens, si leur étude ne révélait pas une nature des outils numériques, un fonctionnement qu’on peut potentiellement retrouver dans chacun de ceux qui sont déployés.
La chercheuse prend le temps de les explorer en détail. Elle nous rappelle leur histoire, comment et pourquoi ils ont été mis en place. Comment ils fonctionnent. Elle nous présente quelques personnes qui les font fonctionner, d’autres qui en sont les bénéficiaires ou les victimes. Dans ce travail ethnographique, elle ne présente pas toujours en détail les systèmes, les critères, les questions, le fonctionnement des algorithmes eux-mêmes. La manière dont sont calculés les scores depuis le répertoire des SDF pour leur attribuer une priorité dans la demande de logement n’est pas par exemple ce que cherche à nous montrer Virginia Eubanks. En fait, c’est un peu comme si pour elle ces systèmes étaient par nature incapables d’optimiser le monde qu’on leur demande d’optimiser. L’important n’est pas le calcul qu’ils produisent qui seront toujours imparfait que leurs effets concrets. C’est eux qu’elle nous invite à observer. Et ce qu’elle en voit n’est pas très agréable à regarder.
Chacun des exemples qu’elle prend est édifiant. Le système automatique de gestion de l’assistance de l’Indiana, confié à un opérateur privé, montre toute l’incompétence du délégataire : durant son fonctionnement, l’aide publique a reculé de 54 %. Au moindre oubli, au moindre document manquant, les bénéficiaires étaient tout simplement éjectés du système au prétexte d’un culpabilisant « défaut de coopération » cachant surtout ses défaillances techniques et organisationnelles. Le taux de demande d’aides refusées s’est envolé. Des personnes sourdes, handicapés mentaux, malades, étaient contraintes de joindre un centre d’appel pour bénéficier d’aides… Le contrat entre l’Etat de l’Indiana et IBM a fini par être rompu. Les procès entre le maître d’oeuvre et le délégataire ont duré des années. Son coût n’a jamais été pleinement évalué, hormis pour les gens qu’il a privés des aides auxquelles ils avaient droit. « En retirant l’appréciation humaine des agents en première ligne au profit des métriques d’ingénieurs et de prestataires privés, l’expérience de l’Indiana a suralimenté la discrimination ». Les spécifications sociales pour l’automatisation se sont basées sur l’épuisement et l’usure des bénéficiaires, sur des postulats de classes et de races qui ont été encodées en métriques de performances.
Dans le comté de Los Angeles, Virginia Eubanks évoque longuement la mise en place d’une base de données centralisée des SDF créée pour améliorer l’appariement entre l’offre de logement d’urgence et la demande. L’enjeu était de pouvoir prioriser les demandes, entre sans-abris en crise et sans abris chroniques, en aidant les premiers pour éviter qu’ils ne tombent dans la seconde catégorie. Les partenaires du projet ont donc créé une base de données pour évaluer les demandeurs collectant de vastes quantités d’information personnelle avec un algorithme pour classer les demandeurs selon un score de vulnérabilité et un autre pour les apparier avec les offres de logements : le VI-SPDAT (index de vulnérabilité ou outil d’aide à la décision de priorisation des services). Tout sans-abri accueilli par un organisme doit alors répondre à un long questionnaire, particulièrement intime, posant des questions sur sa santé, sa sexualité, les violences commises à son encontre ou dont il a été l’auteur… La base de données est accessible à quelque 168 organisations différentes : services de la ville, association de secours, organisations religieuses, hôpitaux, centre d’aides et d’hébergements… et même la police de Los Angeles. Chaque sans-abri reçoit un score allant de 1 à 17, du moins au plus vulnérable. Ceux qui ont un score élevé reçoivent alors un accord d’hébergement qu’ils peuvent porter (avec les justificatifs nécessaires) aux autorités du logement de la ville qui peuvent alors leur proposer un logement ou un financement. Virginia Eubanks pointe là encore les multiples difficultés de ces questionnaires qui se présentent comme neutres, sans l’être. Selon la manière dont les SDF répondent aux questions (seuls ou accompagnés, par quelqu’un qui les connait ou pas…), leur score peut varier du tout au tout. Ainsi, un SDF sortant de prison se voit attribuer un score faible au prétexte qu’il a eu un hébergement stable durant son séjour en établissement pénitentiaire.
Elle souligne que le manque de solutions de logements pour sans-abris fait que le système sert plus à gérer les SDF qu’à résoudre le problème. Selon le service des sans-abris de Los Angeles, la ville comptait 57 794 SDF en 2017. 31 000 sont enregistrés dans la base depuis sa création en 2014. 9 627 ont été aidé pour trouver un logement. Si pour Virginia Eubanks le système n’est pas totalement inopérant, reste que sa grande disponibilité pose question. Ces enregistrements consultables par trop d’organisations sur simple requête – et notamment par les forces de l’ordre, sans avoir à justifier d’une cause, d’une suspicion ou autre -, transforment des données administratives et les services sociaux en extension des systèmes de police et de justice. L’absence d’une protection des données de ce registre, nous rappelle combien toute base de données créée pour répondre à un objectif finit toujours par être utilisée pour d’autres objectifs… Les bases de données coordonnées sont des centres de tri qui rendent ceux qui en sont l’objet « plus visibles, plus traçables, plus prévisibles ». « Les personnes ciblées émergent désormais des données » : les personnes jugées à risque sont codées pour la criminalisation. Si ces systèmes produisent certes des chiffres pour mieux orienter les budgets, les données ne construisent pas d’hébergements.
Le dernier exemple que prend Virginia Eubanks est une enquête sur le fonctionnement d’un outil de prédiction du risque de maltraitance et d’agression d’enfants, développé par le bureau de l’enfance, de la jeunesse et des familles du comté d’Allegheny (Pennsylvanie). Elle nous plonge dans le quotidien des travailleurs sociaux d’un centre d’appel à la recherche d’informations sur les dénonciations qu’ils reçoivent, là encore, via une multitude de bases de données : provenant des services du logement, de la santé, de la police, de l’enseignement… Elle explore comment le système prioritise certains critères sur d’autres, comme l’âge des enfants et surtout, le fait que les familles soient déjà sous surveillance des services sociaux. Elle détaille également longuement l’histoire de cet outil prédictif, développé par Rhema Vaithianathan (@rvaithianathan), directrice du Centre pour l’analyse de données sociales de l’université d’Auckland en Nouvelle-Zélande qui s’appuie sur plus de 130 variables pour produire un score de risque allant 1 (le plus faible) à 20… Un programme abandonné par la Nouvelle-Zélande du fait de son manque de fiabilité et de l’opposition qu’il suscita. Dans les pages qu’elle consacre à ce système, Virginia Eubanks prend le temps de nous montrer comment les travailleurs sociaux interprètent les informations dont ils disposent, comment les familles sont sommées de répondre aux enquêtes sociales que ces alertes déclenchent. Elle souligne combien les données censées être neutres cachent une succession d’appréciations personnelles. Elle souligne également combien le système peine à guider celui qui mène enquête suite à un signalement. Combien certains critères ont plus de poids que d’autres : à l’image du fait de recevoir un appel pour un enfant pour lequel le centre a déjà reçu un appel sur les deux années précédentes ou qui a déjà été placé. Elle souligne les limites du modèle prédictif construit qui produit chaque année de trop nombreux faux positifs et négatifs. Comme le soulignait la mathématicienne Cathy O’Neil @mathbabedotorg), les choix qui président aux outils que nous développons reflètent toujours les priorités et les préoccupations de leurs concepteurs. Et la prédictivité est d’autant moins assurée quand nombre de variables sont subjectives. Qu’importe, comme le soulignait une récente enquête du New York Times, l’outil, malgré ses défauts, semble prometteur. Pour ses concepteurs, il nécessite surtout d’être peaufiné et amélioré. Ce n’est pas le constat que dresse Virginia Eubanks.
Eubanks montre combien l’outil mis en place estime que plus les familles recourent à l’aide publique, plus le score de risque progresse. Le système mis en place s’intéresse d’ailleurs bien plus à la négligence dans l’éducation des enfants qu’à la maltraitance ou qu’aux abus physiques ou sexuels des enfants. Or, rappelle la chercheuse, « tous les indicateurs de la négligence sont aussi des indicateurs de pauvreté » : manque de nourriture, de vêtements, de soins de santé, habitation inadaptée… Elle pointe également la grande ambiguïté de ces programmes, à la fois juge et partie, qui ont souvent deux rôles qui devraient être distingués : l’aide aux familles et l’enquête sur les comportements. Trop souvent explique-t-elle, les familles pauvres échangent leur droit à la vie privée contre l’obtention d’aide. Pour Eubanks, on est plus là dans un profilage de la pauvreté que dans un profilage de la maltraitance : le modèle confond la parenté avec la parenté pauvre. Le système voit toujours les parents qui bénéficient d’aides publiques comme un risque pour leurs enfants. Eubanks souligne aussi l’inexistence d’un droit à l’oubli dans ces systèmes : toute information entrée dans le système est définitive, même fausse. Le système enregistre des décisions sans traces d’humanités. Pire, encore, le score de risque se renforce : quand une bénéficiaire d’aides est devenue mère, son enfant s’est vu attribuer un fort taux de risque, car sa mère avait déjà eu des interactions avec les services sociaux quand elle était elle-même enfant. La reproduction de la surveillance est bouclée.
Déconstruire la boucle de rétroaction de l’injusticeDe son observation patiente, la chercheuse dresse plusieurs constats. Partout, les plus pauvres sont la cible de nouveaux outils de gestion qui ont des conséquences concrètes sur leurs vies. Les systèmes automatisés ont tendance à les décourager de réclamer les ressources dont ils ont besoin. Ces systèmes collectent des informations très personnelles sans grande garantie pour leur vie privée ou la sécurité des données, sans leur ménager les moindres contreparties (aucun SDF référencé dans le répertoire de Los Angeles par exemple n’a conscience qu’il n’est jamais ôté de cette base, même s’ils retrouvent un logement… et peut nombreux sont ceux qui ont conscience de la constellation d’organismes qui ont accès à ces informations).
Tous les systèmes caractérisent les plus démunis comme personne à risques. Tous ces systèmes rendent chacun de leur mouvement plus visible et renforcent la surveillance dont ils sont l’objet. Ils visent plus à « manager les pauvres qu’à éradiquer la pauvreté ». Enfin, ces systèmes suscitent très peu de discussion sur leurs réels impacts et leur efficacité. Or, ils font naître des « environnements aux droits faibles », où la transparence et la responsabilité politique semblent absentes.
Pourtant, rappelle-t-elle, la pauvreté n’est pas un phénomène marginal. La pauvreté en Amérique n’est pas invisible. 51 % des Américains passent une année de leur vie au moins dans une situation de pauvreté. La pauvreté n’est pas une aberration qui n’arrive qu’à une petite minorité de gens souffrants de pathologies. Si les techniques de surveillance de la pauvreté ont changé, les résultats sont les mêmes. « Les institutions de secours et leurs technologies de contrôle rationalisent un brutal retour à une forme d’asservissement en sapant les pouvoirs des plus pauvres et en produisant de l’indifférence pour les autres ».
« Quand on parle de technologies, on évoque toujours leurs qualités. Leurs promoteurs parlent de technologies disruptives, arguant combien elles secouent les relations de pouvoirs instituées, produisant une gouvernementalité plus transparente, plus responsable, plus efficace, et intrinsèquement plus démocratique. » Mais c’est oublier combien ces outils sont intégrés dans de vieux systèmes de pouvoirs et de privilèges. Ces systèmes s’inscrivent dans une histoire. Et ni les modèles statistiques ni les algorithmes de classement ne vont renverser comme par magie la culture, la politique et les institutions.
La métaphore de l’hospice numérique qu’elle utilise permet de résister à l’effacement du contexte historique, à la neutralité, que la technologie aimerait produire. L’hospice numérique produit les mêmes conséquences que les institutions de surveillance passées : elle limite le nombre de bénéficiaires des aides, entrave leur mobilité, sépare les familles, diminue les droits politiques, transforme les pauvres en sujets d’expérience, criminalise, construit des suspects et des classifications morales, créé une distance avec les autres classes sociales, reproduit les hiérarchies racistes et ségrégationnistes… Sa seule différence avec les institutions d’antan est de ne plus produire de l’enfermement physique. Certainement parce que l’enfermement dans les institutions de surveillance a pu produire des solidarités qui ont permis de les combattre… Les outils numériques produisent non seulement de la discrimination, mais aussi de l’isolement entre ceux qui partagent pourtant les mêmes souffrances.Les problèmes sont toujours interprétés comme relevant de la faute du demandeur, jamais de l’Etat ou du prestataire. La présomption d’infaillibilité des systèmes déplace toujours la responsabilité vers l’élément humain. Elle renforce le sentiment que ces systèmes fonctionnent et que ceux qui échouent dans ces systèmes sont ingérables ou criminels. Ces systèmes produisent une « classification morale ». Ils mesurent des comportements non pas individuels, mais relatifs : chacun est impacté par les actions de ceux avec qui ils vivent, de leurs quartiers, de leurs relations… En cela, l’impact de ces modèles est exponentiel : les prédictions et les mesures reposent sur des réseaux relationnels, qui ont un potentiel contagieux pareil à des virus. Ces modèles distinguent les pauvres parmi les pauvres. La classe moyenne ne tolérerait pas qu’on applique des outils de ce type sur elle. Ils sont déployés à l’encontre de ceux qui n’ont pas le choix.
Virginia Eubanks insiste : ces hospices numériques sont difficiles à comprendre. Les logiciels et les modèles qui les font fonctionner sont complexes et souvent secrets. D’où la nécessité d’exiger l’ouverture et le libre accès au code qui les font fonctionner. Ils sont massivement extensibles et évolutifs. Ils peuvent se répandre très rapidement. Ils sont persistants et sont très difficiles à démanteler et ce d’autant qu’ils s’intègrent et s’enchevêtrent les uns avec les autres, tout comme l’infrastructure des innombrables outils de Google, rendant toujours plus difficile pour l’utilisateur de s’en passer. ‘Une fois que vous brisez les fonctions des travailleurs sociaux en activités distinctes et interchangeables, que vous installez un algorithme de classement et un système d’information que vous intégrez dans tous vos systèmes d’information, il est quasiment impossible d’en renverser le cours (…), tout comme produire un chiffre qui prédit le risque devient impossible à ignorer ». A mesure que ces technologies se développent, « elles deviennent de plus en plus difficiles à défier, à réorienter, à déraciner ». Les hospices numériques sont éternels. Alors que les enregistrements papier, du fait de leur physicalité et des contraintes de stockage qu’ils impliquaient, pouvaient permettre à ceux qui étaient enregistrés d’accéder à un droit à l’oubli, les bases de données numériques construisent des enregistrements éternels, et d’autant plus éternels qu’elles sont interreliées. Et cet enregistrement éternel est une punition supplémentaire, qui intensifie les risques de fuites de données et de divulgation.
Le risque bien sûr est que les technologies expérimentées sur les pauvres deviennent notre lot commun, soient demain utilisées sur chacun d’entre nous. Aujourd’hui, seuls les plus pauvres sont placés sous surveillance, mais ces outils sont là pour destituer demain chacun d’entre nous, prévient la chercheuse. Nous vivons dans des sociétés qui n’ont pas l’usage des plus âgés ou des invalides. « Nous mesurons la valeur humaine seulement sur la capacité à gagner sa vie ». « Nous voyons le monde comme une rivière sanglante de compétition ». Et Eubanks de dénoncer, à la suite d’Oscar Gandy, la « discrimination rationnelle », cette façon que nous avons d’ignorer les biais qui existent déjà. « Quand les outils d’aide à la décision automatisés ne sont pas construits pour démanteler explicitement les inégalités structurelles, elles les augmentent, les précipitent, les étendent, les intensifient. »
« Les ingénieurs qui construisent ces outils attirent notre attention sur les biais qui impactent leurs systèmes. Indirectement, ils font retomber leurs responsabilités sur la société, sans voir que le racisme et le comportement de classe des élites sont « mathwashés » (blanchis par les mathématiques, comme les pratiques de Greenwashing, c’est-à-dire qui se donnent une image de responsabilité par les mathématiques – NDT), c’est-à-dire neutralisés par la mystification technologique et la magie des bases de données ». Les nouveaux outils high-tech sont vus comme de simples mises à jour administratives, sans conséquence politiques. Ils ne sont montrés que comme des solutions anodines pour améliorer l’efficacité des systèmes, alors que les transformations qu’ils proposent sont bien plus radicales. Comme le soulignait Rhema Vaithianathan, la conceptrice du système prédictif de maltraitance : « d’ici 2040, le Big data devrait avoir ratatiné le secteur public jusqu’à n’être plus reconnaissable ». Comme le confesse Eubanks : « Je trouve troublant la philosophie qui voit les êtres humains comme des boites noires inconnaissables et les machines comme transparentes. Ce me semble être un point de vue qui renonce à toute tentative d’empathie et qui verrouille toute possibilité de développement éthique. L’hypothèse qui veut que la décision humaine soit opaque et inaccessible est un aveu que nous avons abandonné la responsabilité que nous avons à nous comprendre les uns les autres. »
Le problème, souligne encore la chercheuse, est que ces systèmes se développent. Les systèmes prédictifs se déploient : dans la justice, la police, les services sociaux, scolaires… Les bases de données deviennent la matrice du fonctionnement de nos sociétés.
Eubanks souligne très bien combien les garanties sont trop souvent absentes. Elle pointe les apports des principes dont nous bénéficions, en Europe ou en France, comme l’interdiction d’interconnexion des bases de données, le droit à l’oubli, les droits à la protection de la vie privée et notamment le fait que le stockage et l’exploitation des informations doivent être limités par leur finalité ou leur pertinence. Autant de garanties qui ne sont pas si fortes de l’autre côté de l’Atlantique. Pour Virginia Eubanks, face à ces technologies de l’efficacité, il est plus que nécessaire de protéger les droits humains. D’offrir des garanties, des contreparties et des contre-pouvoirs aussi puissants que le sont ces outils. Comme le souligne son travail : nous en sommes bien loin.
Pour Virginia Eubanks, il nous faut changer le discours et le regard sur la pauvreté. Il faut rendre l’assistance publique moins punitive et plus généreuse. Il est aussi nécessaire de développer des principes de conception techniques qui minimisent les dommages. Elle propose ainsi un intéressant serment d’Hippocrate pour les data-scientists, les ingénieurs et les responsables administratifs. Et esquisse un standard éthique minimum : est-ce que l’outil que je développe augmente l’autodétermination et les capacités des pauvres ? Est-ce que cet outil serait toléré si sa cible n’était pas des personnes pauvres ?
Bien sûr les observations de Virginia Eubanks ont lieu dans un autre contexte que le nôtre. On peut se rassurer en se disant que les lacunes qu’elle pointe ne nous concernent pas, que nous avons d’autres réglementations, que notre système n’est pas aussi libéral. Certainement. A la lecture du livre, je constatais surtout pour ma part, que je ne connaissais pas les équivalents français ou européens des systèmes que décrivait Eubanks. Cela ne signifie pas pour autant qu’ils n’existent pas ou que leur automatisation n’est pas en cours.
Virginia Eubanks signe une analyse radicalement différente de celles que l’on voit d’habitude autour des nouvelles technologies. C’est bien sûr un livre politique. Tant mieux : il n’en est que plus fort. Il me rappelle pour ma part la synthèse que Didier Fassin avait fait de ses travaux autour de la police, de la justice et de la prison, dans son remarquable réquisitoire Punir, une passion contemporaine, où il montrait combien la sévérité de nos systèmes pénitentiaires, policiers et judiciaires renforçait l’injustice et les inégalités, en dénonçant combien la justification morale de la punition ne produit qu’une répression sélective.
La chercheuse américaine pointe en tout cas combien la technologie est trop souvent « un mirage », comme le souligne sa consoeur danah boyd, qui nous masque les coûts réels des systèmes, leurs impacts sur les gens. Le travail ethnographique de Virginia Eubanks rend visible la politique derrière les outils. Elle nous montre que pour comprendre les systèmes, il ne faut pas seulement se plonger dans le code, mais regarder leurs effets concrets. Aller au-delà des bases de données, pour constater ce qu’elles produisent, ce qu’elles réduisent. Comme le souligne le journaliste Brian Bergstein dans une tribune pour la Technology Review, « l’instabilité déjà causée par l’inégalité économique ne fera qu’empirer si l’Intelligence artificielle est utilisée à des fins étroites ». Nous y sommes déjà !
-
6:27
Les requêtes d’élévation dans Giro3D
sur OslandiaPièce jointe: [télécharger]
Cet article concerne des fonctionnalités publiées avec la version 0.36 de Giro3D.
Giro3D 0.36 introduit un système de requêtes d’élévation sur les Maps. Nous allons explorer cette API ainsi que quelques cas d’usages typiques.
Pré-requis: les couches d’élévationPour bénéficier de l’API de requêtes d’élévation, une Map doit être dotée d’une couche d’élévation. Les couches d’élévation peuvent lire des données de sources diverses, comme des GeoTIFF ou des couches tuilées (comme celles fournies par l’IGN ou Mapbox).
Requêter une élévation sur une coordonnéeUne fois notre Map et notre couche d’élévation prêtes, nous pouvons commencer à requêter les élévations. Cela passe par la méthode getElevation().
// Mont-Blanc const coordinates = new Coordinates('EPSG:4326', 6.864594, 45.833641); const elevationResult = map.getElevation({ coordinates });
getElevation() ne renvoie pas directement une valeur unique, mais un objet contenant une série d’échantillons (samples). Nous pouvons ordonner ces échantillons par résolution, puis récupérer celui ayant la meilleure résolution.
if (result.samples.length > 0) { result.samples.sort((a, b) => a.resolution - b.resolution); const best = result.samples[0]; const elevation = best.elevation; console.log(`Elevation for coordinate: ${elevation} m`); }
Il est ainsi possible de requêter plusieurs Maps simultanément, d’agréger leurs échantillons, puis de récupérer le meilleur.
Requêter plusieurs maps ?Dans un contexte typique, une scène ne contient qu’une seule map. Mais il existe des scénarios ou plusieurs map dotées de données d’élévation sont présentes simultanément dans une scène, voire se chevauchent.
C’est le cas par exemple d’une scène contenant une mosaïque hétérogène de rasters d’élévation (chacun étant réprésenté par une Map). Dans ce cas nous devrons créer un objet pour stocker les résultats plutôt que de laisser getElevation() le faire pour nous, puis requêter toutes les map en leur passant cet objet:
Positionner des labels sur un terrainconst coordinates = new Coordinates('EPSG:4326', 6.864594, 45.833641); const result = { samples: [], coordinates: options.coordinates }; for (const map of allMaps) { map.getElevation({ coordinates }, result); } if (result.samples.length > 0) { result.samples.sort((a, b) => a.resolution - b.resolution); const best = result.samples[0]; const elevation = best.elevation; console.log(`Best sample for coordinate: ${elevation} m`); }
Pour en savoir plus, voir l’exemple complet sur le site de Giro3D.
Un cas d’usage typique des requêtes d’élévation est le positionnement de labels sur le terrain. Supposons que nous voulions mettre une label au sommet du Mont-Blanc, mais que nous ne disposions que de sa latitude et longitude et pas son élévation:
const labelObject = new CSS2DObject(/** options */); // Mont-Blanc const coordinates = new Coordinates('EPSG:4326', 6.864594, 45.833641).as('EPSG:3857'); labelObject.position.setX(coordinates.x); labelObject.position.setY(coordinates.y); // ... After elevation query on the coordinates labelObject.position.setZ(elevation);
Il est ainsi possible de positionner rapidement un grand nombre d’objets à la surface du terrain.
Positionnement de labels sur le terrain
LimitesLa requête d’élévation ne lit que les données actuellement présentes en mémoire, et ne fait aucune requête [HTTP.] Les données chargées dépendent du point de vue actuel : si la caméra est très éloignée du terrain, des données de faible résolution seront chargées. Cela peut avoir un impact sur la qualité du positionnement, notamment lorsque l’on se rapproche.
Pour pallier à ce problème, il suffit de procéder à une nouvelle requête d’élévation lorsque les données actuellement chargées changent. Nous pouvons pour cela ajouter un listener sur l’événement de changement d’élévation de la map, et mettre à jour les labels situées dans la zone de mise à jour (extent).
Créer un profil d’élévationfunction updateLabels(extent) { // Code } map.addEventListener('elevation-changed', ({ extent }) => updateLabels(extent));
Pour en savoir plus, voir l’exemple complet sur le site de Giro3D.
Un autre scénario typique faisant usage des requêtes d’élévation est bien sûr le profil d’élévation. Il est relativement simple de créer un profil d’élévation en utilisant 3 composants:
- les requêtes d’élévation
- les outils de dessins Giro3D que nous avons présentés dans un article précédent.
- la librairie chart.js
Dessin d’un profil d’élévation
Le profil est créé en requ?tant des dizaines, voire centaines d’élévations en un temps très court (moins d’une seconde généralement).
Bien sûr, les mêmes limites s’appliquent: il s’agit de requêter uniquement les données chargées, et aucune requête HTTP supplémentaire n’est effectuée par Giro3D. Il s’agit donc d’un cas idéal pour fournir aux utilisateurs un aperçu très rapide sans surcharger les serveurs.
Les performancesLes requêtes d’élévation sont généralement très rapides: de l’ordre de la dizaine de millisecondes.
Dans l’exemple Giro3D des profils">[https:] d’élévation, les 200 échantillons sont obtenus en moins de 200 millisecondes. Un profil de 10 000 échantillons est réalisé en moins de 400 millisecondes.
ConclusionLes requêtes d’élévation sont un moyen souple et performant de combler le fossé entre la géomatique 2D et 3D, sans nécessiter de service additionnel de type OGC WPS.
-
2:00
GeoServer Team: GeoServer 2024 Q4 Developer Update
sur Planet OSGeoThe GeoServer team working on sharing our roadmap plans plans and providing greater transparency on our community participation and funding goals.
GeoServer Developer ForumIf you have sent email to
geoserver-devel
list this week you have been met with the following reply:This list is now closed, join us on geoserver developer forum: [https:]
That is right, developer communication has moved to GeoServer Developer on discourse.
- To post join the geoserver-developer group.
- About the GeoServer Developer category has all the details (even email).
- There are improved instructions on how to sign up using github.
How to help:
- Accept the invite - it is quick and easy joining the group and navigate to the forum in one go.
- Update communication details for website and developer guide.
The consortium of Camptocamp, GeoSolutions and GeoCat have responded to our roadmap challenge with a bold GeoServer 3 Call for Crowdfunding established as a multi-party contract.
- The fundraising target has now been set, see updated post, and milestone deliverables established.
- GSIP-226 - GeoServer 3
How to help:
- Share the call for crowdfunding in your region.
- To express your interest or pledge support contact us directly at gs3-funding@googlegroups.com, or via online form.
GEOS-11275: Brad and David have made considerable progress on Wicket UI updates. After a year of effort the first results towards Wicket 10 are being merged onto the
main
branch.Thanks to Brad for doing much of the difficult work starting this activity, and to David for working hard to stabilize this work for testing.
Peter and Jody started a wicket test plan and evaluated an initial 2.26-M0 milestone release.
How to help:
- Test a 2.27.x nightly build, clearly noting problems in the Wicket Test Plan.
- Urgent: Developer assistance is needed to restore JUnit tests for the Wicket modules. Many are failing just due to the contents of the page being slightly altered.
- Developer assistance is needed to resolve the content-security-policy warnings reported during testing.
- David has outlined what is needed for a new GSModalDialog to replace the functionality being removed in Wicket 10.
Spring Security 5.8 updatedocker pull docker.osgeo.org/geoserver:2.27.x docker run -it -p8081:8080 docker.osgeo.org/geoserver:2.27.x
GEOS-11271: Andreas Watermeyer (ITS Digital Solutions) has completed this activity ahead of the GeoServer 2.26.0 release.
How to help:
- The next step is going through the Preparing for 6.0 checklist
GEOS-11272: Andreas Watermeyer (ITS Digital Solutions) set up new community modules to work on this activity. This is a new implementation as the spring security internals have changed, and the new spring api allows for a cleaner implementation.
How to help:
- This work will require extensive testing in different environments.
- Ideas on unit testing and increasing test coverage with test containers are very welcome.
We would like to welcome a new project sponsor:
Route4Me - Simplify Last Mile Complexity: proven route planning and route optimization software.
The GeoServer project steering committee seeks sponsorship to fund maintenance activities, code sprints, and research and development that is beyond the reach of an individual contributor or organization.
- We have worked with OSGeo to provide sponsorship guidance for individual consultants, small organisation, companies and public institutions of different sizes.
- GeoServer has a new sponsorship page on our website collecting this information for our project.
- GeoServer now lists sponsors logos on our home page, alongside core contributors.
We would like to thank everyone who has responded thus far:
- Sponsors: How 2 Map, illustreets, and Route4Me.
- Individual Donations: Peter Rushforth, Marco Lucarelli, Gabriel Roldan, Jody Garnett, Manuel Timita, Andrea Aime
-
11:00
Mappery: 3D Globe
sur Planet OSGeoPièce jointe: [télécharger]
Elizabeth shared this with us. She said “Would you call this a map? It is certainly a navigation aid.” I am not sure how you would describe this but it certainly is an interesting piece.
-
10:45
Mapping Every US Election Since 1840
sur Google Maps ManiaThe Republican Party has won the popular vote in only one Presidential Election in the last 35 years. Since 1989 only George W. Bush (in 2004) has won the popular vote for the Republicans - and in that election Bush benefited from being the incumbent.A newly released visualization from the University of Richmond’s Digital Scholarship Lab highlights the dwindling appeal of the Republican Party
-
9:48
Presse : RODolPh une application pour collecter efficacement les redevances dues par les opérateurs de réseaux
sur Makina CorpusLa presse en parle?! Découvrez cet article de Michel Degoffe paru dans La Lettre du Maire n° 2332 : RODolPh, une application pour collecter efficacement les redevances dues par les opérateurs de réseaux.
-
11:02
AssetMAPPER pour inspecter facilement son patrimoine routier
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueGroupe international créé au Canada en 1991, Transoft Solutions développe des logiciels et des services innovants. Présent dans douze pays, il compte quelque 50.000 utilisateurs dans 150 pays, des professionnels du transport, dans les domaines de l’aviation, du génie civil et transport et la sécurité routière. Sa nouvelle filiale française, installée début 2024, poursuit le développement d’une solution opérée depuis huit ans, permettant de réaliser de manière automatisée l’identification et le diagnostic du patrimoine routier. Des informations précises et géolocalisées qui, une fois exportées, pourront enrichir le système d’information géographique (SIG) de toute organisation, collectivités, bureaux d’études, entreprise de service ou gestionnaire de réseaux ou patrimoine.
«Cette solution se résume en trois points : flexibilité, ergonomie et sécurité, affirme Matthieu Levivier, Directeur de Transoft Solutions France. Contrairement à d’autres offres basées sur du matériel dédié, complexe et coûteux, nous proposons une captation à l’aide d’une simple caméra 360°, comme une GoPro. Le traitement à l’aide de l’IA des images obtenues est entièrement réalisé en ligne par AssetMAPPER, notre logiciel développé en France. Et le résultat se visionne à l’aide d’une interface Google Maps que tout le monde connait. L’outil reste personnalisable. L’utilisateur peut ajouter ses propres objets ou programmer une détection particulière. Enfin, le process est entièrement réalisé sur une plate-forme Cloud sécurisée. Pas besoin d’un serveur dédié : il suffit de récupérer la carte mémoire de sa caméra 360°, de nous transférer son contenu et nous nous chargeons du reste».
Voir aussi ce qui ne se voit pas Le «reste» permet d’obtenir en une journée un inventaire et un diagnostic de tous les éléments visibles dans une vue à 360°. Celle-ci est extraite depuis la vidéo réalisée par la caméra à pied, en vélo ou depuis un bateau pour la signalisation de navigation fluviale. Le plus souvent, le relevé s’effectue en voiture. Dans ce cas, il est possible de couvrir jusqu’à 600 km et, à une vitesse pouvant atteindre les 100km/h, de dresser l’inventaire de près de 10.000 équipements en une seule journée ! Tous les types de signalisation horizontale et verticale existants à travers le monde sont relevés et positionnés de manière précise : panneaux directionnels ou de police, mais aussi balises, feux, barrières, candélabres, adresses avec plaque de rue et numéro…
Les process de Transoft Solutions sont éprouvés et, en fin de traitement dans le Cloud, AssetMAPPER offre, en parallèle d’une visualisation cartographique, des rapports avec la catégorisation des objets, les dédoublements (tel qu’un panneau vu à deux reprises sur deux clichés, ou de face puis de dos) ou la mesure performance. «Cela permet par exemple d’estimer la qualité d’usure d’un marquage au sol ou de la colorimétrie d’un panneau, explique Matthieu Levivier. Grâce à l’entrainement, nous pouvons également voir ce qui ne se voit pas : un panneau qui aurait dû être présent ou celui qui est masqué par la végétation». L’utilisateur peut enfin télécharger les jeux de données sous divers formats (Excel, CSV, JSON, Shapefile) pour une intégration notamment dans un SIG.
Relever la signalisation de police autour d’un aéroport Cette promesse se vérifie sur le terrain, comme aux côtés de Jean-Pierre Cahon, expert reconnu en équipement de la route et tout particulièrement en signalisation routière. Il est aujourd’hui chef de projet au sein de la division Infrastructures ville et transports d’Ingérop. Il connait bien l’offre de Transoft Solutions pour l’avoir éprouvée dans de précédentes fonctions, par exemple pour réaliser des relevés de signalisation horizontale d’un conseil départemental ou d’un gestionnaire de réseaux autoroutier.
Cette fois, Ingérop a été mandaté par le groupe ADP pour intervenir sur le site de l’aéroport parisien de Roissy Charles-de-Gaulle. «Nous avons travaillé sur un large secteur incluant les terminaux, les voies rapides, une zone de bureaux et une zone technique et de maintenance, avec pour objectif de réaliser l’inventaire et le diagnostic des panneaux de police en utilisant la technique d’inspection automatisée, relate Jean-Pierre Cahon. L’exercice s’est révélé complexe en raison de l’environnement très dense, avec parfois 5 à 6 ensembles de panneaux, poteaux, balises et panonceaux identifiés dans une même vue ! La circulation et la configuration particulière du réseau routier ajoutaient d’autres difficultés. À certains endroits, jusqu’à 7 passages ont été nécessaires pour couvrir complètement les lieux. Enfin, cette mission d’assistance à maitrise d’ouvrage s’est déroulée en février 2024, à une période où la luminosité est peu idéale. L’équipe Transoft Solutions a été contrainte à repousser certaines limites du logiciel et du traitement ; et cela a fonctionné !»
Trois jours de roulage étaient prévus, mais le trafic et la pluie ont obligé l’équipe d’Ingérop à le réaliser en cinq jours. Jean-Pierre Cahon en dresse le bilan. «Le relevé sur environ 200km de voirie nous a permis de relever précisément 2.914 panneaux. Nous avons pu constater la présence de panneaux très dégradés, accidentés non changés ou certains mauvais positionnements par rapport à la réglementation». L’expert a ensuite exporté les données vers son SIG à partir duquel il a pu éditer les cartes et imprimer les Atlas requis avec son audit.
Interrogé sur la pertinence de la solution, Jean-Pierre Cahon souligne qu’un relevé équivalent à la main «nécessiterait entre 20 et 25 jours, avec une problématique de sécurité que l’on ne se pose plus. Aujourd’hui, il est impensable de prendre le risque d’avoir un agent exposé sur les routes» ! Quant à la différence avec un relevé LiDAR de haute densité : «la précision serait certes meilleure, mais à un coût bien plus élevé. De plus, il restera des limites. Même avec un LiDAR, il sera impossible de lire le marquage CE qui donne au dos du panneau des informations sur sa fabrication et donc de son remplacement obligatoire sous dix ans». Puisqu’il en est question, «chez Transoft Solutions, le coût au kilomètre utile est facturé 30 euros, avec une dégressivité au volume», conclut Matthieu Levivier.
+ d'infos :
transoftsolutions.com
RDV le jeudi 17 octobre de 11 à 12h pour découvrir plus en détail comment inventorier ou inspecter son patrimoine facilement avec l’IA.
Cliquez ici pour vous inscrire gratuitement au webinaire organisé par Transoft Solutions.
-
11:00
Mappery: I can’t explain
sur Planet OSGeoPièce jointe: [télécharger]
I spotted this globe at a wedding venue recently. I’ve no idea who the two figures aren’t? Feel free to make suggestions
-
10:00
Mapping the Political Landscape
sur Google Maps ManiaWaves of Interest is a deep dive into Google search trends during election years. This beautiful data visualization maps out which political topics capture the attention of Americans during US election years. And where!By using the clever visual metaphor of a topographic map Waves of Interest transforms political interest into an intuitive landscape. The visualization reveals the fall
-
9:12
GeoSolutions: GeoSolutions Participating at GIS-Pro 2024 in Portland, ME October 7-10
sur Planet OSGeoYou must be logged into the site to view this content.
-
7:30
Les mythes de l’IA
sur Dans les algorithmesLa technologie ne produit pas que des solutions, elle produit aussi beaucoup de promesses, d’imaginaires, d’idéologies et de mythes. Derrière le marketing des produits et des services, les entreprises déploient des métaphores simples et convaincantes qui réduisent la complexité des transformations à l’œuvre. « Ils pollinisent l’imagination sociale avec des métaphores qui mènent à des conclusions, et ces conclusions façonnent une compréhension collective » plus ou moins fidèle à la réalité. Les discours sur l’IA générative reposent sur de nombreux mythes et promesses, explique Eryk Salvaggio pour Tech Policy Press qui tente d’en dresser la liste. Ces promesses produisent souvent une compréhension erronée du fonctionnement de l’IA et induisent en erreur ceux qui veulent les utiliser.
Il y a d’abord les mythes du contrôle qui visent à nous faire croire que ces systèmes sont plus fiables qu’ils ne sont. Parmi les mythes du contrôle, il y a celui de la productivité, qui nous répète que ces systèmes nous font gagner du temps, nous font produire plus rapidement. « Le mythe de la productivité suggère que tout ce à quoi nous passons du temps peut être automatisé ». L’écriture se réduit à un moyen pour remplir une page plutôt qu’un processus de réflexion. Le mythe du prompt suggère que nous aurions un contrôle important sur ces systèmes, nous faisant oublier que très souvent, nos mots mêmes sont modifiés avant d’atteindre le modèle, via des filtres qui vont modifier nos invites elles-mêmes. D’où l’incessant travail à les peaufiner pour améliorer le résultat. « Le mythe de l’invite permet de masquer le contrôle que le système exerce sur l’utilisateur en suggérant que l’utilisateur contrôle le système ».
Outre le mythe du contrôle, on trouve également le mythe de l’intelligence. Le mythe de l’intelligence confond le fait que le développement des systèmes d’IA aient été inspirés par des idées sur le fonctionnement de la pensée avec la capacité à penser. On nous répète que ces systèmes pensent, raisonnent, sont intelligents… suggérant également qu’ils devraient être libres d’apprendre comme nous le sommes, pour mieux faire oublier que leur apprentissage repose sur un vol massif de données et non pas sur une liberté éducative. Parmi les mythes de l’intelligence, on trouve donc d’abord le mythe de l’apprentissage. Mais cette métaphore de l’apprentissage elle aussi nous induit en erreur. Ces modèles n’apprennent pas. Ils sont surtout le produit de l’analyse de données. Un modèle n’évolue pas par sélection naturelle : il est optimisé pour un ensemble de conditions dans lesquelles des motifs spécifiques sont renforcés. Ce n’est pas l’IA qui collecte des données pour en tirer des enseignements, mais les entreprises qui collectent des données puis optimisent des modèles pour produire des représentations de ces données à des fins lucratives. Le mythe de l’apprentissage vise à produire une équivalence entre les systèmes informatiques et la façon dont nous mêmes apprenons, alors que les deux sont profondément différents et n’ont pas la même portée ni la même valeur sociale. Le mythe de l’apprentissage permet surtout de minimiser la valeur des données sans lesquelles ces systèmes n’existent pas.
Le mythe de la créativité fait lui aussi partie du mythe de l’intelligence. Il entretient une confusion entre le processus créatif et les résultats créatifs. Si les artistes peuvent être créatifs avec des produits d’IA, les systèmes d’IA génératifs, eux, ne sont pas créatifs : ils ne peuvent pas s’écarter des processus qui leurs sont assignés, hormis collision accidentelles. Le mythe de la créativité de l’IA la redéfinit comme un processus strict qui relèverait d’une série d’étapes, une méthode de production. Il confond le processus de créativité avec le produit de la créativité. Et là encore, cette confusion permet de suggérer que le modèle devrait avoir des droits similaires à ceux des humains.
Salvaggio distingue une 3e classe de mythes : les mythes futuristes qui visent à produire un agenda d’innovation. Ils spéculent sur l’avenir pour mieux invisibiliser les défis du présent, en affirmant continûment que les problèmes seront résolus. Dans ces mythes du futur, il y a d’abord le mythe du passage à l’échelle ou de l’évolutivité : les problèmes de l’IA seront améliorés avec plus de données. Mais ce n’est pas en accumulant plus de données biaisées que nous produiront moins de résultats biaisés. L’augmentation des données permet surtout des améliorations incrémentales et limitées, bien loin de la promesse d’une quelconque intelligence générale. Aujourd’hui, les avantages semblent aller surtout vers des modèles plus petits mais reposant sur des données plus organisées et mieux préparées. Le mythe de l’évolutivité a lui aussi pour fonction d’agir sur le marché, il permet de suggérer que pour s’accomplir, l’IA ne doit pas être entravée dans sa course aux données. Il permet de mobiliser les financements comme les ressources… sans limites. Oubliant que plus les systèmes seront volumineux, plus ils seront opaques et pourront échapper aux réglementations.
Un autre mythe du futur est le mythe du comportement émergent. Mais qu’est-ce qui conduit à un comportement émergent ? « Est-ce la collecte de grandes quantités d’écrits qui conduit à une surperintelligence ? Ou est-ce plutôt la conséquence de la précipitation à intégrer divers systèmes d’IA dans des tâches de prise de décision pour lesquelles ils ne sont pas adaptés ? » Les risques de l’IA ne reposent pas sur le fait qu’elles deviennent des machines pensantes, mais peut-être bien plus sur le fait qu’elles deviennent des machines agissantes, dans des chaînes de décisions défaillantes.
Salvaggio plaide pour que nous remettions en question ces mythes. « Nous devons travailler ensemble pour créer une compréhension plus rigoureuse de ce que ces technologies font (et ne font pas) plutôt que d’élaborer des déclarations de valeur (et des lois) qui adhèrent aux fictions des entreprises ».
C’est peut-être oublier un peu rapidement la valeur des mythes et des promesses technologiques. Les mythes de l’IA visent à produire non seulement une perception confuse de leur réalité, mais à influer sur les transformations légales. Les promesses et les mythes participent d’un narratif pour faire évoluer le droit en imposant un récit qui légitime le pouvoir perturbateur de la technologie. Les mythes permettent de crédibiliser les technologies, expliquait déjà le chercheur Marc Audetat dans l’excellent livre collectif Sciences et technologies émergentes : pourquoi tant de promesses ? (Hermann, 2015). Comme le disait l’ingénieur Pierre-Benoît Joly dans ces pages, « les promesses technoscientifiques ont pour fonction de créer un état de nécessité qui permet de cacher des intérêts particuliers ». Les mythes et les croyances de l’IA ont d’abord et avant tout pour fonction de produire le pouvoir de l’IA et de ceux qui la déploient.
Les 9 mythes de l’IA
-
6:41
Nouveau dans QGIS 3.40 : Le support CMJN
sur OslandiaCrédits : Bru-nO (Pixabay Content License)
Grâce au financement de la Métropole de Bordeaux, j’ai eu la chance de travailler sur le support du CMJN (Cyan Magenta Jaune Noir, CMYK en anglais) dans QGIS. L’objectif de la métropole est de faire tomber la dernière barrière empêchant leur migration complète depuis ArcGIS vers QGIS.
Les développements sont maintenant terminés et seront disponibles dans la version 3.40 de QGIS, prévue pour être publiée en octobre 2024, avant de devenir la prochaine LTR en février 2025. Il est cependant à noter que le support du CMJN ne sera complet que dans les versions de QGIS construites avec Qt 6 (version encore non officielle) pour des raisons expliquées dans l’article. Sur Windows, cette version n’est actuellement installable qu’en utilisant OSGeo4W (version qgis-qt6-dev).
EDIT: En réalité, la version de QGIS construite à partir de Qt 6.8 qui embarque les modifications nécessaires pour l’export PDF CMJN n’est toujours pas disponible. Plus d’information ici.
C’est quoi le CMJN ?Vous connaissez certainement le RVB qui permet de coder une couleur sur écran en choisissant la quanté de rouge, vert et bleu de cette couleur. Il est aussi possible que vous utilisiez le TSL ou TSV.
RVB – Crédits : Daniel Roberts (Pixabay Content License)
Ces 3 référentiels de couleurs permettent de coder une couleur pour un écran, le CMJN cible quant à lui les imprimantes en permettant de saisir la quantité exacte d’encre qui sera libérée lors de l’impression (d’où les 4 composantes CMJN, une par cartouche d’encre).
CMJN ( ici de gauche à droite, NCMJ ) – Crédits : Magnascan (Pixabay Content License)
Les caractéristiques du CMJN diffèrent fortement du RVB, on parle notamment de mode colorimétrique soustractif, car l’encre absorbe la lumière au contraire du RVB qui est dit additif, plus vous avez de rouge, vert, bleu plus vous vous rapprochez de la pleine lumière, le blanc.
La nature intrinsèquement différente de ces 2 espaces colorimétriques font qu’il est fortement déconseillé de convertir l’un vers l’autre. Le mieux est de choisir une couleur dans un espace (CMJN pour l’impression, RGB pour le rendu sur écran) et de s’y tenir.
Pire, l’impression d’une même couleur est différente selon l’imprimante, l’encre, le papier… Le choix d’une couleur CMJN se fait dans un espace de couleur, représenté par un fichier de profil ICC, fourni par votre imprimeur. C’est un peu l’équivalent d’un nuancier utilisé lors d’un choix de peinture.
Vous pouvez maintenant vous écharper sur la VRAIE bonne couleur d’une ligne de route – Crédits : Yanis Ladjouzi (Pixabay Content License)
Implémentation dans QGIS… et QtSuite aux développements, il est maintenant possible dans QGIS de :
- Saisir des couleurs au format CMJN, et en précision flottante ;
- Définir son mode de couleur préférentiel (RVB ou CMJN) et son espace de couleur ;
- Générer un fichier au format PDF/X-4 (prêt pour l’impression) embarquant un espace de couleur et utilisant des couleurs CMJN ;
- Permettre au moteur d’expression de manipuler des couleurs CMJN sans les convertir en RVB ;
- Gérer les rampes de couleurs CMJN ;
- Plein d’autres petites améliorations et corrections autour de la thématique des couleurs.
Selection des couleurs dans QGIS en CMJN
La belle histoire de l’Open sourceJ’ai pris un grand plaisir à participer à ce développement car il est le fruit de la collaboration de nombreux acteurs du logiciel libre.
Lors d’une première phase d’étude concernant le support du CMJN dans QGIS, on identifie rapidement que Qt, le cadriciel (framework) utilisé par QGIS pour le rendu des cartes, présente des limitations. Il convertit toutes les couleurs en RVB lors du rendu des cartes au format PDF et son support des espaces de couleurs CMJN est incomplet.
Il est donc nécessaire de le faire évoluer. Nous nous adressons donc à notre partenaire privilégié lorsqu’il s’agit de Qt, KDAB, et plus précisément Giuseppe D’Angelo qui réalise alors les développements nécessaires.
S’agissant de nouvelles fonctionnalités, ces dernières sont disponibles uniquement dans Qt 6 (Qt 5 est en fin de vie). C’est pour cette raison que le support du CMJN est incomplet dans les versions officielles de QGIS reposant encore sur Qt 5.
QGIS.org, l’association qui chapeaute le projet QGIS, a décidé de financer les développements sur Qt, charge ensuite à Oslandia de piloter ces développements puis de réaliser l’intégration dans QGIS. Cette intégration ainsi que les évolutions fonctionnelles afférentes été financé par la métropole de Bordeaux.
Mes développements ont ensuite été relus par d’autres contributeurs QGIS. (Si vous voulez en savoir plus sur le processus de contribution QGIS, vous pouvez lire un précédent billet de blog sur la qualité logicielle dans QGIS)
Enfin, je tenais à remercier spécialement Jehan, développeur sur le projet GIMP. Sa disponibilité et son exhaustivité dans nos correspondances électroniques m’ont grandement aidé à comprendre les enjeux à la fois techniques et fonctionnels du CMJN, et ont très certainement contribué à la qualité du résultat obtenu.
La suiteQGIS 3.40 sera donc capable de générer un fichier PDF/X-4 utilisant des couleurs CMJN. Qt, de son côté, améliore le support du CMJN, l’écriture PDF, et la gestion des espaces de couleurs.
Encore merci à la métropole de Bordeaux et QGIS.org pour avoir financé ces développements, et toutes les personnes impliqués dans la réalisation de ceux ci.
Nous serions ravis d’avoir des retours d’utilisateurs sur vos cas d’utilisation liés à la gestion des couleurs dans QGIS. N’hésitez pas à nous écrire ou à commenter nos posts pour nous dire comment vous utilisez ces fonctionnalités.
Ces fondations dans la gestion des espaces colorimétriques dans QGIS ouvrent la porte à de futurs perfectionnements. Si le sujet vous intéresse et que vous souhaitez contribuer, n’hésitez pas à nous contacter à infos+qgis@oslandia.com et consulter notre offre de support à QGIS.
-
16:12
Mises à jour octobre 2024
sur Toute l’actualité des Geoservices de l'IGNTous les nouveaux services web géoservices et toutes les mises à jour de données en téléchargement du mois d'octobre 2024. -
16:00
Mises à jour octobre 2024
sur Toute l’actualité des Geoservices de l'IGNTous les nouveaux services web géoservices et toutes les mises à jour de données en téléchargement du mois d'octobre 2024.
-
13:40
Journée d’étude : Le Fleuve sur la carte. Cartographie locale.
sur Cartes et figures du mondeLe 17 octobre 2024
Tours, CESR (Centre d’Etudes Supérieures de la Renaissance)
Salle Saint-Martin
Le fleuve sur la carte. Cartographie locale.
Journée d’étude organisés par Nathalie Bouloux (Université de Tours, CESR), Jean Senié (Université de Tours, CESR) et Camille Serchuk (Southern Connecticut State University)
- 9h30 – Camille Serchuk, Jean Senié Nathalie Bouloux et Jean-Charles Ducène : Introduction et présentation du projet
- 10h – Camille Serchuk : Cartes et paysages fluviaux en France au XVIe siècle
- 10h30 – Pause
- 10h45 – Juliette Dumasy (Université d’Orléans, POLEN) : La représentation des fleuves du Fenland sur les cartes anglaises au Moyen Âge
- 11h15 – Evelien Timpener : Late medieval river maps, their practical use and juridical implications in medieval water management
- Discussions
- 12h30 – Déjeuner
- 14h – Jean Senié : Le rôle des cartes dans les conflits frontaliers le long du Pô (fin XVe-XVIIIe siècle)
- 14h30 – Armelle Querrien : Autour de la figure de 1685 de la Théols à Issoudun: hydraulique, procès, représentations
- 15h – Pause
- 15h30 – Annette Baumann : Sovereignty rights on the river – the dispute over customs and market rights on the Elbe between the Hanseatic City of Hamburg and the Dukes of Brunswick
- 16h – Discussion générale
-
12:13
Café géo de Paris, 15 octobre 2024 : Les Etats-Unis et le Monde, avec Philippe Etienne
sur Les cafés géographiquesUn ancien ambassadeur de France aux Etats-Unis rend compte de l’ampleur des défis auxquels fait face aujourd’hui la première puissance mondiale.
Café de Flore (75006), dans la salle du premier étage, mardi 15 octobre 2024, de 19h à 21h.
Philippe Etienne, ambassadeur de France aux Etats-Unis de 2019 à 2023, a accepté l’invitation des Cafés Géo pour éclairer l’assistance sur les grandes questions géopolitiques de la puissance américaine, sans oublier d’évoquer les fractures de la situation intérieure des Etats-Unis.
Moins de quatre ans après l’assaut sur le Capitole, l’élection présidentielle américaine du 5 novembre 2024 opposera l’ancien Président Donald Trump et l’actuelle Vice-Présidente Kamala Harris. Deux Amérique continuent de s’affronter dans un contexte international incertain marqué par de nombreux conflits de toute nature. L’hégémonie américaine est menacée à la fois par le spectre de la désunion à l’intérieur et par la remise en cause de l’ordre mondial né en 1945.
Philippe Etienne a été ambassadeur en Roumanie, auprès de l’UE (13 ans au total à Bruxelles), en Allemagne et en dernier lieu aux Etats-Unis (2019 2023).
Il a été conseiller diplomatique d’Emmanuel Macron entre 2017 et 2019.
Il est Président de la Mission pour le 80ème anniversaire de la Libération de la France.Le Café abordera la problématique suivante : l’Europe semble dépassée par l’accumulation des crises et par la compétition entre Washington et Pékin. Comment nos démocraties peuvent- elles défendre leurs intérêts, leur souveraineté et leurs valeurs dans un monde autant déstructuré et violent ?
-
11:44
Café géo de Chambéry-Annecy, 10 octobre 2024 : Pourquoi et comment protéger les glaciers et les écosystèmes qui leur succèdent ?
sur Les cafés géographiquesavec Jean-Baptiste Bosson, glaciologue et géomorphologue
10 octobre 2024, 18h, Café Terra Natura, 68 avenue des Neigeos, Seynod
Les glaciers sont de passionnants témoins de l’histoire de la Terre. Sources de terreur puis d’émerveillement, d’aventure et de connaissance, ils permettent de mieux comprendre l’évolution du climat et ses enjeux à l’Anthropocène. Basée sur des résultats récemment obtenus dans les Alpes et dans le monde, cette présentation explore l’évolution fascinante et inquiétante des glaciers sur Terre et met en lumière l’importance de protéger ces géants et les écosystèmes qui leur succèdent.
-
11:00
Mappery: A Wild Map in a Nuclear Bunker
sur Planet OSGeoPièce jointe: [télécharger]
Rollo spotted this Mapsinthewild in a late 1940’s nuclear bunker operations room in York with the ‘most advanced map of the time’ laid out. This facility was designed to monitor impact and fall out. It would support a team of 60 for 30 days underground…. apparently design was out dated almost immediately (1950) but was still manned for 30 years!!!!
And here is the 1980’s tech update …
-
10:21
Optimisation simple d’un réseau de neurones
sur Neogeo TechnologiesMaintenant que l’on a appris à entraîner un réseau de neurones (un modèle) et à récupérer / créer des données d’entraînement, faisons un petit point théorique sur l’optimisation de l’entrainement de notre modèle.
Entraîner un modèle est un processus itératif : à chaque itération, le modèle fait une estimation de la sortie, calcule l’erreur dans son estimation (loss), collecte les dérivées de l’erreur par rapport à ses paramètres et optimise ces paramètres à l’aide de la descente de gradient.
Descente de gradient (rappel)La descente de gradient est un algorithme permettant de trouver le minimum d’une fonction.
Approche intuitive :
- De façon intuitive, on peut imaginer être un skieur sur une montagne. On cherche à trouver le point d’altitude la plus basse (donc, un minimum d’altitude).
- L’approche pour trouver ce minimum est de se placer face à la pente descendante et de simplement avancer pendant 5 minutes.
- Donc, 5 minutes plus tard, on se trouve à un autre point et on réitère l’étape précédente.
- Ainsi de suite jusqu’à arriver au point le plus bas.
Approche mathématique :
- La pente de la montagne correspond à la dérivée. Et, la valeur de dérivée correspond à l’inclinaison de la pente en un point donné.
- Donc, une dérivée élevée indique une pente importante. De la même façon, si la dérivée est faible, alors la pente est faible. Finalement, une dérivée nulle correspond à un sol horizontal.
- Pour le signe de la dérivée, on va à l’inverse de la pente. Plus concrètement, une dérivée positive indique une pente qui descend vers la gauche et, une dérivée négative indique une pente qui descend vers la droite.
- Une fois la direction déterminée (gauche ou droite), il reste à déterminer le pas (on se déplace pendant 5 minutes, 10 minutes, … ?). L’idéal serait de faire le pas le plus petit possible pour déterminer si on a trouvé le minimum le plus régulièrement possible. Le problème avec cette approche est le coût calculatoire : le calcul va être très lent. A l’inverse, un pas trop grand nous fera louper le minimum. Il faut donc trouver un juste milieu, ce qui se fait en spécifiant un taux d’apprentissage (learning_rate) que l’on développera par la suite.
Approches couplées :
- On peut représenter la montagne décrite dans l’approche intuitive par la fonction suivante : f(x) = 2x²cos(x) – 5x. On se restreindra à une étude sur l’intervalle [-5,5].
- Visuellement, le minimum est situé vers x ? 3.8 pour une valeur minimale de y ? -42 environ.
- On va donc appliquer la descente de gradient pour trouver ce minimum.
Pour cela, on commence par prendre un premier x (x0) au hasard. x0 = -1 -> f(x0) = 6.08)
On calcule ensuite la valeur de la pente en ce point (la dérivée f'(x0)). f'(-1) = -2sin(-1)-4cos(-1)-5 ? -5.47827
On « avance » dans la direction opposée à la pente : x1 = x0 ? ?f'(x0) (avec ? = learning_rate = 0.05). x1 ? -0.72609
On répète ensuite l’opération jusqu’à trouver xmin. xmin = 3.8
HyperparamètresCe processus d’optimisation peut être influencé directement par le développeur via le biais des hyperparamètres. Ces hyperparamètres sont des paramètres ajustables qui impactent l’entraînement du modèle et le taux de convergence de ce dernier. Le taux de convergence correspond en combien d’itérations le modèle obtient un résultat optimal.
Pour entraîner le modèle, on dispose de 3 hyperparamètres :
- Nombre d’époques epochs_number : le nombre de fois où l’on parcourt l’ensemble de données
- Taille du lot d’entraînement batch_size : le nombre d’échantillons de données propagés sur le réseau avant la mise à jour des paramètres
- Taux d’apprentissage learning_rate : à quel point les paramètres des modèles doivent être mis à jour à chaque lot/époque. Des valeurs plus petites entraînent une vitesse d’apprentissage lente, tandis que des valeurs plus élevées peuvent entraîner un comportement imprévisible pendant l’apprentissage. (ref. « Descente de gradient »)
Plus concrètement, on possède initialement 2 choses :
- le modèle
- un jeu de données
On commence par découper le jeu de données en sous-jeux de données, tous de même taille. Ces sous-jeux de données sont appelés batch, tous de taille batch_size.
Ensuite, chaque batch est propagé dans le réseau (passé en entrée de celui-ci). Lorsque tous les batch sont passés par le modèle, on a réalisé 1 epoch. Le processus est alors reproduit epochs_number nombre de fois.
Ces étapes peuvent être visualisées sur l’image suivante.
Boucle d’entraînement du modèleAvant toute chose il faut définir les hyperparamètres. Par exemple :
- learning_rate = 1e-3
- batch_size = 64
- epochs = 5
Une fois les hyperparamètres définis la boucle d’entraînement et d’optimisation du modèle peuvent commencer. Pour rappel, chaque itération de cette boucle est donc une epoch.
De façon plus précise chaque epoch est constituée de 2 phases :
- l’entraînement : itération sur le jeu de données d’entraînement afin de tenter de converger vers des paramètres optimaux.
- la validation : itération sur le jeu de données de validation pour vérifier que le modèle est plus performant et s’améliore.
A la première boucle, comme notre réseau n’a pas encore été entraîné, il a très peu de chance qu’il donne une bonne réponse / un bon résultat. Il faut alors mesurer la distance entre le résultat obtenu et le résultat attendu. Cette distance est calculée à l’aide de la fonction de perte (loss_function).
Le but est donc, au fur et à mesure des itérations de boucle, de minimiser cette loss_function afin d’avoir un résultat obtenu au plus proche du résultat attendu. On notera ici l’utilité de la descente de gradient qui, comme expliqué précédemment, est un algorithme permettant de trouver le minimum d’une fonction, ici, la loss_function.
L’optimisation consiste donc à mettre à jour les paramètres à chaque boucle pour minimiser cette fonction de perte. Cette optimisation est encapsulée dans un objet optimizer qui est appliqué sur le modèle. Ce dernier prend donc en entrée les hyperparamètres du modèle. Dans la boucle d’entrainement, l’optimisation est plus précisément réalisée en 3 étapes :
- Appel à fonction optimizer.zero_grad() : réinitialisation des gradients des paramètres du modèle. Par défaut, les gradients s’additionnent ; pour éviter le double comptage, nous les mettons explicitement à zéro à chaque itération.
- Appel à la fonction loss.backward() : rétropropagation de la prédiction de perte (loss).
- Appel à la fonction optimizer.step() : ajustement des paramètres par les gradients collectés lors de la rétropropagation.
Nous avons révisé comment entraîner un modèle de données en introduisant les concepts de hyperparamètres et touché du doigt l’importance d’un bon optimiseur.
La prochaine fois nous vous proposerons un TP pour coder notre optimiseur et étudier quelques uns des optimiseurs fournis dans pytorch.
Rédacteurs : Mathilde Pommier et Sébastien Da Rocha
-
9:51
Tracking Satellites in 3D
sur Google Maps Maniasearching & zooming in on individual satellitesExploring the Final Frontier with Keep TrackKeepTrack is an innovative platform that allows users to monitor satellites orbiting Earth in real-time. At its core is a 3D interactive map that not only shows you where satellites are at the moment but also provides advanced analytics and visualizations to study their orbits and interactions in
-
8:30
Selectour : migration D6 vers D10 et refonte de l'intranet Saphir
sur Makina CorpusSelectour, premier réseau d’agences de voyages indépendantes en France avec plus de 1 000 points de vente répartis sur l’ensemble du territoire et les DOM-TOM, accompagne près
-
2:00
Camptocamp: Generative AI in geospatial: A Pyramid of Increasing Complexity
sur Planet OSGeoPièce jointe: [télécharger]
Large Language Models LLMs like GPT have emerged as game-changers in the way we interact with technology, automate processes and generate content. -
18:16
OSGeo Announcements: [OSGeo-Announce] We are pleased to announce that OTB version 9.1.0 is out!
sur Planet OSGeoReady to use binary packages are available on the package page of the website:
* OTB-9.1.0-Linux.tar.gz
<https://www.orfeo-toolbox.org/packages/OTB-9.1.0-Linux.tar.gz>\(Ubuntu/Debian\)
* OTB-9.1.0-Linux_RedHat.tar.gz
<https://www.orfeo-toolbox.org/packages/OTB-9.1.0-Linux_RedHat.tar.gz>\(Linux\)
* OTB-9.1.0-Win64.zip
<https://www.orfeo-toolbox.org/packages/OTB-9.1.0-Win64.zip>\(Windows
64 bits)Docker images are available with different python versions (3.8 by default, 3.10 for 9.1.0_ubuntu22, 3.12 for 9.1.0_ubuntu24) :
|docker pull orfeotoolbox/otb:9.1.0|
It is also possible to checkout the branch with git:
|git clone Main Repositories / otb · GitLab OTB -b release-9.1|
The documentation for OTB 9.1.0 can be found here <https://www.orfeo-toolbox.org/CookBook-9.1/>\.
To download the packages one by one for a modular installation, you can download them here < [https:]] follow the instructions in the cookbook <https://www.orfeo-toolbox.org/CookBook-9.1/Installation.html>\.
*Changes*
This release introduces bug fixes, important dependencies update (jpeg turbo, geotiff and GDAL), documentation improvement and *the support of SPOT5* (previously drop in OTB8 as OSSIM dependency was removed).
The full changelog can be accessed here <https://gitlab.orfeo-toolbox.org/orfeotoolbox/otb/-/blob/release-9.1/RELEASE_NOTES.txt>\.
We welcome your feedback and requests on OTB’s GitLab <Sign in · GitLab; and if you find a bug, please report it!
*Reminder from OTB 9.0:*
The *whole new packaging system* is entirely made with CMake / CPack, to make the toolbox more modular. You still have the possibility to have a full package for Linux and Windows, but for those who want to install only a part of the toolbox it is possible since v9. The modules list is available in the cookbook with their associated applications. All the packages are now in tar.gz and the installation is movable unlike OTB < 9.
*All GUI has been dropped*. QGIS is now the official visualization tool. We support the development of a plugin which you can use with the following instructions <https://www.orfeo-toolbox.org/CookBook/QGISInterface.html>\. Thus *like 9.0 the version 9.1 does not include Monteverdi or Mapla*.
Like version 9.0, Mac version is not supported, you can use docker image.
Laurent Tristan
OTB Team1 post - 1 participant
-
11:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
11:30
Pierre Laconte, Jean Remy (Coord.), 2020, Louvain-la-Neuve à la croisée des chemins, Louvain-la-Neuve, Belgique, Academia-L’Harmattan, 294 p.
sur CybergeoCet ouvrage livre les coulisses de la conception de Louvain-la-Neuve, une ville nouvelle belge à vocation universitaire, non loin de Bruxelles, à partir des années 1960. Conséquence de la querelle linguistique en Belgique qui a interdit tout enseignement en français en Flandre, les sections francophones de la célèbre université de Leuven ont dû déménager en Wallonie et créer l’université de Louvain-la-Neuve. Mais, contrairement à la tendance lourde à l’époque et aujourd’hui encore, le choix a été fait de créer une ville nouvelle universitaire, et non une "université-campus".
La première lecture de cet ouvrage montre des pensées et des courants d’architecture et d’urbanisme différents, qui ont confronté leurs points de vue et leurs perspectives dans ce projet. Il a fallu une coordination exceptionnelle entre les acteurs (pouvoirs publics et privés, université et associations) qui ont fait Louvain-la-Neuve (LLN) pour qu’elle devienne la ville qu’elle est aujourd’hui. Les auteurs sont l...
-
11:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
11:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
11:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...
-
11:30
Cartographier les pressions qui s’exercent sur la biodiversité : éléments de réflexion autour des pratiques utilisées
sur CybergeoPour mieux orienter les politiques de conservation, il est crucial de comprendre les mécanismes responsables de la perte de biodiversité. Les cartes illustrant les pressions anthropiques sur la biodiversité représentent une solution technique en plein développement face à cet enjeu. Cet article, fondé sur une revue bibliographique, éclaire les diverses étapes de leur élaboration et interroge la pertinence des choix méthodologiques envisageables. La définition des notions mobilisées pour élaborer ces cartes, en particulier celle de la pression, représente un premier défi. La pression se trouve précisément à la jonction entre les facteurs de détérioration et leurs répercussions. Cependant, les indicateurs à notre disposition pour la localiser géographiquement sont généralement axés soit sur les causes, soit sur les conséquences de la dégradation. Cet écueil peut être surmonté si la nature des indicateurs utilisés est bien définie. À cet effet, nous proposons une catégorisation des ind...
-
11:30
Exploring human appreciation and perception of spontaneous urban fauna in Paris, France
sur CybergeoCity-dwellers are often confronted with the presence of many spontaneous animal species which they either like or dislike. Using a questionnaire, we assessed the appreciation and perception of the pigeon (Columba livia), the rat (Rattus norvegicus), and the hedgehog (Erinaceus europaeus) by people in parks, train stations, tourist sites, community gardens, and cemeteries in Paris, France. Two hundred individuals were interviewed between May 2017 and March 2018. While factors such as age, gender, level of education or place or location of the survey did not appear to be decisive in analyzing the differential appreciation of these species by individuals, there was a clear difference in appreciation based on the species and the perceived usefulness of the animal, which is often poorly understood. The rat was disliked (with an average appreciation score of 2.2/10), and the hedgehog was liked (with an average appreciation score of 7.7/10). The case of the pigeon is more complex, with som...
-
11:30
From "Bioeconomy Strategy" to the "Long-term Vision" of European Commission: which sustainability for rural areas?
sur CybergeoThe aim of this paper is to analyze the current and long-term effects of the European Commission Bioeconomy Strategy in order to outline possible scenarios for rural areas and evaluate their sustainability. The focus is on the main economic sectors, with particular reference to employment and turnover, in order to understand what kind of economy and jobs are intended for rural areas, as well as their territorial impacts. For this purpose, we have analyzed the main European Commission documents and datasets concerning the bioeconomy and long-term planning for rural areas, as well as the recent scientific data to verify the impact on forests. The result is that European rural areas are intended to be converted initially into large-scale biomass producers for energy and bio-based industry, according to the digitization process, and subsequently into biorefinery sites, with severe damage to landscape, environment, biodiversity, land use and local economy. Scenarios for rural areas don’t...
-
11:30
Impact du numérique sur la relation entre les systèmes de gestion de crise et les citoyens, analyse empirique en Île-de-France et en Région de Bruxelles-Capitale
sur CybergeoDepuis une dizaine d’année, les systèmes de gestion de crise utilisent les canaux de communication apportés par le numérique. D'un côté, le recours aux plateformes numériques et aux applications smartphones permet une plus grande visibilité des connaissances sur le risque. De l’autre, les réseaux sociaux numériques apparaissent comme un levier idéal pour combler le manque d'implication citoyenne dans la gestion de crise. Pourtant, jusqu'à la crise sanitaire qui a débuté en 2020, rien ne semble avoir été fait pour impliquer les citoyens au cours du processus de gestion de crise. Dans cet article, nous posons la question de l'apport du numérique dans la transformation de la communication sur les risques et dans l'implication citoyenne dans la gestion de crise. En 2018, nous avons diffusé un questionnaire en Île-de-France et dans la région de Bruxelles-Capitale afin de comprendre les attentes des citoyens et les effets des stratégies de communication territoriale sur la perception des ...
-
11:30
La fabrique publique/privée des données de planification urbaine en France : entre logique gestionnaire et approche territorialisée de la règle
sur CybergeoLa question des données territoriales revêt une importance croissante pour l’État, qui entend orienter leur production, leur circulation et leur condition d’usage. Cet article examine les modalités du repositionnement de l’État vis-à-vis des collectivités locales en matière d’urbanisme règlementaire dans le cadre de la standardisation et de la numérisation des données des Plans Locaux d’Urbanisme. Il explore également l’intégration de ces données dans une géoplateforme unique. Nous montrons que ce projet de construction d’un outil commun à l’échelle nationale s’inscrit dans le cadre d’une reprise en main par le pouvoir central des données de planification urbaine à travers l’intégration partielle de méthodes privées, développées par des sociétés commerciales au cours des années 2010 grâce au processus d’open data. L’étude de la fabrique publique/privée des données de l’urbanisme règlementaire permet de mettre en exergue deux points clés de la reconfiguration de l’action de l’État pa...
-
11:00
Mappery: Battersea Park Playground
sur Planet OSGeoPièce jointe: [télécharger]
The Geomob speaker, known as the Geospatial Index, shared this picture from a Battersea Park playground in London.
-
10:30
Appropriations de l’espace et répression du mouvement des Gilets jaunes à Caen
sur MappemondeEn mobilisant différentes méthodologies de recherche issues principalement de la géographie sociale et de la sociologie politique, le présent article souhaite esquisser quelques pistes d’analyse et répondre à la question suivante : comment rendre compte par la cartographie des espaces de lutte du mouvement des Gilets jaunes dans l’agglomération caennaise ? En explorant ainsi sa dimension spatiale, nous désirons contribuer aux débats méthodologiques et analytiques qui ont accompagné ce mouvement qui s’est distingué par ses revendications et sa durée, mais aussi par sa géographie.
-
10:30
Les cartes dans l’analyse politique de l’espace : de l’outil à l’objet de recherche
sur MappemondeLa publication de la carte répertoriant les trajets d’utilisateurs de l’application de sport Strava, en 2017, a rendu identifiables des bases militaires dont les membres utilisaient Strava lors de leurs entraînements (Six, 2018). Cet exemple souligne à la fois l’omniprésence de l’outil cartographique dans nos vies et sa dimension stratégique. Aucune carte n’est anodine, quand bien même son objet semble l’être. Nos sociétés sont aujourd’hui confrontées à de nouveaux enjeux, liés à l’abondance des cartes sur Internet, dans les médias, au travail, que celles-ci soient réalisées de manière artisanale ou par le traitement automatisé de données géolocalisées. L’usage de la cartographie, y compris produite en temps réel, s’est généralisé à de nombreux secteurs d’activités, sans que l’ensemble des nouveaux usagers ne soit véritablement formé à la lecture de ce type de représentation, ni à leur remise en question. Dans ce cadre, le rôle du géographe ne se limite pas à la production de cartes...
-
10:30
Les stratégies cartographiques des membres de la plateforme Technopolice.fr
sur MappemondeConséquence de la transformation des cadres institutionnels du contrôle et de la sécurité, le déploiement de la vidéosurveillance dans l’espace public est aujourd’hui contesté par plusieurs collectifs militants qui s’organisent à travers des modes d’action cartographiques. Leurs pratiques entendent dénoncer, en la visibilisant, une nouvelle dimension techno-sécuritaire des rapports de pouvoir qui structurent l’espace. Grâce aux résultats d’une enquête de terrain menée auprès des membres de la plateforme Technopolice, nous montrons que le rôle stratégique de la cartographie collaborative dans leurs actions politiques réside dans ses fonctions agrégatives et multiscalaires. La diffusion de cartes et leur production apparaissent alors comme des moyens complémentaires, analytiques et symboliques, utilisés par les militants pour mieux appréhender et sensibiliser le public au phénomène auquel ils s’opposent.
-
10:30
La végétalisation de Paris vue au travers d’une carte : une capitale verte ?
sur MappemondeCet article s’intéresse à un dispositif cartographique en ligne proposant de visualiser les projets de végétalisation urbaine entrant dans la politique municipale parisienne. Avec une approche de cartographie critique, nous montrons comment la construction de la carte, et en particulier le choix des figurés et la récolte des données, participe à donner à la capitale française une image de ville verte. Le mélange de données institutionnelles et de données contributives composant la carte du site web Végétalisons Paris traduit l’ambiguïté de la politique de végétalisation parisienne, entre participation citoyenne et instrumentalisation politique.
-
10:30
Géopolitique de l’intégration régionale gazière en Europe centrale et orientale : l’impact du Nord Stream 2
sur MappemondeDépendante des importations de gaz russe, l’Union européenne tente de diversifier ses approvisionnements depuis la crise gazière russo-ukrainienne de 2009. En Europe centrale et orientale, cette politique se traduit par un processus d’intégration régionale des réseaux gaziers. Planifié depuis 2013, ce processus n’a pas connu le développement prévu à cause des divisions engendrées par le lancement du projet de gazoduc Nord Stream 2 porté par Gazprom et plusieurs entreprises énergétiques européennes. Ainsi la dimension externe de la politique énergétique des États membres a un impact sur la dimension interne de la politique énergétique européenne.
-
10:30
Les Petites Cartes du web
sur MappemondeLes Petites Cartes du web est un ouvrage de 70 pages de Matthieu Noucher, chargé de recherche au laboratoire Passages (Bordeaux). Il s’adresse à un public universitaire ainsi qu’à toute personne intéressée par la cartographie. Son objet est l’analyse des « petites cartes du web », ces cartes diffusées sur internet et réalisées ou réutilisées par des non-professionnel?les. Elles sont définies de trois manières :
-
historique, comme des cartes en rupture avec les « grands récits » de la discipline ;
-
politique, comme des cartes « mineures », produites hors des sphères étatiques et dominantes ;
-
technique, en référence aux « petites formes du web » d’É. Candel, V. Jeanne-Perrier et E. Souchier (2012), participant à un « renouvellement des formes d’écriture géographique ».
Ce bref ouvrage, préfacé par Gilles Palsky, comprend trois chapitres. Les deux premiers, théoriques, portent l’un sur la « profusion des “petites cartes” » et l’autre sur l’actualisation de la critique de la cartographie. L...
-
-
10:30
L’Amérique latine
sur MappemondeEn choisissant de commencer son ouvrage par la définition du terme « latine », Sébastien Velut donne le ton d’une approche culturelle et géopolitique de cette région centrale et méridionale du continent américain. Grâce à une riche expérience, il présente ce « grand ensemble flou » (p. 11), ce continent imprévu qui s’est forgé depuis cinq siècles par une constante ouverture au Monde. L’ouvrage, destiné à la préparation des concours de l’enseignement, offre une riche analyse géographique, nourrie de travaux récents en géographie et en sciences sociales, soutenue par une bibliographie essentielle en fin de chaque partie. L’exercice est difficile mais le propos est clair, explicite et pédagogique pour documenter l’organisation des territoires de l’Amérique latine. En ouverture de chaque partie et chapitre, l’auteur pose de précieuses définitions et mises en contexte des concepts utilisés pour décrire les processus en œuvre dans les relations entre environnement et sociétés.
En presque 3...
-
10:30
Les cartes de l’action publique. Pouvoirs, territoires, résistances
sur MappemondeLes cartes de l’action publique, ouvrage issu du colloque du même nom qui s’est déroulé en avril 2018 à Paris, se présente comme une recension de cas d’étude provenant de plusieurs disciplines des sciences sociales. Sociologues, politistes et géographes proposent au cours des 14 chapitres de l’ouvrage (scindé en quatre parties) une série d’analyses critiques de cartes dont il est résolument admis, notamment depuis J. B. Harley (1989), qu’elles ne sont pas neutres et dénuées d’intentionnalités. Cette position, assumée dès l’introduction, sert de postulat général pour une exploration de « l’usage politique des cartes, dans l’action publique et dans l’action collective » (p. 12).
Les auteurs de la première partie, intitulée « Représenter et instituer », approchent tout d’abord les cartes de l’action publique par leur capacité à instituer et à administrer des territoires.
Dans un premier chapitre, Antoine Courmont traite des systèmes d’information géographique (SIG) sous l’angle des scien...
-
10:30
Vulnérabilités à l’érosion littorale : cartographie de quatre cas antillais et métropolitains
sur MappemondeL’érosion littorale est un phénomène naturel tangible dont la préoccupation croissante, compte tenu du changement climatique, nous a menées à travailler sur la problématique de la cartographie de certaines composantes du risque d’érosion comprenant l’étude de l’aléa et de la vulnérabilité. Les terrains guadeloupéens (Capesterre-Belle-Eau et Deshaies) et métropolitains (Lacanau et Biarritz) ont été choisis, présentant une grande diversité d’enjeux. À partir d’un assortiment de facteurs, puis de variables associées à ces notions, la spatialisation d’indices à partir de données dédiées permettrait d’aider les décideurs locaux dans leurs choix de priorisation des enjeux et de mener une réflexion plus globale sur la gestion des risques.
-
10:30
La construction d’une exception territoriale : L’éducation à la nature par les classes de mer finistériennes
sur MappemondeLes classes de mer, inventées en 1964 dans le Finistère, restent encore aujourd’hui très implantées localement. Dépassant la seule sphère éducative, ce dispositif est soutenu par des acteurs touristiques et politiques qui ont participé à positionner le territoire comme pionnier puis modèle de référence en la matière à l’échelle nationale. Tout en continuant à répondre aux injonctions institutionnelles, poussant à la construction d’un rapport normalisé à la nature (développement durable, éco-citoyenneté), cette territorialisation du dispositif singularise la nature à laquelle les élèves sont éduqués.
-
10:30
The U.S. Supermarket Wars
sur Google Maps ManiaAccording to the Washington Post, "Walmart, Kroger, Aldi (Süd) and Albertsons own a third of all U.S. grocery stores locations." But who is winning the supermarket wars in your area?Hot on the heels of Japan's ConbiniWars interactive map, the Post has divided the United States based on which supermarket chain owns the most stores in each county. Whereas the ConbiniWars map used a Voronoi layer
-
7:30
Se libérer du technocolonialisme
sur Dans les algorithmesEn cartographiant la logique profondément coloniale de nos technologies, avec Anatomy of AI et Calculating Empires, Kate Crawford et Vladan Joker ont attiré notre attention sur le caractère extractiviste sans précédent des technologies numériques, construites depuis « les logiques du capital, du maintien de l’ordre et de la militarisation » qui accélèrent les asymétries de pouvoir existantes. Dans leur nouveau livre, Data Grab : the new colonialism of Big Tech (and how to fight back) (Pillage de données : le nouveau colonialisme des Big Tech (et comment le combattre), WH Allen, 2024, non traduit), Ulises A. Mejias et Nick Couldry interrogent la métaphore technocoloniale. Peut-on dire que la technologie procède d’un colonialisme ? Et si c’est le cas, alors comment nous en libérer ?
Explorer, étendre, exploiter, exterminer : une continuitéA la fin de leur précédent livre, The costs of connection (Stanford University Press, 2019) Mejias et Couldry en appelaient déjà à « décoloniser internet » de l’emprise des multinationales qui le dominent. Mais derrière la formule qui fait florès, peut-on vraiment affirmer que le colonialisme technologique repose sur les mêmes caractéristiques que le colonialisme d’hier ?
Le colonialisme, historique, repose d’abord sur un accaparement sans précédent des terres, des biens, des ressources, des personnes, dont les effets, les conséquences et les répercussions continuent encore aujourd’hui. Il repose sur un quadriptyque, expliquent les chercheurs : « explorer, étendre, exploiter, exterminer ». Comparativement, l’accaparement des données semble bien anodin. Pourtant, estiment les chercheurs, ce technocolonialisme partage beaucoup de caractéristiques avec son ancêtre. D’abord, il est comme lui global et se déroule à très large et très vaste échelle. Mais surtout, il « prolonge et renouvelle cet héritage de dépossession et d’injustice » commencé avec la colonisation. En 1945, un habitant de la planète sur trois était dépendant de l’ordre colonial. Aujourd’hui, un habitant de la planète sur trois a un compte Facebook, comparent un peu rapidement les auteurs. Les contextes et impacts sont différents, mais l’échelle du déploiement de la domination des Big Tech rappelle nécessairement cette histoire, estiment-ils. Le pouvoir de Meta par exemple contribue à une diffusion étendue de la désinformation qui a conduit jusqu’à des violences génocidaires et des interférences politiques.
Le colonialisme s’est toujours justifié par sa mission civilisatrice, visant non seulement à contrôler les corps, mais également les esprits et les consciences, comme l’ont fait dans le passé l’Eglise et la Science. Et les Big Tech aussi se targuent d’une mission civilisatrice. La mission civilisatrice, les motifs économiques, l’exercice du pouvoir et l’introduction de technologies spécifiques façonnent l’histoire du colonialisme. Par le passé, la mission civilisatrice s’est toujours faite par le déploiement de nouvelles force de surveillance, de discrimination, d’exploitation. Et c’est également ce qu’on retrouve aujourd’hui avec l’extension de la surveillance au travail, la généralisation de la reconnaissance faciale, du scoring, ou l’exploitation des travailleurs du clic du monde entier. Comme le dit le philosophe Achille Mbembe dans Sortir de la grande nuit : Essai sur l’Afrique décolonisée (2010) : « Notre époque tente de remettre au goût du jour le vieux mythe selon lequel l’Occident seul a le monopole de l’avenir. »
Image : couverture du livre de Ulises A. Mejias et Nick Couldry, Data Grab.Le colonialisme de données est « un ordre social dans lequel l’extraction continue de données génère des richesses massives et des inégalités à un niveau global ». Ce nouvel ordre social repose un nouveau contrat social où le progrès nécessite de remettre nos données aux entreprises, sans condition. Certes, les grandes entreprises de la tech ne nous proposent pas de nous réduire en esclavage et le fait de refuser leurs services ne conduit pas à l’extermination. Reste que le pillage de données n’est pas le fait de quelques entreprises malhonnêtes, mais se produit à tous les niveaux. L’exemple le plus éclairant est certainement l’IA générative qui a eu besoin de collecter toutes les données possibles pour alimenter ses moteurs. Une sorte de prédation généralisée motivée pour le bien de l’humanité. Pour Mejias et Couldry, chausser les lunettes du colonialisme pour regarder la prédation en cours permet surtout de faire apparaître les similarités entre le colonialisme historique et le technocolonialisme, qui reposent, l’un comme l’autre sur l’appropriation de ressources et qui se justifie toujours pour servir un but plus grand (le progrès économique). Ce pillage est toujours imposé par une alliance entre les Etats et les entreprises. Il a toujours des effets désastreux sur l’environnement et il renforce toujours les inégalités, entre des élites extractivistes et des populations exploitées. Enfin, cette prédation se justifie toujours par des alibis : un narratif civilisationnel.
La numérisation de nos existences implique un profond changement dans les relations de pouvoir dans lesquelles nous sommes pris. Le capitalisme ne peut pas être compris sans le rôle qu’a joué le colonialisme dans son expansion, rappellent les chercheurs. « Le capitalisme a une dimension coloniale, non pas par accident, mais par conception ». Et l’exploitation est une fonction des opérations routinières de nos outils numériques. Le colonialisme des données exploite nos existences mêmes. Comme le disait Achille Mbembe dans Brutalisme : « nous sommes le minerai que nos objets sont chargés d’extraire ».
Piller, c’est déposséder sans égard pour les droits de ceux qu’on dépossèdeCe pillage de données transforme déjà en profondeur tous les aspects de nos vies : l’éducation, la santé, les lieux de travail, la consommation, la production… La grande différence que l’on pourrait faire entre le colonialisme historique et ce nouveau colonialisme, c’est que la violence physique semble y être largement absente. En fait, estiment les chercheurs, la violence est devenue plus symbolique. Le pillage lui-même est devenu sans friction, puisqu’il suffit d’accepter les conditions d’utilisation pour qu’il se déploie. Cela ne signifie pas pour autant que toute violence ait disparu. L’enjeu colonial, d’extraction et de dépossession, lui, continue. Il signifie toujours déposséder l’autre sans égard pour ses droits. La justification est d’ailleurs toujours la même : « rendre ce qui est pillé plus productif », selon une définition de la productivité qui correspond aux intérêts du pilleur. Quant à l’exploitation du travail humain, elle n’a pas disparu, comme le rappellent les travailleurs du clic. Cette exploitation est toujours aussi intensive en technologie, nécessite toujours des outils très spécifiques et spécialisés et bénéficie d’abord à ceux à qui ils appartiennent, à l’image des plateformes d’IA qui bénéficient d’abord à ceux qui les proposent et les exploitent.
« L’exploitation des données est une continuation de la violence coloniale via d’autres moyens ». Elle produit toujours de la discrimination et de la perte d’opportunité pour ceux qui en sont les victimes, selon des logiques de classification sociales. Les distinctions de « classe, de genre, de race ont toujours été instrumentées pour créer le mythe que ces différences avaient besoin d’être gérées et organisées par la rationalité occidentale ». Le colonialisme des données renouvelle la mission historique du colonialisme via de nouveaux moyens que sont les systèmes de prise de décision automatisés, les plateformes… dont les effets « sont plus subtils et difficiles à tracer qu’avant ». La discrimination s’inscrit désormais dans nos outils numériques, comme le montrait Virginia Eubanks dans Automating Inequality, en inscrivant les inégalités dans des plateformes profondément asymétriques. L’extraction de données permet d’attacher les personnes à des catégories. Les systèmes de scoring déterminent des scores qui reflètent et amplifient les discriminations forgées par le colonialisme.
Les deux auteurs ont des mots assez durs sur la science occidentale, rappelant qu’elle naît en partie pour la gestion coloniale (la botanique, la zoologie, l’anthropologie…). Qu’elle invente des techniques et des outils (la carte, les rapports, les tableaux…) pas seulement au profit de la science, mais bien également en coordination avec l’expansion économique et militaire. Cette science a été très vite appliquée pour surveiller, contrôler et gérer les populations colonisées. La Big Science et les Big Techs aujourd’hui sont toujours au service de relations de pouvoir asymétriques. Or, rappellent les chercheurs, le colonialisme des données à besoin de nous. « Sans nos données, il ne fonctionne pas ». Nous participons à notre propre exploitation.
La donnée a une caractéristique particulière cependant. C’est un bien non-rival. Elle peut-être copiée et réutilisée sans fin. Cela n’empêche pas qu’elle soit exploitée dans des territoires de données très spécifiques que sont les plateformes, interreliées, qui imposent leurs propres lois depuis les codes qu’elles produisent. Ce nouveau monde de données dirige nos activités vers des canaux numériques qui sont entièrement sous le contrôle des entreprises qui les proposent. Si les données sont un bien non-rival, ce qu’elles capturent (nous !) est bien une ressource finie.
La mission civilisatrice des données : produire notre acceptation
Pour les deux chercheurs, l’exploitation des données est née en 1994, quand Lou Montulli, employé de Netscape, invente le cookie. En 30 ans, les structures de pouvoir du net ont domestiqué la surveillance en avantage commercial via une machinerie numérique tentaculaire, comme le montrait Soshana Zuboff. Les ordinateurs ont été placés au cœur de toute transaction, comme l’expliquait Hal Varian, l’économiste en chef de Google dès 2013. Tout ce qui est personnel ou intime est devenu un terrain d’exploitation. Nous sommes au cœur de territoires de données où le monde des affaires écrit les contrats, en les présentant comme étant à notre bénéfice. Nous sommes cernés par des relations d’exploitation de données qui maximisent l’extraction d’une manière particulièrement asymétrique. Une forme d’hypernudge qui optimise nos comportements pour servir les objectifs des collecteurs. Ce colonialisme n’opère pas que dans le domaine de la publicité ciblée, rappellent les auteurs, elle s’étend aux finances personnelles, à l’agriculture de précision, à l’éducation, la santé, le travail… selon des logiques d’opacité (on ne sait pas exactement quelles données sont collectées), d’expansionnisme (les données d’un secteur servent à d’autres), d’irresponsabilité (sans rendre de comptes) et dans une conformité juridique très incertaine. La gestion des humains est devenue rien d’autre que la gestion d’une base de données, au risque d’y délaisser les plus vulnérables. Ces systèmes ravivent les inégalités du vieil ordre colonial.Dans un chapitre sur la mission civilisatrice des données, les deux chercheurs expliquent que celle-ci repose d’abord sur la commodité. Elle repose également sur une narration connectiviste, quasi religieuse, qui invisibilise la surveillance qu’elle active en suggérant que l’extraction de données est inévitable. Qu’elle doit être continue, profonde, totale. Ce narratif met de côté tous les problèmes que cette extraction génère, comme le fait qu’elle divise les gens, les épuise, les traumatise… On oublie que la connexion limite plus qu’elle augmente la diversité. « Les plateformes plus que les gens, décident quelles connexions sont plus avantageuses pour elles », à l’image des recommandations qu’elles produisent sans qu’on ait notre mot à dire, qu’importe la polarisation ou la radicalisation qu’elles produisent. La viralité est le modèle économique. Nous sommes le jeu auquel joue l’algorithme.
Ce storytelling impose également un autre discours, celui que l’IA serait plus intelligente que les humains. Comme le microscope a participé au succès de l’impérialisme (soulignant le lien entre la méthode scientifique et l’entreprise coloniale comme moyen de réduire et d’abstraire le monde naturel en objets capables d’être gérés), l’IA est l’outil pour rendre l’extraction de données inévitable. D’un outil pour comprendre le monde, la méthode scientifique est aussi devenue un processus pour éliminer l’opposition à la gestion coloniale. Couldry et Mejias rappellent pourtant que la science n’a pas servi qu’un sombre objectif colonial, mais que l’abstraction scientifique et le développement technologique qu’elle a produit a accompagné l’extractivisme colonial. Le narratif sur l’intelligence de l’IA, comme l’explique Dan McQuillan dans Resisting AI, sert à opacifier ses effets. Il nous pousse à croire que l’optimisation statistique serait le summum de la rationalité, qu’il permettrait justement d’éliminer nos biais quand il ne fait que les accélérer. Pour les deux chercheurs, l’IA discriminatoire et opaque par essence sert d’abord et avant tout à dissimuler les limites de la rationalité, à la parer de neutralité, à automatiser la violence et la discrimination qu’elle produit. L’IA n’est que la nouvelle étape d’une production coloniale de connaissance qui prend toutes les productions humaines pour générer une connaissance qui nous est présentée comme son apothéose, quand elle est avant tout un moyen de s’assurer la continuité de l’appropriation des ressources.Si le discours civilisationnel fonctionne, c’est d’abord parce que ce narratif renforce la hiérarchie des pouvoirs et vise à verrouiller la position des dominés comme dominés. Il colonise l’imagination de ce que doit être le futur : un avenir connecté, un avenir que l’on doit accepter, un avenir normal et inaltérable. Ce que ce narratif vise à produire, c’est notre acceptation. Il n’y a pas d’alternative !
La nouvelle classe colonialeLa surveillance se porte bien, comme le pointent les chiffrages du site Big Tech sells War. La sécurité, la défense et la surveillance sont désormais largement aux mains des grandes entreprises de la tech. Le pire colonialisme d’hier ressemble à celui d’aujourd’hui. Et comme hier, il implique l’existence d’une véritable classe coloniale. Celle-ci ne porte plus le casque blanc. Elle opère à distance, dans les bureaux feutrés de quelques grandes entreprises. Mejias et Couldry rappellent qu’à la grande époque, la Compagnie britannique des Indes orientales était une entreprise commerciale de 250 000 employés gérés depuis Londres par une équipe de 35 à 159 employés seulement. Uber, avec 32 000 employés coordonne les opérations de 5 000 0000 de livreurs et chauffeurs pour quelques 131 millions d’utilisateurs.
S’inspirer des résistances anticoloniales
La classe coloniale de la donnée naît dès le milieu des années 80 dans les entreprises qui proposent les premières cartes de crédit et qui se mettent à collecter des données sur les consommateurs pour cela. Leur but ? Distinguer les consommateurs afin de trouver les plus fidèles. Dans les années 90, ces conceptions commencent à essaimer dans les théories de gestion. Couplées aux data sciences, elles donneront naissance aux Big data, c’est-à-dire aux théories de l’exploitation des données qu’incarnent les plus grandes entreprises de la tech. Amazon incarne l’explorateur, celui qui conquiert de nouveaux territoires pour l’extraction depuis le commerce de détail. Google et Apple, les expansionnistes de la données qui dominent de vastes empires de services et d’infrastructures cherchant à pousser toujours plus loin leurs emprises. Facebook est l’exploiteur le plus systémique des données. Les deux auteurs dressent rapidement les évolutions extractivistes des grands acteurs de la tech et de bien d’autres. Nous sommes désormais cernés par une infrastructure d’extraction, dominée par une bureaucratie d’acteurs, qui n’est pas sans rappeler la bureaucratie de l’administration coloniale. Celle-ci est dominée par la figure du data scientist, miroir de l’administrateur colonial, qui œuvre dans tous les domaines d’activité. Qu’ils oeuvrent pour Palantir, Salesforce ou LexisNexis, ils façonnent l’Etat algorithmique, transforment la nature même du gouvernement par de nouvelles formes de connaissance et de contrôle, dans un rapprochement dont on peine à prendre la mesure – 6500 agences publiques américaines utilisent Amazon Cloud Services. Partout, la technologie est devenue la modalité d’action sur la société. Partout, la technologie est convoquée pour optimiser les financements publics et notamment réduire les dépenses par un profilage toujours plus intensif des administrés en y appliquant partout des calculs probabilistes pour améliorer leur rentabilité, changeant profondément la nature du bien public et la conception de l’Etat providence. Pour ces acteurs, tout ce qui peut être utilisé le sera, simplement parce qu’il est disponible. Toutes les données sont collectées et sont rendues productives du fait même de leur disponibilité. La précision, l’exactitude ou la justice sont sans conséquences, tant que les données produisent des résultats.La critique de l’extractivisme colonial est nourrie. Les données, par nature, sont des objets sans contexte. L’historien et politicien Eric Williams, auteur de Capitalisme et esclavage (1930), a pourtant rappelé que la révolution industrielle qui a survalorisé l’innovation occidentale n’aurait pas été possible sans les ressources tirées de la colonisation. Pour lui, le capitalisme n’aurait pas pu se développer sans le colonialisme et sans la sujétion au travail, notamment par l’esclavage. Le sociologue péruvien, Anibal Quijano a parlé lui de « colonialité » du pouvoir pour parler des liens entre capitalisme et racisme, qui ne se sont pas achevés avec la décolonisation, mais se sont prolongés bien au-delà. Pour résister à la colonialité, Quijano invite à développer une rationalité et une connaissance débarrassée des idées de hiérarchies et de discrimination. Pour lui, la connaissance par exemple se construit bien plus par la diversité des perspectives que par le rejet de la diversité sous un prétexte rationaliste. Pour Mejias et Couldry, la connaissance que produit le Big Data est une connaissance depuis le point de vue des institutions qui les produisent, pas des gens et encore moins des gens depuis leur grande diversité. En cela, elle perpétue les caractéristiques de la science occidentale et la rend profondément colonialiste.
Sylvia Wynter est une autre chercheuse que les auteurs convoquent pour nous aider à trouver un autre rapport à la connaissance, à la science et à la rationalité. Pour elle, nous devons résister à la vision dominante de la science occidentale pour promouvoir une vision plus inclusive. Pour elle, nous avons besoin d’un mode de pensée sur la donnée qui inclut plus de gens et de perspectives, à l’image de ce que répètent les data scientists les plus critiques des perspectives technologiques comme Safiya Noble, Timnit Gebru ou les sociologues Ruha Benjamin, Virginia Eubanks… C’est également les perspectives que défendent Catherine D’Ignazio et Lauren Klein depuis le féminisme de données. C’est le même point de vue qu’exprime le philosophe Achille Mbembe quand il dénonce la continuité du colonialisme par d’autres moyens et nous invite à ne plus voir dans l’occident le centre de gravité du monde, dénonçant l’expansion de l’IA, comme le devenir artificiel de l’humanité. C’est le même enjeu qu’exprime Naomi Klein quand elle dénonce le capitalisme du désastre, qui utilise celui-ci pour créer des opportunités pour exploiter les populations les plus vulnérables. Pour Klein, l’extractivisme est lié au colonialisme qui ne voit le monde que comme une terre de conquête, plutôt que notre maison commune. Un extractivisme qui s’étend dans la plus grande impunité.
Les deux chercheurs terminent leur essai par des exemples de résistance qui peuvent paraître, comme souvent, bien fragiles face au rouleau compresseur de l’extractivisme des données. Pour eux, « le colonialisme de données n’est pas un problème facile à réparer ». On ne peut pas l’effacer d’une loi ou d’une nouvelle technologie… Ils nous invitent cependant à apprendre des résistances anticoloniales passées et de celles qui continuent de se déployer aujourd’hui, comme des résistances locales contre le déploiement des technologies de reconnaissance faciale, comme le propose la coalition Reclaim your Face. Dans de nombreuses industries de la tech, les travailleurs tentent de se syndiquer, non sans difficultés. D’autres montent des mouvements pour résister à l’extractivisme, comme No Tech for ICE, le mouvement qui s’oppose à l’usage des technologies par les agences d’immigration américaines ou No Tech for Apartheid qui s’oppose aux technologies de surveillance des Palestiniens ou Our Data Bodies, qui s’oppose aux technologies de surveillance sur les communautés pauvres et racisées américaines. Quand les Big Tech sont partout, c’est à chacun d’entre nous de résister, expliquent-ils en invitant à boycotter les plateformes, à éteindre ou déposer nos téléphones, comme le propose le Luddite Club des adolescents newyorkais. Mais nous devons aussi radicalement réimaginer la façon dont on utilise les données, comme nous y invite la penseuse argentine Veronica Gago, auteure de La puissance féministe, qui invite à s’extraire des zones d’extractivisme ou encore Ivan Illich qui nous invitait à construire une société conviale, faite d’outils responsables par lesquels les humains contrôleraient les technologies qu’ils utilisent.Ils nous invitent d’ailleurs à nous défaire des réponses technologiques. Les solutions sont également sociales, politiques, culturelles, éducatives et légales… Et elles doivent se connecter aux gens et aux luttes. Mejias et Couldry nous invitent à travailler ces systèmes en demandant des droits et des régulations, comme l’a fait le RGPD en Europe. Il nous faut protester contre les pratiques extractivistes, oeuvrer avec les autorités pour exiger des transformations concrètes, oeuvrer avec d’autres organisations pour changer l’allocation des financements, exiger des sanctions et des boycotts, mobiliser les citoyens sur ces enjeux, soutenir la taxation des entreprises de la tech, exiger des garanties pour protéger les citoyens, comme le proposent People vs Big Tech. Mais il faut aussi oeuvrer contre les systèmes et développer de nouveaux outils politiques permettant de refuser le colonialisme sur nos données en œuvrant pour le développement de plateformes plus locales que globales. Si choisir un colonisateur national plutôt qu’un service global ne règle pas la question, Mejias et Couldry nous invitent à trouver les moyens de rendre l’extractivisme des données inacceptable. A la suite de Ben Tarnoff, ils nous invitent à imaginer comment nationaliser l’internet et développer à la suite des travaux de Trebor Scholz, des plateformes coopératives. Ils nous invitent à renverser le discours dominant en relayant les critiques à l’égard des systèmes algorithmiques, à partager les histoires édifiantes des victimes des calculs, et à soutenir les organisations qui œuvrent en ce sens. Ils nous invitent à redéfinir la frontière entre ce que nous voulons et ce que nous ne voulons pas. « La crise du colonialisme des données exige notre participation mais sans notre approbation consciente. Elle ne nous confronte pas à la disparition des glaciers ou des forêts tropicales (même si le colonialisme des données vient avec des coûts environnementaux très significatifs), mais à des environnements sociaux appauvris organisés dans un seul but : l’extraction de données et la poursuite du profit. Et c’est un problème, car résoudre la crise environnementale – et toutes les crises auxquelles nous sommes confrontés – nécessite une collaboration sociale renforcée. Si nos environnements sociaux sont contrôlés par les États et les entreprises, il y a un risque que nous soyons manipulés pour servir leurs intérêts plutôt que les nôtres, ce qui pourrait saper les politiques collectives dont nous avons réellement besoin ». C’est aux colonisés d’agir. Il n’y a rien à attendre des colonisateurs de données. « L’extraction de données est le dernier stade d’un projet qui vise à gouverner le monde dans l’intérêt des puissants. Il nous faut inventer un monde où la donnée est quelque chose que les communautés contrôlent pour les buts qu’elles ont elles-mêmes choisies ». L’IA ne nous sauvera pas. Elle n’est « qu’un mécanisme de plus pour continuer à faire de l’argent et pour transformer le monde en espaces impénétrables que nous ne comprenons pas et sur lesquels nous n’avons aucun contrôle » et qui agit sur nos chances d’accès à des ressources cruciales (prêts, éducation, santé, protection sociale, travail…). Les données discriminent. Les tisser dans des algorithmes et des systèmes toujours plus complexes qui amplifient les biais ne générera que des systèmes de pouvoir encore plus inégaux. Ces systèmes exigent notre transparence la plus totale alors qu’eux-mêmes sont de plus en plus opaques, comme le disaient Ryan Calo et Danielle Citron. Si nous ne démantelons pas ces structures de pouvoir, le colonialisme de données produira de nouvelles injustices, pas leur disparition.
*
Si les perspectives critiques que tirent Mejias et Couldry sont intéressantes, on reprochera néanmoins à leur essai d’être plus philosophique que pragmatique. Les deux chercheurs peinent à documenter concrètement la prédation dont nous sommes l’objet, alors que les exemples ne manquent pas. Leurs propositions conclusives donnent un peu l’impression qu’ils nous invitent à prolonger la lutte, sans documenter justement le coût de la connexion. Leurs recommandations s’inscrivent dans un dictionnaire des luttes bien établies sans parvenir à proposer des leviers sur lesquels celles-ci pourraient converger. Dans leur radicalité, on pourrait s’attendre à ce que leurs propositions le soient également, permettant de construire des objectifs plus ambitieux, comme l’interdiction de la collecte de données, l’interdiction de leurs croisements, l’interdiction des inférences et de la segmentation des publics… On aurait pu attendre d’un livre sur le pillage des données qu’il soit plus radical encore, qu’il nous invite à combattre « la traite » dont nous sommes l’objet par le rétablissement de nos droits, comme l’abolition de l’esclavage ou l’indépendance ont été les leviers décisifs permettant d’envisager de mettre fin au colonialisme. Mejias et Couldry nous offrent une métaphore qui ouvre des perspectives, mais qui semblent bien moins mobilisables qu’on l’attendait.
MAJ du 4/10/2024 : Sur Mais où va le web, Irénée Régnauld revient sur le livre de l’anthropologue Payal Arora, From pessimism to to promise, qui offre un contrepoint au technocolonialisme de Mejias et Couldry. « Pour beaucoup, la peur d’être anonyme et perdu est plus grande que celle d’être surveillé. »
-
2:00
Paul Ramsey: Cancer 12
sur Planet OSGeoBack to entry 1
I was glancing at the New York Times and saw that Catherine, the Princess of Wales, had released an update on her treatment. And I thought, “wow, I hope she’s doing well”. And then I thought, “wow, I bet she gets a lot of positive affirmation and support from all kinds of people”.
I mean, she’s a princess.
Even us non-princesses, we need support too, and I have to say that I have been blown away by how kind the people around me in my life have been. And also how kind the other folks who I have never really talked with before have been.
I try to thank my wife as often as I can. It is hard not to feel like a burden when I am, objectively, a burden, no matter how much she avers I am not. I am still not fully well (for reasons), and I really want to be the person she married, a helpful full partner. It is frustrating to still be taking more than I’m giving.
From writing about my experience here, I have heard from other cancer survivors, and other folks who have travelled the particular path of colorectal cancer treatment. Some of them I knew from meetings and events, some from their own footprint on the internet, some of them were new to me. But they were all kind and supportive and it really helped, in the dark and down times.
From my work on the University of Victoria Board of Governors, I have come to know a lot of people in the community there, and they were so kind to me when I shared my diagnosis. My fellow board members stepped in and took on the tasks I have not been able to do the past few months, and the members of the executive and their teams were so generous in sending their well-wishes.
And finally, my employers at Crunchy Data were the best. Like above and beyond. When I told them the news they just said “take as much time as you need and get better”. And they held to that. My family doctor asked “do you need me to write you a letter for your employer” and I said “no, they’re good”, and he said, “wow! don’t see that very often”. You don’t. I’m so glad Crunchy Data is still small enough that it can be run ethically by ethical people. Not having to worry about employment on top of all the other worries that a cancer diagnosis brings, that was a huge gift, and not one I will soon forget.
I think people (and Canadians to a fault, but probably people in general) worry about imposing, that communicating their good thoughts and prayers could be just another thing for the cancer patient to deal with, and my personal experience was: no, it wasn’t. Saying “thanks, I appreciate it” takes almost no energy, and the boost of hearing from someone is real. I think as long as the patient doesn’t sweat it, as long as they recognize that “ackknowledged! thanks!” is a sufficient response, it’s all great.
Fortunately, I am not a princess, so the volume was not insuperable. Anyways, thank you to everyone who reached out over the past 6 months, and also to all those who just read and nodded, and maybe shared with a friend, maybe got someone to take a trip to the gastroenterologist for a colonoscopy.
Talk to you all again soon, inshala.
-
11:00
Mappery: Sanssouci Park
sur Planet OSGeoPièce jointe: [télécharger]
Reinder said “These images show a 3D plan in bronze or something, from the park ‘Sanssouci’ in Potsdam. A beautiful place with an unrivaled amount of quite impressive palaces. [https:]] “
-
11:00
Mappery: Globe 1639 at Magic Mushroom
sur Planet OSGeoPièce jointe: [télécharger]
ScreenshotReinder spotted this on Spuistraat, Amsterdam.
“Now it is a branch of Magic Mushroom – but in 1639 a globe was bricked into the facade.”
I had to check that Magic Mushroom was what I thought it was, and it was! No endorsement but I guess your maps get super wild afgter a trip to this place.
-
6:26
Cartographier l'espace stratégique de la Chine
sur Cartographies numériques
L’objectif du rapport « Cartographier l’espace stratégique de la Chine » de Nadège Rolland (NBR, septembre 2024) est de mieux comprendre ce qui constitue l’espace imaginé de la Chine au-delà de ses frontières nationales et de ses revendications terrestres et maritimes. Les dirigeants chinois considèrent cet espace comme vital pour la poursuite de leurs objectifs politiques, économiques et de sécurité ainsi que pour la réalisation de l’essor de la Chine.
Nadège Rolland (2024). Mapping china’s strategic space, The Nation Bureau of Asian Research.
« Mapping china’s strategic space » (Rapport à télécharger en pdf)- Introduction
- Chapitre 1 : l'espace stratégique
- Chapitre 2 : le retour de la géopolitique
- Chapitre 3 : « positionnement » de la Chine : puissance et identité
- Chapitre 4 : la logique et la grammaire de l'expansion
- Chapitre 5 : conclusion : une nouvelle carte ?
Les discussions internes sur l’expansion, initiées avant l’effondrement de l’Union soviétique, sont toujours en cours en République populaire de Chine. Fortement influencées par la géopolitique classique, ces discussions sont intimement liées à la perception que le pays a de sa puissance et à ses aspirations hégémoniques. Le besoin de lutter pour conquérir de l’espace s’accompagne d’une peur persistante de l’endiguement par l'étranger. La définition d’une sphère d’intérêt et d’influence géographique élargie est apparue pour la première fois sous la forme d’une carte mentale quasi-globale vers 2013, et cette conception perdure malgré le ralentissement économique actuel de la Chine. Plus récemment, cette carte mentale s’est étendue pour inclure l’« espace » économique et idéologique ainsi que les géographies physiques.
Conséquences politiques
- Bien que les élites gouvernementales et universitaires nient farouchement les aspirations hégémoniques de la RPC, elles sont bien palpables, même si elles ne se matérialisent pas nécessairement de la même manière que dans les périodes historiques précédentes. Comprendre comment son espace stratégique est défini permet d'anticiper la direction future que pourraient prendre la politique étrangère et la grande stratégie de la Chine, à condition que ses élites continuent de croire que la puissance de leur pays s'accroît par rapport à celle des États-Unis.
- Les élites chinoises considèrent l'expansion de la Chine comme le résultat inévitable de sa puissance et de ses intérêts croissants. Elles considèrent que toute résistance extérieure et toute tentative de contenir cette expansion sont inévitables. Les puissances extérieures ne peuvent pas faire grand-chose pour apaiser les craintes de Pékin d'un encerclement ou d'un confinement hostile de la part de pays étrangers.
- L'importance géostratégique du continent eurasien et des océans qui l'entourent pour la RPC est indéniable, tout comme le lien entre les espaces stratégiques de la Chine et de la Russie. L'expansion maritime et mondiale de la Chine n'aurait pas été possible et ne pourrait pas être durable sans une zone arrière sécurisée. La Russie continuera à jouer un rôle clé dans les calculs géostratégiques de Pékin dans un avenir proche.
- La définition de l’espace stratégique de la Chine, qui a atteint une échelle quasi-mondiale, pourrait accroître le risque de contentieux, voire de conflit, notamment dans ce qu’elle définit comme ses « nouvelles frontières stratégiques ». Pékin pourrait également être déjà confrontée à la perspective d’une extension excessive, avec la nécessité éventuelle de réviser sa conception de l’espace stratégique. Il s’agit là d’une préoccupation émergente pour les penseurs stratégiques chinois, qui devrait être prise en compte par leurs homologues américains.
Le projet Mapping China's Strategic Space s'appuie sur les travaux menés par le National Bureau of Asian Research (NBR) au cours de la dernière décennie pour appréhender les tentatives des élites intellectuelles et politiques chinoises de définir une vision de leur pays comme une grande puissance sur la scène mondiale. La principale question du projet de recherche découle d'une invitation de la commission des affaires étrangères de la Chambre des représentants des États-Unis à la chercheuse principale, Nadège Rolland, à témoigner lors de l'audition de mars 2021 « America's Way Forward in the Indo-Pacific » présidée par les représentants Ami Bera et Steve Chabot. Pour pouvoir répondre aux questions de la commission sur l'attitude que les Etats-Unis devaient adopter, il semblait impératif de comprendre d'abord la vision de la Chine sur la région. Il est immédiatement apparu que Pékin ne désignait pas la région comme « Indo-Pacifique » (sauf pour décrire la stratégie américaine) mais comme la « périphérie » de la Chine, ce qui suggère une conception sino-centrée de la région. Cette dénomination elle-même, ce qu'elle implique et ce qu'elle comprend mériterait d'être examinée plus en détail. C'est ainsi qu'est né le projet « Cartographie de l'espace stratégique de la Chine ».
Le rapport dirigé par Nadège Rolland contient une série de cartes sur les sphères d'influence de la Chine avec des projections intéressantes centrées sur l'océan Pacifique et l'océan Indien (cartes réalisées par Louis Martin-Vezian). A découvrir dans la conclusion du rapport : une carte originale par cercles concentriques, inspirée de la projection proposée en 2013 par le géographe chinois Hao Xiaoguang. Cela pose la question des limites d'une cartographie par aires quand l'influence s'exerce plutôt aujourd'hui à travers des réseaux.
Les cercles concentriques de l'espace stratégique de la Chine (source : Mapping china’s strategic space, 2024)
Pour compléter
You read a lot about The South China Sea as a current geopolitical hotspot. Have a look at this 1944 map from the US Navy to see that this isn't a new development at all. Really interesting map. Source: [https:]] #mapmonday pic.twitter.com/uBPItfFpCA
— Simon Kuestenmacher (@simongerman600) September 19, 2021Articles connexes
Mapping China's Strategic Space : un site d'analyse géopolitique à base de cartes
La carte, objet éminemment politique : la Chine au coeur de la "guerre des cartes"
La carte, objet éminemment politique. Quels niveaux de soutien ou de critique vis à vis de la Chine au niveau international ?
La carte, objet éminemment politique. Les tensions géopolitiques entre Taïwan et la Chine
Comment la Chine finance des méga-projets dans le monde
Étudier l'expansion de la Chine en Asie du Sud-Est à travers des cartes-caricatures
Les investissements de la Chine dans les secteurs de l'Intelligence artificielle et de la surveillance
Tentative de "caviardage cartographique" à l'avantage de la Chine dans OpenStreetMap
Trois anciennes cartes de la Chine au XVIIIe siècle numérisées par l'Université de Leiden
Etudier les densités en Chine en variant les modes de représentation cartographique
-
19:26
QGIS Blog: Catching up with the QGIS User Conference 2024 & Save the Date for 2025
sur Planet OSGeoThis year’s user conference took place in Bratislava, organized by the Slovak QGIS User Group and hosted at the Slovak University of Technology Faculty of Civil Engineering. The event was sold out early and the venue was full of energy and excitement.
If you missed the conference or couldn’t make it to a talk due to too many great overlapping sessions, you now have the opportunity to catch up with everything on the UC 2024 playing list:
Thanks to the organizers, speakers, sponsors, and all participants for the wonderful event.
If you want to read some personal reports from community members, here’s Ujaval Gandhi’s report: [https:]] ; and here’s Hans van der Kwast’s: [https:]]
Last but not least, we want you to save the date for next year’s user conference:
The QGIS User Conference will be in Norrköping, Sweden from 2-3 June 2025, and contributor meeting there after 4-7.
-
15:41
Markus Neteler: GRASS GIS PSC Elections 2024: nomination period ongoing
sur Planet OSGeoThe post GRASS GIS PSC Elections 2024: nomination period ongoing appeared first on Markus Neteler Consulting.
-
11:00
Mappery: Tire-Lire bookshop
sur Planet OSGeoPièce jointe: [télécharger]
A bookshop in Toulouse, France, displaying a vintage school map
-
10:28
The Geotastic Daily Challenge
sur Google Maps ManiaCan you beat me on today's Geotastic Daily Challenge? I am currently 89th in the Geotastic Daily Challenge with a combined score of 24,263. Do you think you have what it takes to claim a higher spot on the leaderboard than the mighty 'gmap'?Geotastic is yet another online geography game that challenges players to identify locations around the world using Google's Street View imagery. Every day
-
20:52
OTB Team: OTB Release 9.1.0
sur Planet OSGeoDear OTB community, We are happy to announce that OTB version 9.1.0 has been released! Ready to use binary packages are available on the package page of the website: The Docker image is available :docker pull orfeotoolbox/otb:9.1.0 For those who want to use docker with python 3.10 or 3.12, you can respectively pull images 9.1.0_ubuntu22 […]
-
20:09
Programme des Cafés géographiques de Paris : saison 2024-2025
sur Les cafés géographiquesMardi 24 septembre 2024, Café géo au Café de Flore : Les territoires de l’extrême droite en France et en Europe, avec Béatrice Giblin, géographe.
Mardi 15 octobre 2024, Café Géo au Café de Flore : Les Etats-Unis et le Monde, avec Philippe Etienne, diplomate.
Samedi 9 novembre 2024, Institut de Géographie : Hommage à Michel Sivignon, de 10h à 12h30.
Mardi 26 novembre 2024, Café Géo au Café de la Mairie (3ème arrondissement) : Qu’est devenue la Yougoslavie ?, avec Jean-Arnault Dérens et Laurent Geslin, journalistes.
Samedi 30 novembre 2024, Institut de Géographie ; Conférence sur Trieste et l’Istrie, avec Daniel Oster et Henry Jacolin, de 10h à 12h.
Mardi 17 décembre 2024, Café Géo au Café de Flore : Une histoire mondiale de l’humanité, avec Christian Grataloup, géographe.
Samedi 18 janvier 2025, Institut de Géographie, de 10h à 12h. ; Conférence sur le Cambodge, avec Michel Bruneau, géographe.
Mardi 28 janvier 2025, Café Géo, au Café de Flore : Vivre au bord de la mer, avec Annaig Oiry, géographe.
Mardi 11 février 2025, Café Géo, au Café de Flore : Géographie des pandémies contemporaines, avec Guillaume Lachenal, historien.
Mardi 25 mars 2025, Café Géo au Café de Flore : Nous aurons toujours besoin des forêts, avec Laurent Testot, journaliste.
Mardi 29 avril 2025, Café géo au Café de Flore :Littérature et géographie, avec Jean-Louis Tissier, géographe, et Emmanuelle Loyer, historienne
-
11:49
Cryptic Crossword Map
sur Google Maps ManiaCryptic World is a new unique map game that fuses the thrill of a geography quiz with the brain-teasing fun of a cryptic crossword! Play Cryptic World and discover how much of the world you can unlock!Click on the question mark pins scattered across the Cryptic World map and solve the uncovered cryptic clues. Every time you correctly answer a clue you will reveal the name of a hidden location.&
-
11:00
Mappery: Place Mat
sur Planet OSGeoPièce jointe: [télécharger]
This is clever. Reinder shared this place mat from the restaurant ‘Oortjeshekken’, in the Ooijpolder, near Nijmegen. Yes it is a place mat for your plate and cutlery in the restaurant and it is also a place map for the surrounding area.
-
7:25
Comment les ordinateurs et les cartographes ont redessiné notre monde (Leventhal Map & Education Center)
sur Cartographies numériques
« Processing Place. How computers and cartographers redrew our world » : une exposition virtuelle du Leventhal Map & Education Center.
Aujourd’hui, les cartes que nous utilisons le plus souvent dans notre vie quotidienne sont réalisées par ordinateur. Même les plus simples d’entre elles s’appuient sur de vastes bases de données d’informations géographiques et sur des systèmes complexes d’analyse et de visualisation. L'exposition Processing Place invite à découvrir comment les ordinateurs et la cartographie ont fusionné et ont redessiné notre monde au cours du XXe siècle.
Le « traitement des lieux » est à prendre ici dans un sens historique non seulement en termes de calcul numérique, mais comme une partie d’un processus cartographique dynamique et en constante évolution. Faire des observations, transformer ces observations en idées et utiliser ces idées pour argumenter sur des objectifs individuels ou collectifs est une activité humaine essentielle. En confiant une grande partie de notre réflexion et de notre analyse spatiales dans la mémoire des disques durs et des serveurs informatiques, nous avons en quelque sorte rendu la cartographie moins humaine.Si les cartes informatiques en sont venues à dominer notre imagination géographique, le processus de création de données numériques ouvre la voie à la création de nvelles cartes qui répondent à de nouveaux types de questions spatiales (cf cartes avec zones tampons). La fameuse carte de William Bunge sur la Nouvelle-Angleterre après la guerre nucléaire (1988) repose sur des zones tampons circulaires et montre que la carte peut servir à envisager (éviter) des futurs possibles (ou redoutés).
Les exemples sont souvent empruntés dans l'espace proche : il s'agit principalement de plans et de cartes de l'État du Massachussets, issus des archives du Leventhal Map & Center Education. L'occasion de découvrir par exemple l'histoire de l'île Nomans Land, base militaire de la Deuxième Guerre mondiale transformée en réserve écologique et désormais fermée à tout usage public. Mais les réflexions se situent à un niveau beaucoup plus large. L'exposition donne à réfléchir à la capacité d'anticipation des cartes à travers par exemple la carte des déplacements à Chicago pour éclairer les décisions des urbanistes. Les "lignes de désir" sur cette carte de 1951 sont des modèles du futur tout autant que des cartes du présent.
Les cartes peuvent être zoomées (penser à faire défiler les flèches car certaines rubriques présentent plusieurs cartes). Avec les commentaires disponibles juste à côté, le visiteur est invité à apprécié chaque carte avec tous ses détails.
Processing Place est exposé au Leventhal Map & Education Center de la Bibliothèque publique de Boston de septembre 2024 à mars 2025. L'entrée est gratuite. Planifiez votre visite ou explorez le catalogue numérique ci-dessous :
- De l'imprimé au pixel
- Atlas informatique du Kenya
- Scène de salle informatique
- Atlas du Bangladesh
- Carte de la forêt
- Lac Istokpoga
- Visualisation des ressources
- Inventaire des terres du Canada
3. Faire une différence : l'inventaire des terres du Canada
- Ressources sur le banc Georges et les hauts-fonds de Nantucket
- Carte des baleines
- Nantucket, Massachusetts : utilisation du sol en 1985
- Comté de Nantucket : photographie aérienne (4-710), 20 septembre 1984
- Outils de dessin variés
- Film de Scribe
- Plan d'implantation illustratif : zone de renouvellement urbain du Government Center, Massachusetts R-35
- TM 5-230 Dessin topographique
- Pays du Suffolk : photographies aériennes, 1952 et 1971
- Bloc de codage FORTRAN
- Numérisation du palet
- Évaluation linéaire à 16 niveaux du lac Bullfrog
- Symboles de nuances pour traceur électrostatique - shadeset P1
- Zones tampons autour des affluents
- Contamination de l'approvisionnement en eau du DEP
- Zones du Massachusetts présentant un risque environnemental critique
- Portrait spatial des États-Unis
- Première image du Texas prise par Landsat 1
- Carte de la mission de la navette spatiale STS-7
- Atlas urbain, données sur les secteurs pour les zones statistiques métropolitaines standard (Boston, Massachusetts)
- Compter les enfants
- Atlas de la métropole d'Atlanta : les années 1970
- Hexagone
- Programme d'amélioration des quartiers de la ville de Milwaukee
- Cahier d'exercices III
- ENIAC
- Terre de Noman
- Sécurité intérieure et protection des infrastructures critiques : Projet pilote de préparation de Boston
- Exercice d'essai national – Opération Ivy
- Le sud de la Nouvelle-Angleterre après une attaque nucléaire
- Étude sur les transports dans la région de Chicago : rapport final (en trois parties), volume I
- Lumières et enseignes de la ville
- Kiosque de localisation des distances de marche
- Sélection de matériel et de brochures Etak
Environnement et justice dans les paysages anthropisés. Une expo virtuelle du Leventhal Center
Bouger les lignes de la carte. Une exposition du Leventhal Map & Education Center de Boston
America transformed : une exposition cartographique organisée par le Leventhal Map & Education Center
L'histoire par les cartes : l'histoire de la rénovation urbaine de Boston depuis les années 1920
Cartographies actuelles. Enjeux esthétiques, épistémologiques et méthodologiques
Les nouvelles façons de « faire mentir les cartes » à l'ère numérique
Du métier de cartographe et de ses évolutions
-
6:51
DuckDB pour QGIS : nouveautés de QDuckDB version 1.0.0
sur OslandiaLe pluginIl y a près d’un an, en novembre 2023, dans cet article, nous vous avions présenté le plugin QDuckDB, financé par l’IFREMER et développé par Oslandia. Dans ce précédent article, nous présentions DuckDB et les caractéristiques fonctionnelles du plugin.
Depuis, en plus du financement de l’IFREMER, Oslandia a auto-investi du temps de maintenance pour corriger les bugs remontés par les utilisateurs et stabiliser les performances du fournisseur de données (provider) que contient le plugin.
Pour rappel, un provider QGIS est une interface ou une couche logicielle qui lui permet d’accéder à différentes sources de données géospatiales. Autrement dit, c’est un composant qui gère la connexion entre QGIS et les données géospatiales dans différents formats.
Cas d’usage- Récupérer les données Overtures Maps directement dans une base de données DuckDB puis les charger dans QGIS via le plugin pour les représenter ou bien effectuer des analyses spatiales. Cela apporte un vrai cas d’usage au plugin puisqu’il n’est pas possible de récupérer les données Overtures Maps dans un format SIG plus classique (shapefile, geojson par exemple)
- Chargement des données INSEE et croisement avec la BD TOPO chargée en gpkg. L’INSEE fournit des données au format parquet et avec l’extension spatiale DuckDB est bien sûr capable de charger des gpkg.
- Ce plugin est utilisable aussi bien dans l’application bureau de QGIS qu’avec QGIS Serveur. Ainsi, l’IFREMER utilise ce plugin pour diffuser sur le web des données enregistées dans une base de données DuckDB. Elles peuvent être représentées sous forme d’images (flux WMS) ou de données géométriques (flux WFS). Cette solution a l’avantage d’être facile à mettre en place (il n’y a pas besoin d’un service de base de données, les données étant enregistrées dans un fichier), tout en profitant de la vitesse du format DuckDB.
Depuis l’année passée, les deux grands axes de développement ont été les performances du plugin et la stabilité.
Par performance, on entend augmenter la vitesse de chargement des entités dans QGIS. Nous avions par exemple des coins d’ombre sur la latence, voire des crash lorsqu’une table provenant de DuckDB possédait beaucoup d’entités.
Le provider initial avait été implémenté avec le strict minimum pour fonctionner. Depuis nous avons ajouté tous les composants nécessaires à QGIS pour permettre d’être plus performant.
Enfin, le second axe de développement a été la stabilité. Ce travail a été permis par les utilisateurs qui ont remonté des bugs, que nous avons corrigés. Nous avons aussi renforcé la partie test unitaire. Parmi les choses que nous avons améliorées, on peut citer par exemple, le support des tables non géographiques, le support des vues ou encore la prise en charge des types de colonnes DATE et TIME.
Si vous souhaitez plus de détail sur ces deux points, vous pouvez consulter le changelog du projet.
Nous répercutons également chaque nouvelle version de DuckDB dans le plugin dans les jours qui suivent celle-ci, comme par exemple la sortie de DuckDB 1.1.0.
Release 1.0.0Après avoir amélioré les performances et la stabilité, nous sommes donc arrivés à un premier jalon important du provider. Nous avons implémenté tous les composants que propose QGIS pour la construction d’un provider tiers personnalisé.
Cet article annonce donc officiellement la en version 1.0.0 du plugin QDuckDB ainsi que la disparition du flag
Et ensuiteexperimental
.Mais le travail n’est pas fini pour autant. Pour rappel le plugin ne fait actuellement que du read only (lecture seule). L’étape suivante serait donc de développer le mode écriture.
On souhaite également améliorer l’intégration du plugin dans QGIS, par exemple en ajoutant une nouvelle entrée DuckDB dans l’explorateur des sources de données natif de QGIS.
Pour toutes ces nouvelles fonctionnalités à développer, nous sommes à la recherche de financement. Vous pouvez retrouver une liste non exhaustive des développements à venir en regardant les tickets taggés
To be funded
dans le projet Gitlab. Il est également possible d’ouvrir de nouveaux tickets pour des fonctionnalités auxquelles nous n’aurions pas pensé.Si vous êtes intéressé(e), vous pouvez vous signaler dans les tickets, nous contacter sur Linkedin ou bien par email à qgis@oslandia.com. Toute contribution est la bienvenue : code, documentation, financement…
Liens importants- Le code source (sous licence GPL2+)
- La documentation
- Le plugin sur le dépôt officiel QGIS
-
4:24
OSGeo Announcements: About the Announce category
sur Planet OSGeo -
22:52
Even Rouault: Those concepts in the geospatial field that have cost us millions of $$$
sur Planet OSGeoEvery domain has its baggage of concepts, which at first sight don't appear to be that terrible, but which are in practice.
Let's start with a non-geospatial example. A lot of programming languages have the concept of a "null" pointer. It is available in the C and C++ programming languages in particular, but in Java as well, or Python, etc.. Tony Hoare, null's creator, regrets its invention: "I call it my billion-dollar mistake." While very useful in some contexts, that feature also happens to cause a lot of bugs, with severe criticity in some cases. The Rust language has for example (almost) removed the null pointer concept and replace it with optional references, where the compiler enforces that the code explictly checks for the validity of the reference before using it. At the minute, I'm writing this, I'm debating about that very issue with a colleague.
The geospatial field is not free of concepts that are a never-ending source of troubles, and I will come with my own list, with my perspective of software developer.
- Geometry model. Point, lines, polygons. What could be most simple than that? Well, the commonly-used OGC Simple Features model allows those objects to be empty. How is that useful in practice? Hard to tell: NULL geometries are (somewhat paradoxically given the above paragraphy) actually a better replacement. My own perception of that "feature" is that it is mostly a huge headache that goes into your way when trying to write robust code. One evidence of that is that the same standard that invented it neglected to specify how to export an empty point in the Well Known Binary representation. Over the years, the tradition has become to use the Not-A-Number value for the X and Y value of an empty point. Which by itself may cause interesting consequences for applications that would neglect to make a special case. A Not-A-Number is ... well ... not a number, and for example it is not equal to itself ... (and in the IEEE-754 representation, there are litteraly billions of different binary potential encodings of a NotANumber). Everything you learnt at school in your math courses will break with it (this is actually quite general when crunching numbers with computers. Finite precision break a lot of the expected properties of ideal numbers). An empty line has the undesirable property of not having a start or end point: any algorithm must be ready for that. Another annoyance is that there is not just one "geometry empty" object, but a "point empty", a "line empty", a "polygon empty", etc. What is the expected intersection of an empty line with an empty polygon ? An empty line, an empty polygon, an empty point, ... ? The developers of the GEOS library or the PostGIS spatial extension have unfortunately to regularly debate at length about those topics. One can but think there would be a better use of their expertise and time than having to deal with such esoteric subjects (I didn't ask them, so they may actually be thrilled by them. You never know...)
- Coordinate reference system (CRS) axis order. CRS, such as WGS 84 geographic, or UTM 31N / ETRS89 have several axis. For geographic CRS, this will be the longitude, the latitude, and optionally the ellipsoidal height. When expressing coordinates in a CRS, one must decide in which order they are specified. They are lengthy debates whether this should be longitude first, latitude second, or the reverse. The ISO 19111 / OGC Abstract Topic 2 specification or geodetic registries have decided to not take a firm stance on that, and have allowed authorities responsible for CRS definition and maintenance, to submit CRS definitions with the axis order they wish. Excellent! Well no. The issue is that while non-geomaticians user may chose to express a coordinate in prose like "50 degree of latitude north, 15 degree of longitude east", or "15 degree of longitude east, 50 degree of latitude north", that doesn't mean it is a good idea that the software systems reflect that liberty of speech. Some GIS formats have no way of clearly expressing the CRS, or if they have, they might use an incomplete way of specifying it, in particular lacking the way to express the axis order. The usual practice is to generally specify the longitude as the first value (as corresponding to the X/horizontal axis of a Cartesian plan) and latitude next (Y/vertical axis), refleting the natural mapping to make a graphical representation. Other formats (GML in particular) require that the coordinates are expressed in the order of the CRS definition, which require access to a database to get the axis order, given that in GML vector files, the CRS is only referenced through a code, and not defined inline. Depending on whether the persons responsible to design the protocol/file format, the order may be the "GIS friendly one" (longitude-latitude), or the "CRS pedantic one" (latitude-longitude for example for geographic CRS defined by the EPSG geodetic registry). This is an eternal source of confusion. Sometimes with absurd situations. The OGC GeoPackage file format captures a full definition of the CRS used in the vector tables it contains, including in particular the official axis order, but to reflect the long-GIS tradition, as an amendment, specify that the encoding of coordinates in its (extension of) the WKB format mentionned in the previous paragraph should be longitude-latitude (for geographic CRS) or easting-northing (for projected CRS). I will not blame anyone particular for this. This is an "overall system error". In the ideal situation, a courageous geomatician in a standard organization or in a geodetic registry should have said "here, we are geomaticians: geographic CRS are always longitude-latitude, and projected CRS are always easting-northing. It is your responsibility as users of our system to provide data always in that order". Failing to have access to a time-travel machine to warn in advance my glorious predecessors about the incoming catastrophe, the only solution I see to solve the issue it is to ask all population to relocate on the line of longitude=latitude, and exclude any mapping outside of it.
- Raster cell registration issues, a.k.a pixel-centre versus pixel-corner, or pixel-is-point versus pixel-is-area, a.k.a the half-pixel shift error. A raster cell is both an entity you reference with a (column, line) integer pair, so perceived as a discrete point, but when displayed, it actually occupies a non-zero area on your display device. When that raster cell is registered against geospatial coordinates, one debate is: "what exact place in that cell does this (longitude, latitude) or (easting, northing) refer to? Is that the center of the pixel, or maybe its top-left corner?" . Obviously, whenever there is a choice, file format and service specifications never agree together. The GDAL software has courgeously decided to "standardize" its internal model to the convention where that the georeferenced coordinate associated to a pixel qualifies the location of the top-left corner. GDAL format drivers do the necessary dance of applying and de-applying a half-pixel shift to go into that convention ... when they have access to the convention of the underlying format.
A temptative conclusion could be that any proposed standard or specification should go to the step of having an actual real-world implementation of it, not just a "working prototype" ("toy implementation" more casually), to check whether some apparently minor details are not a major source of inconvenience.
-
22:33
GeoTools Team: GeoTools 32.0 released
sur Planet OSGeoGeoTools 32.0 released The GeoTools team is pleased to announce the release of the latest stable version of GeoTools 32.0: geotools-32.0-bin.zip geotools-32.0-doc.zip geotools-32.0-userguide.zip geotools-32.0-project.zip This release is also available from the OSGeo Maven Repository and is made in conjunction with GeoServer 2.26.0 and GeoWebCache 1.26.0 -
14:00
Fernando Quadro: Como ganhar dinheiro com o código aberto?
sur Planet OSGeoDe tempos em tempos as pessoas costumam me fazer essa pergunta. A resposta curta é que ser código aberto não significa que tudo é de graça – você geralmente precisa de especialistas na área para ajudá-lo.
Por exemplo, GeoServer, QGIS e PostGIS você pode baixá-los, instalá-los e usá-los de graça. Claro. Mas sua empresa provavelmente ainda precisará pagar por:
Qualquer nova funcionalidade que você queira implementar no software principal, especialmente se for bem específica ou de nicho para apenas uma pequena parte da base de usuários
Consertar um bug crítico no código que afeta seu fluxo de trabalho de forma rápida (especialmente se afetar apenas uma parte muito pequena da base de usuários)
Criar uma extensão/módulo/plugin que simplificaria algumas das tarefas específicas para sua organização
Obter SLA (Acordo de Nível de Serviço), para que suas dúvidas/problemas com o software possam ser discutidos/resolvidos com prioridade e não bloqueiem seu trabalho
Treinar sua equipe com os principais especialistas da área
Migrar de soluções proprietárias para o ecossistema de código aberto, já que é preciso muito conhecimento para unir todos os componentes de código aberto para que funcionem bemO bom do código aberto é que se empresas ou usuários apoiam financeiramente o projeto, todas as novas funcionalidades, correções e melhorias (como documentação) chegam a todos.
Então, se sua empresa quer ajudar um projeto de código aberto a crescer, uma ótima ideia é patrociná-lo. E se você estiver procurando por um desenvolvimento personalizado de WebGIS, treinamento, migração ou suporte em torno disso, você pode entrar em contato com a Geocursos. É isso que fazemos desde 2012
-
14:00
5 conseils pour bien vivre géométriquement
sur GeotribuNeuvième et dernière partie du tour d'horizon des SIG sur les dessous des calculs géométriques : 5 conseils pour vivre votre meilleure vie géométrique.
-
11:00
Mappery: Wine map in a Tapas bar
sur Planet OSGeoPièce jointe: [télécharger]
I found this map of Spain showing the various wines per region in a tapas bar in Toulouse, France
-
10:17
VersaTiles Free Map Tiles
sur Google Maps ManiaLooking for a free, flexible way to create custom maps? You’re in luck! Having only recently discovered one free source of interactive map tiles in OpenFreeMap, I have now uncovered VersaTiles. VersaTiles provides a full open-source toolkit for creating and sharing map tiles, all powered by OpenStreetMap data - and with no corporate strings attached!VersaTiles map tiles can be used in most
-
2:00
PostGIS Development: PostGIS 3.5.0
sur Planet OSGeoThe PostGIS Team is pleased to release PostGIS 3.5.0! Best Served with PostgreSQL 17 RC1 and GEOS 3.13.0.
This version requires PostgreSQL 12 - 17, GEOS 3.8 or higher, and Proj 6.1+. To take advantage of all features, GEOS 3.12+ is needed. SFCGAL 1.4+ is needed to enable postgis_sfcgal support. To take advantage of all SFCGAL features, SFCGAL 1.5 is needed.
3.5.0-
Cheat Sheets:
This release is a feature release that includes bug fixes since PostGIS 3.4.3, new features, and a few breaking changes.
-
15:00
Les premiers modèles numériques LiDAR HD sont disponibles et accessibles en opendata
sur Toute l’actualité des Geoservices de l'IGNLes premiers modèles numériques LiDAR HD sont disponibles et accessibles en opendata
-
14:00
Fernando Quadro: 4 dicas para melhorar sua aplicação GIS Mobile
sur Planet OSGeoA demanda por soluções geoespaciais acessíveis e em movimento está maior do que nunca. Como uma empresa de desenvolvimento de software que atende ao setor de GIS, você precisa entender a importância de fornecer aplicativos amigáveis ??para dispositivos móveis que atendam às necessidades de seus clientes.
Você precisa criar soluções inovadoras e amigáveis ??que capacitem os profissionais a acessar e utilizar dados espaciais a qualquer hora, em qualquer lugar.
Alguns recursos principais de seus aplicativos GIS móveis devem incluir:
Recursos offline: Projete seus aplicativos para funcionar perfeitamente, mesmo em áreas com conectividade limitada à Internet, garantindo acesso ininterrupto a dados geoespaciais críticos.
Coleta de dados em tempo real: Os usuários devem ser capazes de capturar e atualizar informações espaciais em movimento, agilizando as operações de campo e melhorando a precisão dos dados.
Interfaces intuitivas: Priorize interfaces de usuário intuitivas e responsivas, facilitando a navegação e a interação dos profissionais com dados geoespaciais em seus dispositivos móveis.
Integração perfeita: Você deve ser capaz de integrar aplicativos GIS móveis com plataformas GIS existentes de desktop e baseadas em nuvem, garantindo um fluxo de trabalho coeso e eficiente.
Ao aproveitar o poder da tecnologia móvel, seus clientes podem aumentar sua produtividade, tomar decisões mais bem informadas e fornecer serviços superiores aos seus usuários finais.
Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]]
-
12:16
OpenFreeMap Map Styles
sur Google Maps ManiaOne very important feature I overlooked in the launch of OpenFreeMap is the ability to customize the styles of OpenFreeMap map-tile sets using the Maputnik open-source visual editor for the MapLibre Style Specification. If you have ever wanted to make your maps stand out, reflect your brand, or just look completely unique you can now do that for free by editing OpenFreeMap map tile styles
-
11:00
Mappery: Atlas in Potsdam
sur Planet OSGeoPièce jointe: [télécharger]
Reinder sent this pic of Atlas holding up the world from the roof of the Alte Rathaus at the Alte Markt, Potsdam, Germany (he wasn’t actually on the roof but you know what I mean)
-
10:24
Des évolutions de représentations sur Plan IGN
sur Toute l’actualité des Geoservices de l'IGNNous vous partageons les 2 volets d’évolutions, qui visent à adapter notre offre afin de mieux répondre aux attentes remontées par nos utilisateurs :