Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Feeds
4089 items (14 unread) in 55 feeds
- Cybergeo
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (1 unread)
- Mappemonde
- Dans les algorithmes (3 unread)
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée
- Geotribu
- Les cafés géographiques (2 unread)
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (1 unread)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques (5 unread)
- Veille cartographie
- Makina Corpus
- Oslandia (2 unread)
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Unread items (14)
-
5:46
Cartes et illustrations de villes historiques rassemblées sur Papertowns
sur Cartographies numériquesLe site /r/papertowns propose une collection de plus de 360 ??cartes et illustrations de villes historiques, représentant de nombreuses villes du monde, de l'Antiquité jusqu'à nos jours.
Papertowns est dédié aux cartes illustrées, aux paysages urbains, aux larges vues aériennes ou panoramiques, aux vues à vol d'oiseau, voire aux reconstructions 3D de villes, villages et citadelles.
Ce subreddit privilégie les documents en haute résolution. Le moteur de recherche interne permet de chercher par nom de lieu, par genre, par date ou par pays.Tokyo, Japon 1680 (source : /r/papertowns)
Voici quelques autres subreddits similaires qui pourraient vous intéresser :- /r/Map_Porn et /r/MapPorn so vous aimez les cartes en général
- /r/ImaginaryMaps si vous êtes intéressé par les cartes de royaumes fictifs
- /r/ImaginaryCityscapes si vous aimez l'art mettant en scène des paysages urbains
- /r/CityPorn pour des photos de villes du monde entier
- /r/oldmaps pour des cartes des siècles passés
Les plans historiques de Paris de 1728 à nos jours (APUR - Cassini Grand Paris)
Articles connexes
Vues panoramiques des villes américaines au XIXe siècle
L'histoire par les cartes : cartes historiques de New York
Comparer la skyline des grandes villes à partir de la modélisation 3D de leur bâtiments
City-roads, un outil efficace pour générer des plans urbains (un mariage réussi entre art et géographie)
Utiliser des générateurs automatiques de territoires imaginaires
Cartes et atlas historiques
-
8:59
Trafic animalier
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueUne nouvelle base de données nationale pour accompagner le suivi des déplacements de la faune sur les passages à faune a vu le jour, la SIPAF. Cette ressource est un projet piloté par le Ministère de la Transition écologique et développé par les parcs nationaux des Cévennes et des Écrins en partenariat avec le Cerema. Elle est accompagnée d’une cartographie et devrait permettre de vérifier l’efficacité de ces passages, d’en améliorer les connaissances et de renforcer la transparence écologique des infrastructures de transport. Les données des infrastructures linéaires de transports sont recensées, comme les routes nationales et les autoroutes, gérées par l’État ou par des sociétés, les voies gérées par les conseils départementaux, voies ferrées et voies navigables nationales, c’est-à-dire les canaux. Cet ensemble est alimenté par les gestionnaires d’infrastructures, les associations naturalistes et les bureaux d’études réalisant des suivis. Cette base représente un outil qui peut être ajouté aux documents d’urbanisme et dans les étudesportant sur les continuités écologiques des collectivités.
+ d'infos :
passagesfaune.fr
-
5:21
Cartes et données sur les parcs nationaux aux Etats-Unis
sur Cartographies numériques
Le premier parc naturel créé aux Etats-Unis est le parc de Yellostowne en 1876. Le National Park Service (NPS) a été fondé en 1916 pour gérer les espaces protégés, qui comptaient alors 35 parcs. Au cours du XXe siècle, le NPS a vu son champ d'action s'étendre à 63 parcs nationaux et à plus de 400 autres sites historiques à travers les 50 États des Etats-Unis. Parmi les sites protégés, on compte notamment des rives de lacs, des rivières et des sentiers, des champs de bataille, des monuments et des mémoriaux.
Le service SIG et cartographie permet d'accéder à toutes les cartes du National Park Service. Ces cartes produites par le Harpers Ferry Center sont gratuites et disponibles au format JPEG, PDF et AI (fichiers de production Adobe). Le catalogue, qui comporte plus de 1 000 cartes, est interrogeable à partir d'un téléphone pour organiser une randonnée ou un ordinateur pour télécharger les cartes, les intégrer dans une application ou les imprimer.
Trouver une carte du National Park Service (source : National Park Service)
Les cartes du National Park Service sont produites par le gouvernement et sont dans le domaine public. Toute personne peut, sans restriction en vertu des lois américaines sur le droit d'auteur : reproduire l'œuvre sous forme imprimée ou numérique ; créer des œuvres dérivées ; exécuter l'œuvre en public ; afficher l'œuvre ; distribuer des copies ou transférer numériquement l'œuvre au public par vente ou autre transfert de propriété, ou par location, bail ou prêt. A noter : un utilisateur qui modifie et/ou réédite les cartes du National Park Service est responsable de tout problème rencontré avec les cartes, en raison de leur changement ou de leur modification.
Le portail des applications de gestion intégrée des ressources (IRMA) fournit des données sur :- la limite des parcs
- la fréquentation des parcs
- l'inventaire des ressources
- les rapports scientifiques
- les rapports d'enquête
- les effets du changement climatique
Quelques belles cartes à télécharger en jpg ou en pdf :- Carte des sentiers du National Park Service
- Carte des régions unifiées du National Park Service
- Brochure du système des parcs nationaux
- Carte murale du système des parcs nationaux
- Carte des parcs nationaux les plus visités (statistiques 2023)
En complément
Comment le National Park Service parvient à créer des cartes réalistes
Shade Relief, le site de Thomas Patterson consacré aux cartes en relief
Le parc national le plus proche en fonction des régions des Etats-Unis
Cartes narratives (storymaps) sur les parcs nationaux
Cartographie des incendies en Californie
Articles connexes
Incendies en Amazonie : les cartes et les images auraient-elles le pouvoir d'attiser la polémique ?
Cartes et données sur la canicule et les incendies de forêt en France et en Europe
Des sécheresses répétées en France depuis 2018 : analyse en cartes et en images satellitaires
Cartes et données sur les forêts en France et dans le monde
Le rôle des arbres urbains dans la réduction de la température de surface des villes européennes
Une carte de l'INPN pour analyser et discuter la répartition de la biodiversité en France
MPAtlas, un atlas de la protection marine pour évaluer les aires marines réellement protégées
-
7:30
Comprendre ce que l’IA sait faire et ce qu’elle ne peut pas faire
sur Dans les algorithmesQuand on parle d’Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans le livre qu’ils viennent de faire paraître, AI Snake Oil (Princeton University Press, 2024, non traduit).
Il y a peu de liens entre l’IA générative dont on entend tant parler et l’IA prédictive, certainement bien plus utilisée encore, mais où se concentrent les systèmes les plus défaillants qui soient. C’est là surtout que se concentre cette « huile de serpent » à laquelle font référence les deux chercheurs. Sous ce terme, qui qualifie des remèdes miraculeux mais inefficaces, comme tant de charlatans en vendaient dans tout l’Ouest américain, les deux chercheurs désignent une technologie qui ne fonctionne pas et ne peut pas fonctionner comme attendu, et qui ne fonctionnera probablement jamais. Toute la difficulté aujourd’hui, pour le grand public, consiste à être capable de distinguer l’IA qui ne fonctionne pas de celle qui fonctionne. C’est tout l’enjeu de leur livre.
IA générative vs. IA prédictiveL’IA est désormais devenue un produit de consommation grand public. Le problème, c’est que son utilisation abusive s’est également généralisée. Les deux ingénieurs restent pourtant très confiants. L’IA générative est un outil amusant et utile défendent-ils. Elle peut même être un outil d’apprentissage passionnant, expliquent-ils un peu légèrement. Certes, l’IA générative comporte des risques et peut avoir un coût social élevé. Mais ce n’est rien comparé à l’IA prédictive. Dans leur livre, les deux chercheurs accumulent les exemples pour montrer que dès que nous tentons d’utiliser l’IA pour des prédictions, notamment dans le domaine du social, elle produit des discriminations. De l’emploi à la santé, en passant par le crime… partout ces modèles restent englués dans leurs biais. Mais surtout, leurs résultats ne sont bien souvent pas meilleurs qu’un résultat aléatoire. C’est, il me semble, la grande force de leur démonstration et le point le plus original du livre. Pour les chercheurs, l’une des raisons d’une si faible performance tient beaucoup au fait que très souvent, la donnée n’est ni disponible ni décisive. Le problème c’est que l’IA prédictive est très attirante parce qu’elle promet des décisions plus efficaces… Mais l’efficacité est bien plus relative qu’annoncée et surtout bien moins responsable.
L’IA n’a pas vraiment de définition fixe. Les deux chercheurs s’en amusent d’ailleurs et remarquent que ce qu’on qualifie comme IA correspond souvent à ce qui n’a pas été fait. Dès qu’une application fonctionne avec fiabilité, on ne parle plus d’IA, comme c’est le cas avec les aspirateurs autonomes, l’autopilote des avions, les filtres à Spam, ou l’autocomplétion. Autant d’exemples qui nous montrent d’ailleurs des formes d’IA qu’on souhaiterait plus souvent. Ces exemples doivent nous rappeler qu’elle n’est pas toujours problématique, loin de là. L’IA sait résoudre des problèmes difficiles. Mais elle ne sait pas prédire les comportements sociaux des gens et la prédiction du social n’est pas un problème technologique soluble.
Il y a aussi certains domaines du social où l’IA peut-être très forte, très précise et très efficace, mais qui posent des problèmes de société majeurs. C’est le cas notamment de la reconnaissance faciale. Le taux d’erreur de la reconnaissance faciale est devenu minuscule (0,08% selon le Nist). Cela n’enlève rien au fait que ces erreurs soient très problématiques, notamment quand elles conduisent à des arrestations qui ne devraient pas avoir lieu. Mais dans le domaine de la reconnaissance faciale, le problème, désormais, n’est plus que la technologie soit défaillante. Ce sont les pratiques, les erreurs humaines, les échecs policiers et d’encadrement de son usage qui posent problèmes. « L’IA de reconnaissance faciale, si elle est utilisée correctement, a tendance à être précise car il y a peu d’incertitude ou d’ambiguïté dans la tâche à accomplir ». Identifier si une personne sur une photo correspond à une autre personne sur une autre photo est assez simple, pour autant que les systèmes aient suffisamment d’images pour s’y entraîner et de moyens pour trouver les éléments qui permettent de distinguer un visage d’un autre. Cela ne signifie pas que l’analyse faciale puisse tout faire, précisent les deux chercheurs : identifier le genre où l’émotion depuis un visage n’est pas possible, car ni l’un ni l’autre n’est inscrit dans l’image. Désormais, « le plus grand danger de la reconnaissance faciale vient du fait qu’elle fonctionne très bien ». Ce ne sont plus ses défaillances techniques qui posent un problème de société, comme c’est le cas des systèmes de prédiction de risques. C’est l’usage qui peut en être fait… comme de pouvoir identifier n’importe qui n’importe où et pour n’importe quelle raison. Attention cependant, préviennent les chercheurs : la reconnaissance faciale peut-être très performante quand elle est utilisée correctement, mais peut très facilement échouer en pratique, comme le montre l’identification depuis des images de mauvaise qualité qui a tendance à produire de nombreux faux positifs. Elle n’est donc ni parfaite ni magique. Et surtout, elle pose un enjeu de société qui nécessite de cadrer son usage, pour trouver les moyens afin qu’elle ne soit pas utilisée de manière inappropriée – et ce n’est pas si simple – et pour que la société se dote de garde-fous et de garanties pour prévenir des abus ou d’utilisations inappropriées.
Nombre d’usages de l’IA demeurent problématiques avertissent les chercheurs. Nombre de ses utilisations relèvent ni plus ni moins de l’imposture. L’IA échoue d’abord et très souvent dès qu’on l’utilise pour produire des prédictions, comme l’a montré Google Flu, l’outil pour prédire la grippe de Google qui se basait sur l’évolution des recherches de symptômes sur le moteur de recherche et dont la précision a fini par s’effondrer sous les requêtes. Non seulement la prédiction est difficile, mais bien souvent son efficacité s’effondre dans le temps.
Les deux chercheurs nous invitent à intégrer une sirène d’alerte aux projets d’IA. Dès qu’ils abordent le social, dès qu’ils souhaitent prédire quelque chose, dès qu’ils utilisent une variable pour une autre (comme de vouloir reconnaître le genre depuis des images de visages), nous devons être vigilants.
Couverture du livre AI Snake Oil d’Arvind Narayanan et Sayash Kapoor. Les défaillances de l’IA prédictiveMais il y a d’autres motifs d’inquiétudes auxquels prêter attention. Le battage médiatique autour de l’IA fait que bien souvent ses qualités sont exagérées. Les capacités de prédiction de nouveaux services ou outils sont très souvent survendues. L’une des erreurs les plus courantes consiste à annoncer un taux de réussite particulièrement élevé, alors que très souvent, l’outil est évalué sur les mêmes données que celles sur lesquelles il a été entraîné. C’est un peu comme réviser les questions qui seront posées à un examen avant l’examen. L’étude des résultats de recherche dans nombre de secteurs de la recherche en machine learning a montré partout des résultats problématiques. Ce n’est pas nécessairement intentionnel ou malveillant, excusent un peu facilement les deux ingénieurs, le machine learning est une discipline délicate et il est facile de s’embrouiller. En tout cas, la qualité s’effondre très souvent avec le battage médiatique. Ainsi, des centaines d’études ont proclamé pouvoir détecter le Covid depuis des radiographies des poumons : une revue systématique de plus de 400 articles de recherche a montré qu’AUCUNE n’était fiable. Tant et si bien qu’une équipe de chercheurs a mis au point une chek-list pour aider les développeurs et les chercheurs à minimiser les erreurs. Dans une étude sur l’usage de l’IA prédictive dans l’industrie et l’administration, Narayanan et Kapoor ont fait les mêmes constats et ont listé les principaux défauts de la prédiction :
- Un outil qui fait de bonnes prédictions ne signifie pas qu’il mènera à de bonnes décisions, notamment du fait de la rétroaction des décisions sur les prédictions (??par exemple un montant de caution plus élevé basé sur une prédiction de récidive peut augmenter le taux de récidive… et d’ailleurs, les peines sévères ont tendance à augmenter la récidive) ;
- Pour prédire, on fait souvent appel à une variable-cible qui ne correspond pas exactement à ce que l’on souhaite prédire, comme d’utiliser la moyenne générale d’un étudiant pour prédire sa réussite l’année suivante.
- Lorsque la distribution des données sur lesquelles un modèle est formé n’est pas représentative de la distribution sur laquelle il sera déployé, les performances du modèle seront problématiques.
- Il y a toujours des limites à la prédiction. Les résultats sociaux ne sont pas prévisibles avec précision, même avec l’apprentissage.
- Les différences de performances entre différents groupes sociaux ne peuvent pas toujours être corrigées.
- Bien souvent les systèmes manquent de possibilité pour en contester les résultats alors que cette contestabilité est un levier important pour se rendre compte de ses erreurs.
- La prédiction oublie souvent de prendre en compte le comportement stratégique qui risque de la rendre moins efficace dans le temps.
Au XIXe siècle, dans l’Ouest américain, d’innombrables colporteurs vendaient des médicaments miracles, inefficaces et inoffensifs, pour la plupart… mais pas tous. Certains de ces faux remèdes laisseront des morts derrière eux. En 1906, la Food and Drug Administration (FDA) est imaginée pour remédier au problème et rendre ces colporteurs responsables de leurs produits, comme l’explique le dernier rapport de l’AI Now Institute qui revient en détail sur la naissance de l’agence américaine et comment elle a changé le monde du médicament par la construction de mesures préalables à leur mise sur le marché – l’AI Now Institute invite d’ailleurs à s’inspirer de cette histoire pour rendre l’IA responsable en pointant qu’une « réglementation ex ante solide, adaptée à un marché en évolution et à ses produits, peut créer des avantages significatifs à la fois pour l’industrie et pour le public ».
Si l’AI Snake Oil est une IA qui ne marche pas et qui ne peut pas marcher, souvenons-nous que même une IA qui fonctionne bien peut être nocive. Face aux produits d’IA, il faut pouvoir mesurer à la fois les préjudices qu’ils peuvent provoquer mais également la véracité qu’ils produisent.
Mais si l’IA défaillante est si omniprésente, c’est parce qu’elle offre des solutions rapides à n’importe quels problèmes. Oubliant que les solutions qui ne fonctionnent pas n’en sont pas, rappellent Kapoor et Narayanan. « Dans le sillage de la révolution industrielle, des millions d’emplois furent créés dans les usines et les mines, avec d’horribles conditions de travail. Il a fallu plusieurs décennies pour garantir les droits du travail et améliorer les salaires et la sécurité des travailleurs. » Nous devons imaginer et construire un mouvement similaire pour garantir la dignité humaine face à l’automatisation qui vient. Nous devons trouver les moyens d’éradiquer le déploiement de l’huile de serpent et construire les modalités pour bâtir une technologie responsable comme nous avons réussi à bâtir une médecine et une industrie agro-alimentaire (plutôt) responsable.
Pourquoi les prédictions échouent-elles ?Dans leur livre, les deux auteurs mobilisent d’innombrables exemples de systèmes défaillants. Parmis ceux qu’ils classent comme les pires, il y a bien sûr les outils de prédiction qui prennent des décisions sur la vie des gens, dans le domaine de la santé, des soins ou de l’orientation notamment.
Un algorithme n’est qu’une liste d’étapes ou de règles pour prendre une décision, rappellent-ils. Très souvent, les règles sont manuelles mais sont appliquées automatiquement, comme quand on vous demande de ne pas percevoir au-delà d’un certain revenu pour bénéficier d’un droit. Le problème, c’est que de plus en plus, les règles se complexifient : elles sont désormais souvent apprises des données. Ce type d’algorithme est appelé modèle, c’est-à-dire qu’il découle d’un ensemble de nombres qui spécifient comment le système devrait se comporter. Ces modèles sont très utilisés pour allouer des ressources rares, comme des prêts ou des emplois, ouvrant ou fermant des possibilités. C’est typiquement ce qu’on appelle l’IA prédictive. C’est par exemple ainsi que fonctionne Compas, le système de calcul de risque de récidive utilisé par la justice américaine, entraîné depuis le comportement passé des justiciables. L’hypothèse de ces systèmes et de nombre de systèmes prédictifs consiste à dire que des gens avec les mêmes caractéristiques se comporteront de la même manière dans le futur. Ces systèmes prédictifs sont déployés dans de nombreux secteurs : la santé, l’emploi, l’assurance… Le problème, c’est que de petits changements dans la vie des gens peuvent avoir de grands effets. La plupart des entreprises qui développent des systèmes prédictifs assurent que ceux-ci sont performants et équitables. Pourtant, on ne peut pas garantir que les décisions qu’ils prennent soient sans biais ou équitables.
Une bonne prédiction ne signifie pas une bonne décision. L’IA peut faire de bonne prédictions… si rien ne change, c’est-à-dire si elles ne sont pas utilisées pour modifier les comportements, expliquent les chercheurs en prenant l’exemple d’un système prédictif de la pneumonie qui montrait que les gens atteints d’asthme étaient à moindre risque, parce qu’ils recevaient des soins adaptés pour éviter les complications. Déployer un tel modèle, en fait, aurait signifié renvoyer les patients asthmatiques chez eux, sans soins. Corrélation n’est pas causalité, dit l’adage.
Ces erreurs de prédictions ont souvent pour origine le fait que les chercheurs s’appuient sur des données existantes plutôt que des données collectées spécifiquement pour leur produit. Trop souvent, parce que créer des données spécifiques ou faire des contrôles aléatoires est coûteux, les entreprises s’en abstiennent. Comprendre l’impact des outils de décision est également important et nécessite aussi de collecter des données et de faire des contrôles d’autant plus coûteux que ces vérifications, élémentaires, viennent souvent remettre en question l’efficacité proclamée. Techniquement, cela signifie qu’il faut toujours s’assurer de savoir si le système a évalué ses impacts sur de nouvelles données et pas seulement sur les données utilisées pour la modélisation.Ces effets sont d’autant plus fréquents que le développement de systèmes conduit souvent les gens à y réagir, à se comporter stratégiquement. C’est le cas quand des candidats à l’embauche répondent aux outils d’analyse des CV en inondant leurs CV de mots clefs pour contourner leurs limites. Une étude a même montré que changer le format de son CV d’un PDF en texte brut, changeait les scores de personnalité que les systèmes produisent sur les candidatures. Quand les entreprises assurent que leurs outils fonctionnent, elles oublient souvent de tenir compte du comportement stratégique des individus. Or, « quand les résultats du modèle peuvent être facilement manipulés en utilisant des changements superficiels, on ne peut pas dire qu’ils sont efficaces ». C’est toute la limite de trop de modèles opaques que dénoncent les deux chercheurs avec constance.
Le risque, c’est que ces systèmes nous poussent à une sur-automatisation. La sur-automatisation, pour les chercheurs, c’est quand le système de prise de décision ne permet aucune voie de recours, comme l’ont connu les individus suspectés de fraude par l’algorithme de contrôle des aides sociales de Rotterdam. Pour éviter cela, les bonnes pratiques invitent à « conserver une supervision humaine ». Problème : tous les développeurs de systèmes assurent que c’est le cas, même si cette supervision ne conduit à aucune modification des décisions prises. En réalité, les développeurs d’IA vendent des IA prédictives « avec la promesse d’une automatisation complète. La suppression d’emplois et les économies d’argent constituent une grande partie de leur argumentaire ». La supervision n’a donc la plupart du temps pas lieu. Même quand elle existe, elle est bien souvent inappropriée. Et surtout, les résultats et suggestions génèrent une sur-confiance particulièrement pervasive, qui affecte tous les utilisateurs dans tous les secteurs. Dans des simulateurs de vol, quand les pilotes reçoivent un signal d’alarme incorrect, 75% d’entre eux suivent les recommandations défaillantes. Quand ils ont recours à une checklist, ils ne sont plus que 25% à se tromper.
Mais surtout, insistent les deux chercheurs, les prédictions sur les gens sont bien plus fluctuantes qu’on le pense. Un outil similaire à Compas développé en Ohio et utilisé en Illinois a produit des aberrations car les taux de criminalité n’étaient pas les mêmes entre les deux Etats. Trop souvent les prédictions se font sur les mauvaises personnes. C’était le cas de l’outil de calcul de risque de maltraitance des enfants de Pennsylvanie étudié par Virginia Eubanks, qui n’avait aucune donnée sur les familles qui avaient recours à des assurances privées et donc qui visait disproportionnellement les plus pauvres. « Les outils d’IA regardent ce qui est sous le lampadaire. Et très souvent, le lampadaire pointe les plus pauvres ». L’IA prédictive exacerbe les inégalités existantes. « Le coût d’une IA défectueuse n’est pas supporté de manière égale par tous. L’utilisation de l’IA prédictive nuit de manière disproportionnée à des groupes qui ont été systématiquement exclus et défavorisés par le passé. » Les outils de prédiction de risque de santé, déployés pour réduire les dépenses d’hospitalisation, ont surtout montré leurs biais à l’encontre des minorités. L’un de ces outils, Optum’s Impact Pro par exemple, écartait systématiquement les personnes noires, parce que le système ne prédisait pas tant le besoin de soins, que combien l’assurance allait dépenser en remboursement des soins de santé. L’entreprise a continué d’ailleurs à utiliser son outil défaillant, même après qu’il ait montré son inéquité. « Les intérêts des entreprises sont l’une des nombreuses raisons pour lesquelles l’IA prédictive augmente les inégalités. L’autre est la trop grande confiance des développeurs dans les données passées. »
Trop souvent, on utilise des proxies, des variables substitutives qui nous font croire qu’on peut mesurer une chose par une autre, comme les coûts de la santé plutôt que les soins. C’est le même problème pour Compas. Compas utilise des données sur qui a été arrêté pas sur les crimes. Compas dit prédire le crime alors qu’en fait il ne prédit que les gens qui ont été arrêtés. Ces confusions sur les données expliquent beaucoup pourquoi les systèmes d’IA prédictive nuisent d’abord aux minorités et aux plus démunis.
S’ils sont défaillants, alors peut-être faudrait-il faire le deuil des outils prédictifs, suggèrent les chercheurs. Ce serait effectivement dans bien des cas nécessaires, mais nos sociétés sont mal à l’aise avec l’imprévisibilité, rappellent-ils. Pourtant, trop souvent nous pensons que les choses sont plus prévisibles qu’elles ne sont. Nous avons tendance à voir des régularités là où elles n’existent pas et nous pensons bien souvent être en contrôle sur des choses qui sont en fait aléatoires. Rien n’est plus difficile pour nous que d’accepter que nous n’avons pas le contrôle. Cela explique certainement notre engouement pour l’IA prédictive malgré ses défaillances. Pourtant, expliquent les chercheurs, embaucher ou promouvoir des employés aléatoirement, plutôt que sur de mauvais critères de performances, pourrait peut-être être plus bénéfique qu’on le pense, par exemple en favorisant une plus grande diversité ou en favorisant un taux de promotion fixe. Accepter l’aléatoire et l’incertitude pourrait nous conduire à de meilleures décisions et de meilleures institutions. « Au lieu de considérer les gens comme des êtres déterminés, nous devons travailler à la construction d’institutions qui sont véritablement ouvertes au fait que le passé ne prédit pas l’avenir. »
Pourquoi l’IA ne peut pas prédire le futur ?La météorologie est l’un des secteurs où la prédiction est la plus avancée. Pourtant, la météo est un système particulièrement chaotique. Des petits changements conduisent à de grandes erreurs. Plus la prédiction est éloignée dans le temps, plus l’erreur est grande. Les données, les équations, les ordinateurs ont pourtant permis d’incroyables progrès dans le domaine. Nos capacités de prédiction météo se sont améliorées d’un jour par décade : une prévision sur 5 jours d’il y a 10 ans est aussi précise qu’une prévision sur 6 jours aujourd’hui ! Ces améliorations ne viennent pas d’une révolution des méthodes, mais de petites améliorations constantes.
La prévision météo repose beaucoup sur la simulation. Les succès de prévision des phénomènes géophysiques a conduit beaucoup de chercheurs à penser qu’avec les bonnes données et la puissance de calcul, on pourrait prédire n’importe quel type d’évènements. Mais cela n’est pas toujours très bien marché. Le temps est bien plus observable que le social, certainement parce que les conditions géophysiques, contrairement à ce que l’on pourrait penser, sont plus limitées. La prévision météo repose sur des lois physiques calculables. Ce n’est pas le cas des calculs du social. « Cela n’a pas restreint pour autant le développement de prédictions dans le contexte social, même si bien souvent, nous avons assez peu de preuves de leur efficacité ». Le score de risque de défaillance de crédit, Fico, est né dans les années 50 et se déploie à la fin des années 80, en même temps que naissent les premiers scores de risque criminels… Mais c’est avec le développement du machine learning dans les années 2010 que les systèmes prédictifs vont exploser dans d’innombrables systèmes.
Toutes les prédictions ne sont pas difficiles. Le trafic, l’évolution de certaines maladies… sont assez faciles. Les prédictions individuelles, elles, sont toujours plus difficiles. Et cela pose la question de savoir ce qui définit une bonne prédiction. Est-ce qu’une prédiction météo est bonne si elle est au degré près ou si elle prédit bien la pluie indépendamment de la température ? Notre capacité à prédire les tremblements de terre est excellente, notamment les lieux où ils auront lieu, mais notre capacité à prédire la nécessité d’une évacuation est nulle, car prédire quand ils auront lieu avec suffisamment de précision est bien plus difficile. Bien souvent, la précision de la prédiction s’améliore quand on ajoute plus de données et de meilleurs modèles. Mais ce n’est pas nécessairement vrai. On ne peut prédire le résultat d’un jet de dé quel que soit le volume de données que l’on collecte !
Quand les choses sont difficiles à prédire, on a recours à d’autres critères, comme l’utilité, la légitimité morale ou l’irréductibilité des erreurs pour apprécier si la prédiction est possible. Et tout ce qui a rapport à l’individu est bien souvent difficile à prédire, ce qui n’empêche pas beaucoup d’acteurs de le faire, non pas tant pour prédire quelque chose que pour exercer un contrôle sur les individus.
Kapoor et Narayanan reviennent alors sur le Fragile Families Challenge qui a montré que les modèles d’IA prédictibles développés n’amélioraient pas notablement la prédiction par rapport à un simple modèle statistique. Pour les chercheurs, le défi a surtout montré les limites fondamentales à la prédiction du social. Dans le social, « on ne peut pas prédire très bien le futur, et nous ne connaissons pas les limites fondamentales de nos prédictions ». Les données du passé ne suffisent pas à construire ce type de prédictions, comme les données d’une précédente élection ne peuvent pas prédire la suivante. Améliorer la précision des prédictions du social relève du problème à 8 milliards de Matt Salganik : il n’y a pas assez de gens sur terre pour découvrir les modèles de leurs existences ! Cela n’empêche pas qu’il existe d’innombrables outils qui affirment pouvoir faire des prédictions à un niveau individuel.
En vérité, bien souvent, ces outils ne font guère mieux qu’une prédiction aléatoire. Compas par exemple ne fait que prédire la partialité de la police à l’encontre des minorités (et dans le cas de Compas, l’amélioration par rapport à un résultat aléatoire est assez marginale… et dans nombre d’autres exemples, l’amélioration du calcul se révèle bien souvent plus mauvaise qu’un résultat aléatoire). Utiliser seulement 2 données, l’âge et le nombre d’infractions antérieures, permet d’avoir un résultat aussi précis que celui que propose Compas en mobilisant plus d’une centaine de données. Dans le cas de la récidive, le modèle est assez simple : plus l’âge est bas et plus le nombre d’infractions antérieures est élevé, plus la personne sera à nouveau arrêtée. On pourrait d’ailleurs n’utiliser que le nombre d’infractions antérieures pour faire la prédiction sans que les résultats ne se dégradent vraiment (qui serait moralement plus acceptable car en tant que société, on pourrait vouloir traiter les plus jeunes avec plus d’indulgence qu’ils ne le sont). L’avantage d’une telle règle, c’est qu’elle serait aussi très compréhensible et transparente, bien plus que l’algorithme opaque de Compas.
Avec ces exemples, les deux chercheurs nous rappellent que la grande disponibilité des données et des possibilités de calculs nous font oublier que l’opacité et la complexité qu’ils génèrent produisent des améliorations marginales par rapport au problème démocratique que posent cette opacité et cette complexité. Nous n’avons pas besoin de meilleurs calculs – que leur complexification ne produit pas toujours –, que de calculs capables d’être redevables. C’est je pense le meilleur apport de leur essai.
Nous sommes obnubilés à l’idée de prédire un monde imprévisiblePrédire le succès est aussi difficile que prédire l’échec, rappellent-ils. Certainement parce que contrairement à ce que l’on pense, le premier ne repose pas tant sur les qualités des gens que le second ne repose sur les circonstances. Les deux reposent sur l’aléatoire. Et en fait, le succès repose plus encore sur l’aléatoire que l’échec ! Le succès est encore moins prévisible que l’échec, tant la chance, c’est-à-dire l’imprévisible, joue un rôle primordial, rappellent-ils. Le succès dans les études, le succès de produits… rien n’est plus difficile à prédire, rappellent les chercheurs en évoquant les nombreux rejets du manuscrit de Harry Potter. Matt Salganik avait ainsi créé une application de musique et recruté 14 000 participants pour évaluer des musiques de groupes inconnus avec des indicateurs sociaux qui variaient entre groupes de participants. Des chansons médiocres étaient appréciées et de très bonnes musiques négligées. Une même chanson pouvait performer dans un endroit où les métriques sociales étaient indisponibles et sous performer là où elles étaient disponibles. Mais l’expérience a surtout montré que le succès allait au succès. Dans l’environnement où personne ne voyait de métriques : il y avait bien moins d’inégalités entre les musiques.
Les médias sociaux reposent sur des principes d’accélération de la viralité d’une petite fraction des contenus. Mais la popularité est très variable, d’un contenu l’autre. Ce que font les plateformes, ce n’est pas tant de prédire l’imprévisible que de tenter d’amplifier les phénomènes. Sur YouTube, Charlie Bit My Finger fut l’une des premières vidéos virales de la plateforme. Malgré ses qualités, son succès n’avait rien d’évident. En fait, les médias sociaux sont « une loterie à mèmes géante ». Plus un mème est partagé, plus il a de la valeur et plus les gens vont avoir tendance à le partager. Mais il est impossible de prédire le succès d’une vidéo ou d’un tweet. Même la qualité ne suffit pas, même si les contenus de meilleure qualité ont plus de chance que les contenus médiocres. Par contre l’on sait que les contenus plus partisans, plus négatifs reçoivent plus d’engagements. Reste que la polarisation perçue est plus forte que la polarisation réelle – et il est probable que cette mauvaise perception la renforce.
D’une manière assez surprenante, nous prédisons très bien des effets agrégés et très mal ces mêmes effets individuellement. Les ordres de grandeur aident à prédire des effets, mais les experts eux-mêmes échouent bien souvent à prédire l’évidence. Aucun n’a prévu l’effondrement de l’URSS, rappelait Philip Tetlock. Et ce n’est pas une question de données ou de capacité d’analyse. Les limitations à la prédictions sont dues aux données indisponibles et au fait qu’elles sont parfois impossibles à obtenir. Mais la prédiction est également difficile à cause d’événements imprévisibles, mais plus encore à cause de boucles d’amplification complexes. Dans de nombreux cas, la prédiction ne peut pas s’améliorer, comme dans le cas de la prédiction du succès de produits culturels. Dans certains cas, on peut espérer des améliorations, mais pas de changements majeurs de notre capacité à prédire l’avenir. Pour Narayanan et Kapoor, notre obnubilation pour la prédiction est certainement le pire poison de l’IA.
L’IA générative, ce formidable bullshiter
Bien moins intéressants sont les 2 chapitres dédiés à l’IA générative, où les propos des deux chercheurs se révèlent assez convenus. S’il est difficile de prédire l’impact qu’elle va avoir sur l’économie et la culture, la technologie est puissante et les avancées réelles. Pour Narayanan et Kapoor, l’IA générative est déjà utile, expliquent-ils en évoquant par exemple Be My Eyes, une application qui connectait des aveugles à des volontaires voyants pour qu’ils les aident à décrire le monde auquel ils étaient confrontés en temps réel. L’application s’est greffée sur ChatGPT pour décrire les images avec un réel succès, permettant de remplacer les descriptions du monde réel des humains par celles des machines.Si l’IA générative fonctionne plutôt très bien, ce n’est pas pour autant qu’elle ne peut pas porter préjudices aux gens qui l’utilisent. Ses biais et ses erreurs sont nombreuses et problématiques. Sa capacité à nous convaincre est certainement plus problématique encore.
Les deux chercheurs bien sûr retracent l’histoire des améliorations de la discipline qui a surtout reposé sur des améliorations progressives, la disponibilité des données et l’amélioration des capacités de calcul. Tout l’enjeu de la technologie a été d’apprendre à classer les images ou les mots depuis les connexions entre eux en appliquant des poids sur les critères.
En 2011, à l’occasion d’une compétition ImageNet, visant à classifier les images, Hinton, Krizhevsky et Sutskever proposent un outil d’apprentissage profond qui se distingue par le fait qu’il ait bien plus de couches de traitements que les outils précédents : ce sera AlexNet. Tout l’enjeu ensuite, consistera à augmenter le nombre de couches de traitements en démultipliant les données… À mesure que les données deviennent plus massives, les contenus vont aussi avoir tendance à devenir plus problématiques, malgré les innombrables mesures de filtrages. Les problèmes vont y être enfouis plus que résolus, comme l’étiquetage de personnes noires sous le terme de Gorille. On va se mettre alors à mieux observer les données, mais la plupart des critères de référence ne mesurent pas dans quelle mesure les modèles reflètent les préjugés et les stéréotypes culturels. Le problème, c’est que dans le domaine de l’IA, les ingénieurs sont convaincus que découvrir les connaissances dans les données surpasse l’expertise, minimisant son importance.
« Alors que l’IA prédictive est dangereuse parce qu’elle ne fonctionne pas. L’IA pour la classification des images est dangereuse parce qu’elle fonctionne trop bien. »
Les systèmes de génération de texte fonctionnent sur le même principe que les systèmes de génération d’image. Jusqu’aux années 2010, il était difficile que les systèmes de traduction automatique gardent en tête le contexte. Ils fonctionnaient bien sur les courts extraits, mais avaient des problèmes avec des textes plus longs. En 2017, Google a trouvé la solution en proposant une matrice plus grande permettant de mieux relier les mots entre eux. C’est la technologie Transformer. L’IA générative textuelle n’est rien d’autre qu’un système d’autocomplétion qui fait de la prédiction du mot suivant.
La puissance de ces machines est à la fois leur force et leur faiblesse. « Pour générer un simple token – un bout de mot – ChatGPT doit accomplir environ un milliard de milliard d’opérations. Si vous demandez à générer un poème d’une centaine de tokens (une centaine de mots) cela nécessitera un quadrillion de calculs. Pour apprécier la magnitude de ce nombre, si tous les individus au monde participaient à ce calcul au taux d’un calcul par minute, 8 heures par jour, un quadrillon de calcul prendrait environ une année. Tout cela pour générer une simple réponse. » La capacité générative de ces outils repose sur une puissance sans limite. Une puissance dont les coûts énergétiques, matériels et économiques finissent par poser question. Avons-nous besoin d’une telle débauche de puissance ?
Pour que ces modèles répondent mieux et plus exactement, encore faut-il adapter les modèles à certaines tâches. Cette adaptation, le fine-tuning ou pré-entraînement, permet d’améliorer les résultats. Reste que ces adaptations, ces filtrages, peuvent finir par sembler être une cuillère pour écoper les problèmes de l’océan génératif…
Les chatbots peuvent avoir d’innombrables apports en interagissant avec l’utilisateur, mais le fait qu’ils dépendent profondément des statistiques et le manque de conscience de leurs propres limites, émousse leur utilité, soulignent les deux chercheurs. Jouer à Pierre-papier-ciseaux avec eux par exemple rappellent qu’ils ne comprennent pas l’enjeu de simultanéité.
Le problème de ces outils, c’est que la compréhension, n’est pas tout ou rien. Les chatbots ne comprennent rien, et leur regard sur un sujet est limité par leurs données. Mais ils sont configurés pour répondre avec confiance, comme un expert, alors qu’ils sont capables d’erreurs basiques qu’un enfant ne ferait pas. Cela signifie que ces outils ne sont pas sans écueils, rappellent les chercheurs. Ils produisent très facilement de la désinformation, des deepfakes, et permettent à ceux qui les déploient de concentrer un pouvoir très important. Les chatbots sont des bullshiters de première, des menteurs. « Ils sont entraînés pour produire des textes plausibles, pas des vérités ». Ils peuvent sembler très convaincants alors qu‘ »il n’y a aucune source vérifiée durant leur entraînement ». Même si on était capable de ne leur fournir que des affirmations vraies, le modèle ne les mémoriserait pas, mais les remixerait pour générer du texte. Ils répondent souvent correctement, mais sont capables parfois de produire des choses sans aucun sens. Cela tient certainement au fait que « les affirmations vraies sont plus plausibles que les fausses ». Les erreurs, les plagiats sont consubstantiels à la technologie.
Les usages problématiques de ces technologies sont nombreux, notamment les deepfakes et toutes les tentatives pour tromper les gens que ces outils rendent possibles. Pour l’instant, les réponses à ces enjeux ne sont pas à la hauteur. Les chercheurs ne proposent que de mieux éduquer les utilisateurs aux contenus trompeurs et aux sources fiables. Pas sûr que ce soit une réponse suffisante.
Les chercheurs rappellent que la grande difficulté à venir va être d’améliorer l’IA générative, alors que ses limites sont au cœur de son modèle, puisqu’elle ne peut qu’imiter et amplifier les stéréotypes des données qui l’ont entraîné. Pour y parvenir, il faudrait parvenir à bien mieux labelliser les données, mais l’effort devient herculéen à mesure que les moissons sont plus massives. Pour l’instant, cette labellisation repose surtout sur des travailleurs du clic mal payés, chargés de faire une labellisation à minima. Pas sûr que cela suffise à améliorer les choses…
Malgré ces constats inquiétants, cela n’empêche pas les deux chercheurs de rester confiants. Pour eux, l’IA générative reste une technologie utile, notamment aux développeurs. Ils rappellent que ces dernières années, la question des biais a connu des progrès, grâce au fine-tuning. L’atténuation des bias est un secteur de recherche fructueux. Les chatbots progressent et deviennent aussi fiables que la recherche en ligne, notamment en étant capable de citer leurs sources. Pour les chercheurs, le plus gros problème demeure l’exploitation du travail d’autrui. Nous devons opter pour les entreprises qui ont des pratiques les plus éthiques, concluent-ils, et faire pression sur les autres pour qu’ils les améliorent. Oubliant qu’il n’est pas simple de connaître l’éthique des pratiques des entreprises…
Les deux ingénieurs terminent leur livre par un chapitre qui se demande si l’IA pose une menace existentielle. Un sujet sans grand intérêt face aux menaces déjà bien réelles que fait peser l’IA. Ils le balayent d’ailleurs d’un revers de main et rappellent que l’IA générale est encore bien loin. « La plupart des connaissances humaines sont tacites et ne peuvent pas être codifiées ». C’est comme apprendre à nager ou à faire du vélo à quelqu’un simplement en lui expliquant verbalement comment faire. Ça ne marche pas très bien. Le risque à venir n’est pas que l’IA devienne intelligente, nous en sommes bien loin. Le risque à venir repose bien plus sur les mauvais usages de l’IA, et ceux-ci sont déjà très largement parmi nous. Pour améliorer notre protection contre les menaces, contre la désinformation ou les deepfakes, nous devons renforcer nos institutions démocratiques avancent les auteurs. On ne saurait être plus en accord, surtout au moment où les avancées de l’IA construisent des empires techniques qui n’ont pas grand chose de démocratique.
*
Malgré ses qualités et la richesse de ses exemples, le livre des deux chercheurs peine à rendre accessible ce qu’ils voudraient partager. Parvenir à distinguer ce que l’IA sait faire et ce qu’elle ne peut pas faire n’est pas évident pour ceux qui sont amenés à l’utiliser sans toujours comprendre sa complexité. Distinguer la bonne IA de la mauvaise n’est pas si simple. Le livre permet de comprendre que la prédiction fonctionne mal, mais sans nous aider à saisir où elle peut progresser et où elle est durablement coincée.
On a bien constaté que dès que ces outils agissent sur le social où l’individu, ils défaillent. On a bien compris que l’IA générative était puissante, mais les deux ingénieurs peinent à nous montrer là où elle va continuer à l’être et là où elle risque de produire ses méfaits. Les deux spécialistes, eux, savent très bien identifier les pièges que l’IA nous tend et que l’IA tend surtout aux ingénieurs eux-mêmes, et c’est en cela que la lecture d’AI Snake Oil est précieuse. Leur livre n’est pourtant pas le manuel qui permet de distinguer le poison du remède. Certainement parce que derrière les techniques de l’IA, le poison se distingue du remède d’abord et avant tout en regardant les domaines d’applications où elle agit. Un outil publicitaire défaillant n’a rien à voir avec un outil d’orientation défaillant.. Gardons les bons côtés. Les ingénieurs ont enfin un livre critique sur leurs méthodes avec un regard qui leur parlera. Ce n’est pas un petit gain. Si le livre se révèle au final un peu décevant, cela n’empêche pas qu’Arvind Narayanan et Sayash Kapoor demeurent les chercheurs les plus pertinents du milieu. Leur grande force est d’être bien peu perméables au bullshit de la tech, comme le montre leur livre et leur excellente newsletter. Leur défense de la science sur l’ingénierie par exemple – « les essais contrôlés randomisés devraient être un standard dans tous les domaines de la prise de décision automatisée » – demeure une boussole que l’ingénierie devrait plus souvent écouter.
-
6:35
Classifications et intensités de nuages de points dans Giro3D
sur OslandiaEnclosure: [download]
Cet article concerne des fonctionnalités publiées avec la version 0.37 de Giro3D.
Giro3D 0.37 a introduit le support des classifications et intensités pour les nuages de points.
Les classifications de nuages de pointsAprès acquisitions par un capteur LIDAR, chaque point peut se voir attribuer une classe (ou classification) déterminant sa nature: sol, végétation, bâtiment, etc.
Les points peuvent ensuite être manipulées indépendamment lors de traitement (filtrage, colorisation, etc) selon leur classe.
Quels formats supportent les classifications ?De nombreux formats supportent cette fonctionnalités. Sur le Web Open-Source, les principaux formats utilisés sont les suivants:
Afficher les classifications dans Giro3DVoir l’exemple détaillé sur le site de Giro3D.
Actuellement, Giro3D supporte les classifications via l’entité Tiles3D, permettant d’afficher des nuages de points après conversion au format 3D Tiles.
Le support du format COPC est en cours de développement et supportera également les classifications. Il également prévu d’ajouter le support du format Potree 2.0.
Sélection de la couleur et de la visibilitéChaque classification est composée d’une couleur et d’une visibilité. Par défaut, toutes les classifications sont visibles. Les classifications 0 à 18 ont des couleurs pré-définies dans Giro3D (mais modifiables).
Dans l’exemple classification">[https:] , il est ainsi possible de modifier les couleurs et visibilité de chaque classification dynamiquement.
Nuages de points classifiés
Les intensitésVoir l’exemple complet sur le site Giro3D.
L’intensité d’un point est une valeur numérique décrivant la quantité d’énergie réfléchie par la surface (et donc la quantité absorbée). Dans une scène lidar typique, les arbres absorbent plus d’énergie laser que les champs agricoles par exemple, ce qui leur donnera une intensité moindre.
L’intensité des champs est plus importante que celle des arbres
Dans Giro3D, l’interprétation des valeurs d’intensité passe par une rampe de couleurs (ColorMap).
Le même nuage de point avec une rampe de couleur différente
Les opacités variablesLes rampes de couleurs Giro3D supportent des opacités variables. Chaque couleur de la rampe de couleur peut également être associé à un valeur d’opacité (de 0 à 1), indiquant le degré de transparence de cette couleur.
Cela permet par exemple de rendre semi-transparente ou invisibles certaines valeur d’intensité, comme les arbres:
Le nuage de point par défaut.
Les intensités inférieure à un seuil sont masquées, masquant les arbres.
-
18:13
Les territoires de l’extrême droite en France et en Europe
sur Les cafés géographiquesLa forte poussée de l’extrême droite en Europe conduit à s’interroger sur les ressorts communs à la montée de ces partis.
C’est devant une assistance nombreuse que Béatrice Giblin (BG), une habituée de nos cafés, a inauguré la nouvelle saison 2024-25 ce 24 septembre. Professeure émérite des Universités, géographe et géopolitologue, BG a fondé l’Institut francais de géopolitique (IFG). Elle dirige depuis 2006 la revue Hérodote, succédant à son maître Y.Lacoste avec qui elle s’est intéressée dès 1986 au Front National (FN) devenu en 2018 Rassemblement National (RN) non pas du point de vue sociologique ou politique mais du point de vue de son implantation géographique, en s’efforçant de faire varier le niveau d’analyse par différentes échelles. Le premier canton à élire un candidat du Front national (FN) était dans les environs de Marseille en 1982.
Résultats des élections européennes du 9 juin 2024.Ils ne font que confirmer les progrès des partis d’extrême droite en Europe tels qu’ils ont été cartographiés le 7 juin 2024, avant les élections, à partir des résultats des dernières élections législatives dans les différents pays de l’Union européenne. La réalisation de cette carte par le journal Le Monde, publiée avant les élections représente un travail considérable très intéressant car il permet une analyse plus fine par le fait que la collecte des résultats des votes s’est faite à une grande échelle sur de petits territoires (districts, communes).
Les votes de l’extrême droite en Europe, 7 juin 2024
(Avec la gracieuse autorisation du journal Le Monde)
La forte poussée de l’extrême droite est évidente le 9 juin : elle obtient 196 sièges sur 720 (soit 18,47% des sièges contre 9,7% en 2019). C’est la France qui a le plus de députés d’extrême droite en Europe avec le RN qui obtient 30 députés (32% des voix) et est arrivé en tête dans toutes les communes sauf deux (une en région parisienne et une en Bretagne). Suit l ’Autriche avec un FPÖ (Parti de la liberté d’Autriche) bien ancré qui a déjà participé à une coalition avec le parti conservateur en 1999 (ce qui avait été alors très décrié en Europe). Puis viennent l’Italie où la liste de G. Meloni obtient 24 députés (10 en 2019), les Pays-Bas avec le parti de Geert Wilders qui obtient 6 sièges (1 en 2019). A noter aussi, le très bon score (45% des voix) du Fidesz (Union civique hongroise), parti du Premier ministre V. Orban en Hongrie, et la percée de l’AFD, Alternative pour l’Allemagne (15 sièges) en Allemagne surtout dans les Länder de l’Est. En Pologne, le PIS fait un assez bon score (20 sièges) mais est en retrait par rapport à 2019.
Grande division de ces partis répartis en plusieurs groupes au parlement.
Il n’existe pas un parti d’extrême droite homogène au niveau européen mais des groupes différents traduisant l’extrême division des extrêmes droites dans l’UE. Au moins trois groupes sont importants. Les patriotes pour l’Europe (anciennement Identité démocrate nationaliste) regroupent 84 sièges avec le RN associé au Fidesz. Les Conservateurs et réformistes européens (CRE) compte 78 sièges (essentiellement Méloni et Marion Maréchal). L’ENS (Europe des nations souveraines) est une sorte de groupe de non-inscrits où on retrouve l’AFD associé à quelques députés polonais non PiS.Pourquoi une telle division ?
Le clivage majeur actuel est à rechercher dans l’attitude face à la guerre en Ukraine entre ceux qui veulent la soutenir comme la Pologne, les pays baltes et scandinaves et ceux qui penchent du côté de Poutine (Hongrie) où qui affichent un soutien de façade à l’Ukraine pour des raisons de politique intérieure (RN).L’ancienneté de l’implantation de ces partis et les systèmes électoraux expliquent aussi leur diversité. Si l’AFD est relativement récente en Allemagne, ce pays est travaillé depuis une trentaine d’années par des groupuscules d’extrême droite et l’AFD y a trouvé un terreau fertile pour développer ses thématiques. Le FPÖ est aussi très anciennement implanté : il a été créé en 1955 par d’anciens nazis dans une Autriche pas dénazifiée et sans travail de mémoire. En France le FN a été créé plus tardivement (1971) mais n’a fait que croitre dans les années 1980 pour en arriver à l’élimination de L. Jospin aux élections présidentielles par J.M. Le Pen en 2002.
Certains systèmes électoraux avec la proportionnelle notamment, permettent aux partis d’extrême droite d’être associés au gouvernement dans des coalitions gouvernementales comme en Suède, Pays-Bas, Finlande. Cela pourrait peut-être être un jour le cas en Allemagne. Notre système uninominal à deux tours a été moins favorable au RN mais on a vu récemment qu’aucun système n’empêche un parti qui bénéficie d’une forte dynamique de progresser et d’arriver aux portes du pouvoir.
Certains dénominateurs communs constituent les ressorts du vote d’extrême droite :
- L’immigration et le sentiment de ne plus être chez soi avec la crainte d’une perte d’ identité ethnique, religieuse ou culturelle sont des ressorts importants voire majeurs du vote d’extrême droite. L’Europe qui a longtemps été un continent d’émigration est devenue une zone d’immigration. Depuis les années 1970, sur une population européenne de 450M° d’habitants, on compte environ 40 M° d’étrangers et 55 M° (naturalisés ou pas) nés dans un pays étranger ce qui représente globalement 12% de la population européenne. La France se situe dans cette moyenne avec 10%. En Allemagne, la proportion est plus forte car il y a moins de naturalisés : la loi du sol y est plus récente (en janvier 2000 avec A. Merckel) et la nouvelle loi ne date que de juin 2024. A noter cependant que des pays comme la Hongrie, la Pologne, la Roumanie, la Tchéquie, Slovaquie, la Bulgarie à très faible population immigrée (environ 2%) votent largement pour l’extrême droite, prouvant ainsi que la concordance entre le nombre d’immigrés et le vote d’extrême droite n’est ni parfaite ni systématique.
- les facteurs géographique et historique. La proximité ou pas de la Russie, la taille des territoires joue un rôle important. L’histoire et ses traumatismes comptent aussi beaucoup : la représentation que les populations se font de la situation géopolitique actuelle de leur pays est essentielle. Ainsi la Hongrie est devenue un petit pays après la Première Guerre mondiale mais les Hongrois ont toujours en mémoire l’idée d’avoir participé d’un grand empire et demeurent frustrés des pertes de territoires et de population hongrois notamment au profit de la Roumanie. L’histoire de la Pologne, rayée de la carte par deux fois, partagée à plusieurs reprises, envahie, explique que la population ressent toujours une menace sur sa nation.
- la démographie est aussi une clé de compréhension. L’accroissement naturel, quand il est négatif et entraine une chute démographique sur un territoire, favorise le vote d’extrême droite dans la mesure où les populations se sentent fragilisées : on le voit dans les Länder de l’ex RDA, dans les pays baltes, en Bulgarie, Italie, en France aussi dans certaines régions (le Centre). Le taux de migration (différence entre le nombre d’entrées et de sorties) quand il est important nourrit le discours du grand remplacement surtout s’il se conjugue à un taux d’accroissement naturel négatif comme en Allemagne de l’Est (Thuringe, Brandebourg), d’où ce sentiment d’abandon dans une population vieillissante avec le départ des jeunes générations. En Pologne le vote du PiS (Droit et Justice) se décalque sur les territoires de faibles densités, en France en partie aussi (la diagonale du vide). Les densités faibles (inférieures à 50) ne permettent pas de maintenir des services publics d’où le sentiment d’abandon dans des sociétés sont bouleversées.
La taille des villes mérite considération aussi : plus elles sont petites et proches des milieux ruraux, plus le vote d’extrême droite a tendance à y être élevé. Inversement les grandes métropoles sont plus réfractaires. - Le risque de pauvreté, le sentiment d’insécurité physique et culturelle, lié à tort ou à raison à l’immigration de populations musulmanes ainsi que le niveau de diplôme sont aussi à prendre en compte avec des effets inégaux suivant les pays et la conjoncture.
(Avec la gracieuse autorisation du journal Le Monde)
Dialogue avec le publicPrésence et poussée du national-populisme à l’échelle mondiale. Elle s’observe en Inde avec Modi dans un pays pluriel avec plusieurs langues, religions, au Brésil de Bolsonaro, en Argentine avec Javier Milei, aux Etats-Unis avec Trump, en Turquie avec Erdogan, en Egypte avec Sisi…. Il s’agit d’une réalité qui menace le modèle démocratique libéral occidental qui n’a plus vocation à devenir universel.
La division des partis d’extrême droite d’Europe ne peut-elle pas finir dans une union à l’image de l’alliance entre fascisme et nazisme dans les années trente ?
Pour B.G la conjoncture actuelle n’est pas favorable à ce type de rapprochement. Elle rappelle que c’est dans le cadre de la Seconde Guerre mondiale que s’est fait ce rapprochement de seulement deux partenaires, alors que l’U.E actuellement pour le moment en paix rassemble 27 pays. De plus les divisions existent dans la cadre même des trois groupes au parlement européen. Les positions géographiques et le passé historique de chaque pays ne poussent pas à l’union même si certaines données, démographiques surtout, sont des dénominateurs communs.Rôle des facteurs économiques (chômage, crise) dans la poussée de l’extrême droite ?
Pour B.G le chômage à lui seul n’est pas un facteur déterminant (surtout qu’il existe maintenant un système de protection sociale) même s’il peut y contribuer et engendrer de la xénophobie. Les études faites sur Roubaix-Tourcoing * où le F.N s’est implanté très tôt dans les quartiers populaires ont montré le poids du mal-être quotidien en liaison avec des représentations liées au rôle de l’histoire de la guerre d’Algérie dans ces milieux ouvriers.Le R.N dans les territoires d’Outre-Mer ? C’est une situation très compliquée aux Antilles où le vote peut être extrêmement variable et volatil d’un scrutin à l’autre. A Mayotte la situation est plus claire : c’est l’arrivée massive des Comoriens qui génère de multiples problèmes et qui induit le vote R.N.
* Voir Bernard Alidières, Géopolitique de l’insécurité et du Front national, ed. A. Colin, 2006
Compte-rendu de Micheline Huvet-Martinet, octobre 2024
-
20:24
Israël-Hamas. Cartographie des massacres du 7 octobre 2023
sur Cartographies numériquesLe site oct7map.com documente avec précision les massacres commis par le Hamas le 7 octobre 2023, lors d’attaques contre des communautés civiles et des postes militaires israéliens. L’attaque a commencé dès l’aube lorsque le Hamas a lancé plus de 5 000 roquettes depuis Gaza vers Israël, puis a utilisé ces barrages stratégiques comme couverture pour franchir la frontière. Dans cette attaque surprise contre le sud d’Israël, les terroristes du Hamas ont commis des atrocités, qui ont eu un fort impact sur l'opinion publique.
Au delà du retentissement mondial de l'événement, il importe de pouvoir documenter, carte à l'appui, le déroulement des faits. Cette carte interactive se veut « un outil de réflexion et d'éducation, favorisant la prise de conscience de la gravité des horreurs ». Le site à pour but de fournir « une représentation accessible des événements tragiques du 7 octobre, en honorant la mémoire et les expériences des victimes ».
Mapping The October 7th Massacres (source : oct7map.com)
Le festival de musique Supernova, organisé en plein air près du kibboutz Re'im, situé à 5 km de la frontière de Gaza, a constitué l'une des premières cibles des terroristes du Hamas. Mais d'autres massacres ont eu lieu dans les kibboutz voisins à Be'eri, à Nahal Oz ou Kfar Aza. Chaque victime est recensée avec son identité. En rouge apparaissent les victimes décédées, en bleu les personnes kidnappées. Les données, qui peuvent être incomplètes, sont mises à jour au fur et à mesure. Il est possible d'y apporter des contributions (appel à témoignages).
Les attaques ont coûté la vie à plus de 1 188 personnes, dont 800 corps ont été confirmés comme étant des civils. Elles ont fait plus de 4 834 blessés et plus de 251 prises en otage. En outre, certains corps sont restés non identifiés en raison de mutilations importantes. Depuis le 7 octobre, au moins 21 otages ont été assassinés par le Hamas ou le Jihad islamique palestinien, tandis que quelques corps d’otages assassinés en captivité ont pu être sauvés. Au total, 8 otages ont été libérés par l'armée israélienne et 111 autres ont été libérés dans le cadre de négociations. Parmi les survivants, 30 femmes ont été victimes d'abus sexuels de la part de leurs ravisseurs. 101 personnes sont toujours retenues en otage ; environ 40 d'entre elles sont mortes et leurs corps sont toujours en captivité.
En réaction aux massacres perpétrés par le Hamas, Tsahal a envahi et détruit une bonne partie du territoire de Gaza, avant de commencer à accentuer ses frappes sur le Liban. Les événements du 7 Octobre ont connu un grand retentissement dans le monde avec des manifestations pro-palestiniennes ou pro-israéliennes. Depuis octobre 2023, on observe une escalade de la violence au Proche-Orient.
One year since the tragic October 7th attack.
— oct7map (@oct7map) October 7, 2024
? 1200 Lives Lost
?? 101 Still Held In Gaza
We honor the victims and pray for the hostages' return. Supported by authorities and volunteers, we've enhanced [https:]] . Share their stories to preserve their memories pic.twitter.com/jYvD3Ln7QAPour compléter
Israël-Hamas : un an après l’attaque du 7 octobre, que retenir de la médiatisation du conflit ? (La revue des médias).
Parce que l’Histoire ne commence pas le 7 octobre. Palestine-Israël, une histoire visuelle (Visionscarto).
Carte animée des alertes de roquettes en Israël depuis le 23 octobre 2023 par @LittleMoiz (MapPorn). Une manière (indirecte) de recenser les frappes aériennes à travers les sirènes.
Carte des frappes israéliennes à partir d'images satellites enregistrant les incendies liés aux explosions (FIRMS).
Carte des frappes sur la période 7 octobre 2023-20 septembre 2024 par Al Jazzeera, à partir des données de l'ACLED.
L'OCHA (ONU) fournit des données sur l'intensité du conflit au Liban du point de vue humanitaire.
Articles connexes
Décrypter le conflit Israël-Hamas à partir de cartes
La carte, objet éminemment politique : la cartographie du Moyen-Orient entre représentation et manipulation
La carte, objet éminemment politique. Les manifestations pro-palestiniennes aux États-Unis et dans le monde
La carte, objet éminemment politique : Nétanyahou menace d'annexer un tiers de la Cisjordanie
La carte, objet éminemment politique : la montée des tensions entre l'Iran et les Etats-Unis
La carte, objet éminemment politique : la question kurde
La carte, objet éminemment politique : les formes du soulèvement en Iran
Le Moyen-Orient, une construction instable et récente : la preuve en cartes et en schémas
Quand Israël et la Palestine « disparaissent » des cartes scolaires. Le cas de l'Arabie saoudite
-
7:30
Est-ce que la complexité des calculs les améliore ?
sur Dans les algorithmesMalgré leurs promesses, les calculs, notamment quand ils s’appliquent au social, sont très souvent défaillants. Pour remédier à leurs limites, l’enjeu est d’accéder à toujours plus de données pour les affiner. La promesse est répétée ad nauseam : c’est en accédant à toujours plus de données que nous améliorerons les calculs ! Un mantra dont il est toujours très difficile de démontrer les limites.
En 2017, le programme d’études conjoint de Princeton et de Columbia sur l’avenir des familles et le bien être des enfants a donné accès à un immense jeu de données de grande qualité sur des centaines d’enfants et leurs familles, invitant plus de 450 chercheurs et 160 équipes de recherches à les utiliser dans le cadre d’un défi de data science visant à améliorer la prévisibilité des trajectoires de vies. Le jeu de données portait sur plus de 4000 familles avec plus de 12 000 variables par familles centrées sur des enfants de la naissance à leurs 9 ans, expliquent les chercheurs (par exemple des données démographiques, des données sur le territoire, sur la santé ou l’évolution professionnelle des parents, sur le comportement, avec des tests cognitifs et de vocabulaire réalisés à intervalles réguliers…).
Pour la moitié des familles, les chercheurs ont également donné accès aux données relatives à ces enfants et familles à l’âge de 15 ans afin que les chercheurs puissent prédire des résultats sur l’évolution sociale de l’autre moitié des familles. Un jeu d’entraînement rare et particulièrement riche qui avait pour ambition de permettre d’améliorer l’exactitude des prédictions sociales. Le défi consistait à prédire les résultats scolaires des enfants, évaluer leurs capacités psychologiques à la persévérance dans l’effort, prédire les difficultés matérielles des familles comme les risques de licenciement ou d’expulsion ainsi que le niveau de formation professionnelle des parents.
Pourtant, aucun des 160 résultats proposés par quelques-uns des meilleurs laboratoires de recherche du monde n’a été particulièrement performant. Aucune solution?malgré la diversité des techniques de machine learning utilisées ? n’a permis de produire des prédictions fiables, rapportent les organisateurs dans le bilan de ce défi.
Les scientifiques ont également comparé les modèles issus du machine learning et les modèles prédictifs traditionnels qui n’utilisent que 4 variables pour produire des prédictions (à savoir en utilisant seulement l’origine éthnique de la mère, le statut marital des parents à la naissance, leur niveau d’éducation et un résultat de l’enfant à 9 ans). Les chercheurs ont montré que les modèles prédictifs traditionnels faisaient d’aussi bonnes prédictions voire de meilleures que les modèles plus élaborés reposant sur le machine learning?même si, les uns comme les autres se révèlent très mauvais à prédire le futur.
Image : De la difficulté à prédire. En bleu, les résultats de prédiction des meilleures méthodes de machine learning sur les différents éléments à prédire depuis les 12 000 variables disponibles dans le cadre du défi des familles fragiles. En vert, les résultats obtenus depuis de simples et traditionnelles régressions linéaires depuis seulement 4 variables, dans les mêmes domaines, à savoir (de gauche à droite) celle des difficultés matérielles, la moyenne scolaire (GPA, Grade point average), la persévérance (Grit), le risque d’expulsion (eviction), la formation professionnelle et le risque de licenciement. Via la présentation d’Arvind Narayanan. Le graphique montre que les prédictions du social sont difficiles et que les meilleures techniques de machine learning ne les améliorent pas vraiment puisqu’elles ne font pas significativement mieux que des calculs plus simples.Ces résultats devraient nous interroger profondément. A l’heure où les data scientists ne cessent d’exiger plus de données pour toujours améliorer leurs prédictions, cette étude nous rappelle que plus de données n’est pas toujours utile. Que l’amélioration est trop souvent marginale pour ne pas dire anecdotique. Pire, la complexité qu’introduit l’IA dans les calculs rend les résultats très difficiles à expliquer, à reproduire, à vérifier… alors que les méthodes traditionnelles?comme la régression statistique qui permet d’identifier les variables qui ont un impact ?, elles, n’utilisent que peu de données, sont compréhensibles, vérifiables et opposables… sans compter qu’elles permettent d’éviter d’accumuler des données problématiques dans les calculs. Collecter peu de données cause moins de problèmes de vie privée, moins de problèmes légaux comme éthiques… et moins de discriminations, explique le chercheur Arvind Narayanan dans une de ses excellentes présentations, où il dénonce les défaillances majeures et durables de l’IA à prédire le social.
Dans le livre que le chercheur signe avec son collègue Sayash Kapoor, AI Snake Oil (Princeton University Press, 2024, non traduit), ils montrent à plusieurs reprises que la complexification des calculs ne les améliore pas toujours ou alors de manière bien trop marginale par rapport à la chape d’opacité que la complexité introduit. Nous n’avons pas besoin de meilleurs calculs (pour autant que leur complexification les améliore) que de calculs qui puissent être redevables, opposables et compréhensibles, rappellent-ils.
Le problème, c’est que le marketing de la technique nous invite massivement à croire le contraire. Trop souvent, nous privilégions une débauche de calculs, là où des calculs simples fonctionnent aussi bien, simplement parce qu’il y a un fort intérêt commercial à vendre des produits de calculs complexes. A l’ère du calcul, tout l’enjeu est de vendre plus de calculs et de nous faire croire qu’ils fonctionnent mieux.
Qu’est-ce que la complexité améliore ? Est-ce que cette amélioration est suffisante ou signifiante pour en valoir le coup ? A l’avantage de qui et au détriment de qui ? Est-ce que cette complexité est nécessaire ?… sont d’autres formes de cette même question que nous ne posons pas suffisamment. Ajouter de la complexité crée de l’opacité et renforce l’asymétrie de pouvoir. Et nous fait oublier que la simplicité des calculs les améliore certainement bien plus que leur complexification.
Hubert Guillaud
PS : 4 ans plus tard, le sociologue Ian Lundberg, responsable du défi de data science sur les trajectoires de vie des enfants, publie une étude pour comprendre pourquoi l’avenir des enfants est si imprévisible, rapporte Nautilus. Les lacunes de la prédiction ne résulteraient pas d’un manque de données mais plutôt de limites fondamentales de notre capacité à prédire les complexités de la vie, du fait notamment d’événements inattendus ainsi que d’erreurs d’apprentissages : quand il y a trop de variables, les algorithmes ont du mal à déceler le bon modèle. C’est là un problème irréductible de la complexité ! Enfin, soulignent les chercheurs, la recherche qualitative fournit des informations qu’il reste très difficile de traduire en chiffres. Les résultats ne s’amélioreront pas avec plus de données ou de calcul : « Les résultats sociaux sont imprévisibles et complexes. Et nous devons simplement faire la paix avec cette imprévisibilité ».
-
16:21
Rapport 2024 sur la paix dans le monde (Institut pour l’économie et la paix)
sur Cartographies numériquesSource : Rapport 2024 sur la paix dans le monde (Institut pour l’économie et la paix)
L’Indice mondial de la paix 2024 révèle que le monde se trouve à la croisée des chemins. Sans effort concerté, le risque d’une recrudescence des conflits majeurs est réel. On compte actuellement 56 conflits, soit le nombre le plus élevé depuis la Seconde Guerre mondiale. Ils sont devenus plus internationaux, 92 pays étant impliqués dans des conflits hors de leurs frontières, soit le nombre le plus élevé depuis la création de l’Indice mondial de la paix en 2008. Le nombre croissant de conflits mineurs accroît la probabilité d’autres conflits majeurs à l’avenir. Par exemple, en 2019, l’Éthiopie, l’Ukraine et Gaza étaient identifiés comme des conflits mineurs, alors qu'ils sont devenus aujourd'hui des foyers de conflits majeurs. Comme en témoigne un autre rapport publié également en 2024, la tendance actuelle est plutôt à la militarisation.
- 97 pays ont vu leur niveau de paix se détériorer, soit plus que n’importe quelle année depuis la création de l’Indice mondial de la paix en 2008.
- Les conflits à Gaza et en Ukraine ont été les principaux facteurs de la baisse mondiale du niveau de paix, le nombre de morts au combat ayant atteint 162 000 en 2023.
- 92 pays sont actuellement impliqués dans des conflits au-delà de leurs frontières, soit plus qu’à n’importe quel moment depuis la création de l’IPG.
- Le premier système de notation militaire en son genre suggère que les capacités militaires des États-Unis sont jusqu’à trois fois supérieures à celles de la Chine.
- L’impact économique mondial de la violence a augmenté pour atteindre 19 100 milliards de dollars en 2023, ce qui représente 13,5 % du PIB mondial. L’exposition aux conflits représente un risque important pour la chaîne d’approvisionnement des gouvernements et des entreprises.
- La militarisation a enregistré sa plus forte détérioration annuelle depuis la création de l’IPG, 108 pays devenant plus militarisés.
- 110 millions de personnes sont soit des réfugiés, soit des déplacés internes en raison de conflits violents, 16 pays accueillant désormais plus d’un demi-million de réfugiés.
- L’Amérique du Nord a connu la plus forte détérioration régionale, provoquée par une augmentation des crimes violents et de la peur de la violence.
Indice de la paix globale en 2024 (source : Global Peace Index 2024)
Créé en 2007, l’Institut pour l’économie et la paix (IEP) vise à influencer les discours mondiaux sur les questions de sécurité, de défense, de terrorisme et de développement. Son objectif est d'utiliser la recherche pour montrer que la paix est une mesure positive et réalisable en faveur du bien-être et du développement. Les recherches de l'IEP sont utilisées par des gouvernements, des institutions universitaires, des groupes de réflexion, des organisations non gouvernementales et des institutions intergouvernementales telles que l'OCDE, le Secrétariat du Commonwealth, la Banque mondiale et les Nations Unies.
Ses rapports, notamment sur l’Indice mondial de la paix, l’Indice mondial du terrorisme ou sur les menaces écologiques, sont essentiels pour les parties prenantes du monde entier. Au cœur de cette approche se trouve l'idée que la paix va au-delà de la simple absence de conflit. Le cadre des Piliers de la paix identifie huit facteurs essentiels pour établir une paix durable, sur la base d’une analyse approfondie des données.
Les 8 Piliers de la paix positive (source : Institut pour l’économie et la paix)
L'IEP publié également chaque année un Rapport sur la paix positive. La paix positive repose sur des attitudes, des institutions et des structures qui créent et maintiennent les sociétés pacifiques. En raison de sa nature systémique, les améliorations de la paix positive non seulement renforcent la paix, mais sont également associées à de nombreux autres résultats souhaitables pour la société, tels qu'une croissance plus élevée du PIB, de meilleures mesures du bien-être, des niveaux plus élevés de résilience et des sociétés plus harmonieuses. Il s’agit d’une théorie du changement social qui explique comment les sociétés se transforment et évoluent. La paix positive décrit un environnement optimal dans lequel le potentiel humain peut s’épanouir. L’Institut a élaboré un cadre conceptuel, connu sous le nom de Piliers de la paix, qui décrit un système de huit facteurs qui fonctionnent ensemble pour construire une paix positive. Dérivés d’une analyse statistique de plus de 40 000 ensembles de données, les Piliers de la paix fournissent une feuille de route pour surmonter l’adversité et les conflits et pour construire une paix durable.
L'état de la paix positive en 2024 (source : Positive Peace Report)
Les cartes concernant ces différents indicateurs sont à visualiser sur le site Vision of humanity avec possibilité de faire des comparaisons par pays et par année.
Lien ajouté le 9 octobre 2024
Lien ajouté le 12 octobre 2024[https:]] #guerre #commémoration#EspritDeGenève pic.twitter.com/R7arW7kjD7
— Une année au lycée (@uneanneeaulycee) October 9, 2024
« Les vraies leçons du Prix Nobel de la paix » (Le Temps). Le combat pour un monde débarrassé de la menace nucléaire mérite un immense respect. Mais est-ce vraiment cela qu’il fallait souligner en 2024 ?
Articles connexesL'Indice de paix mondiale est en baisse depuis plusieurs années
Cartes et données sur les conflits et violences dans le monde (ACLED)Violences envers les enfants et violations de leurs droits à travers le monde
Cartes et données sur le terrorisme dans le monde (de 1970 à nos jours)
Les dépenses militaires dans le monde à partir des données du SIPRI
Analyser et discuter les cartes des "pays à éviter" pour les voyageurs
Etudier les conflits maritimes en Asie en utilisant le site AMTIUtiliser les cartes du CSIS pour étudier les grandes questions géopolitiques du monde contemporain
La carte, objet éminemment politique : la Société des Nations en 1927
-
21:35
Café géo de Saint-Brieuc, 17 octobre 2024 : D’une frontière à l’autre : Etats-Unis et Mexique face à l’immigration clandestine, avec Thomas Cattin
sur Les cafés géographiquesLycée Renan, Saint-Brieuc, 18h-20h
Moins connue que sa jumelle au nord, la frontière sud du Mexique est devenue la principale zone de transit de migrants sans-papiers voyageant vers le nord. Alors que la question de l’immigration cristallise le débat politique aux Etats-Unis, l’administration américaine a fait pression pour que le gouvernement mexicain renforce ses contrôles à sa frontière avec le Guatemala. C’est sur cette frontière stratégique, et plus particulièrement dans la petite ville de Tapachula, que se concentre dès lors un important dispositif policier, militaire et administratif visant à immobiliser les migrants. Le quotidien de Tapachula, surnommée la « ville prison » est bouleversé par la présence de plusieurs milliers « d’étrangers » en attente de visas. Thomas Cattin, doctorant à l’Institut Français de Géopolitique, se propose de montrer les bouleversements générés dans l’espace urbain par ces milliers de migrants.
Thomas Cattin est doctorant à l’Institut Français de Géopolitique. Ses pays d’étude sont le Mexique et les Etats-Unis. Il a publié un ouvrage « Le mur de la discorde » édition Le Grand Continent, 2019.
Amphithéâtre du Lycée Renan, 2, Boulevard Hérault – 22000 – Saint-Brieuc
Entrée libre et gratuite, sans réservation. Accès aux personnes à mobilité réduite
AFFICHE Café Géo Saint-Brieuc 17 octobre 2024
Contact : cafegeo.saintbrieuc@gmail.com
-
18:40
L’autosuffisance alimentaire est-elle possible pour La Réunion ?
sur Cartographies numériques
Billen, G., Garnier, J., Pomet, A. et al. Is food self-sufficiency possible for Reunion Island ? Regional Environnemental Change, 24, 58 (2024). [https:]]Résumé
Dans un contexte d’instabilité politique et économique, l’autosuffisance alimentaire des pays et territoires devient un enjeu brûlant. La Réunion est un petit territoire français densément peuplé et isolé au milieu de l’océan Indien. Le modèle GRAFS, qui permet d’établir des bilans cohérents en utilisant l’azote (N) comme métrique commune pour toutes les cultures et denrées alimentaires, a été appliqué à La Réunion en considérant 11 sous-régions pour tenir compte de la variété des paysages. La Réunion consacre 87 % de sa production végétale en termes de protéines récoltées à l’exportation de sucre et de fruits tropicaux, tandis qu’elle importe 67 % de son approvisionnement alimentaire, 54 % de l’alimentation du bétail et 57 % de tous les apports d’azote fertilisant pour les sols agricoles. Au total, l’approvisionnement d’une tonne d’azote en alimentation nécessite l’importation de 2,7 tonnes d’azote en alimentation humaine, animale et fertilisante. Le modèle a également démontré que l'action simultanée sur trois leviers de changement permettrait d’atteindre l’autosuffisance en termes d’alimentation humaine, animale et fertilisante :
- la généralisation des rotations agroécologiques alternant légumineuses à grains et fourragères, céréales et autres cultures vivrières ;
- la reconnexion de l’élevage à l’agriculture et un meilleur recyclage des fumiers ainsi que des excréments humains ;
- une réduction drastique de l’alimentation animale dans le régime alimentaire réunionnais, jusqu’à 20 % des produits animaux dans l’apport protéique total par habitant, au lieu de la part actuelle de 60 %. La surface dédiée à la culture de la canne à sucre devrait être réduite à 15-25 % de sa valeur actuelle.
Le principal intérêt de l'article est de présenter différents scénarios afin que La Réunion puisse atteindre la souveraineté alimentaire. Cet objectif est incompatible avec la spécialisation actuelle de l’Île dans la production sucrière. L’autonomie du système agro-alimentaire de la Réunion, est biophysiquement possible, moyennant des bouleversements structurels considérables.
Pour accéder à un article plus simple et en français présentant les principales conclusions de l'article, voir : « L’île de La Réunion pourrait-elle atteindre la souveraineté alimentaire ? » (The Conversation).
Conférence sur le développement durable et les risques à La Réunion (INSEE/DEAL). Jeudi 26 septembre 2024 (Université de La Réunion - INSPE).
Lien ajouté le 10 octobre 2024
Intervenantes : Caroline COUDRIN (DEAL Réunion) et Aurore FLEURET (INSEE Réunion)
La conférence présente l'évolution des indicateurs du développement durable à La Réunion sur ces 20 dernières années. Cette étude permet d'avoir un panorama social, économique et environnemental de La Réunion au travers d'une trentaine d'indicateurs. Leur évolution est analysée et comparée aux cibles réglementaires nationales ou locales quand elles existent.
L'exposition de la population réunionnaise à certains risques et nuisances permet d'identifier les populations vivant dans des zones soumises à des risques (inondations et mouvements de terrain) et des nuisances (bruits routiers et mauvaise qualité de l'eau).
Pour accéder aux différentes parties de la conférence :
0:00 - 0:18 : Introduction. Les enjeux éducatifs du développement durable et de l'éducation aux risques (S. Genevois)
0:19 - 0:51 : Une économie en croissance, une pauvreté et des inégalités en baisse, mais toujours peu d’emplois (A. Fleuret)
0:52 - 1:16 : Une population davantage diplômée, une vie associative en essor, des violences plus fréquentes qu'ailleurs mais en baisse (A. Fleuret)
1:17 - 1:33 : Santé et conditions de logement s’améliorent, mais les enjeux d’environnement et d’accompagnement du vieillissement restent forts (A. Fleuret et C. Coudrin)
1:34 -2:08 : La Réunion face au défi du changement climatique (C. Coudrin)
2:09 - 2:18 : Malgré les efforts de protection, la biodiversité est de plus en plus menacée (C. Coudrin)
2:19 - 2:26 : À La Réunion, une même exposition aux risques et nuisances, quel que soit le niveau de vie (A. Fleuret)
Articles connexes
L'insécurité alimentaire dans le monde (rapport du FSIN)
Les grands enjeux alimentaires à travers une série de story maps du National Geographic
Des différentes manières de cartographier la pauvreté dans le monde
Atlas des Objectifs de développement durable (Banque mondiale)
Estimation du PIB agricole à l'échelle mondiale sur une trame de 10x10km²Cartes et données sur l'occupation des sols en France (à télécharger sur le site Theia)
Un Atlas de la PAC pour une autre politique agricole commune
Publication des résultats du recensement agricole 2020
-
7:30
Les mythes de l’IA
sur Dans les algorithmesLa technologie ne produit pas que des solutions, elle produit aussi beaucoup de promesses, d’imaginaires, d’idéologies et de mythes. Derrière le marketing des produits et des services, les entreprises déploient des métaphores simples et convaincantes qui réduisent la complexité des transformations à l’œuvre. « Ils pollinisent l’imagination sociale avec des métaphores qui mènent à des conclusions, et ces conclusions façonnent une compréhension collective » plus ou moins fidèle à la réalité. Les discours sur l’IA générative reposent sur de nombreux mythes et promesses, explique Eryk Salvaggio pour Tech Policy Press qui tente d’en dresser la liste. Ces promesses produisent souvent une compréhension erronée du fonctionnement de l’IA et induisent en erreur ceux qui veulent les utiliser.
Il y a d’abord les mythes du contrôle qui visent à nous faire croire que ces systèmes sont plus fiables qu’ils ne sont. Parmi les mythes du contrôle, il y a celui de la productivité, qui nous répète que ces systèmes nous font gagner du temps, nous font produire plus rapidement. « Le mythe de la productivité suggère que tout ce à quoi nous passons du temps peut être automatisé ». L’écriture se réduit à un moyen pour remplir une page plutôt qu’un processus de réflexion. Le mythe du prompt suggère que nous aurions un contrôle important sur ces systèmes, nous faisant oublier que très souvent, nos mots mêmes sont modifiés avant d’atteindre le modèle, via des filtres qui vont modifier nos invites elles-mêmes. D’où l’incessant travail à les peaufiner pour améliorer le résultat. « Le mythe de l’invite permet de masquer le contrôle que le système exerce sur l’utilisateur en suggérant que l’utilisateur contrôle le système ».
Outre le mythe du contrôle, on trouve également le mythe de l’intelligence. Le mythe de l’intelligence confond le fait que le développement des systèmes d’IA aient été inspirés par des idées sur le fonctionnement de la pensée avec la capacité à penser. On nous répète que ces systèmes pensent, raisonnent, sont intelligents… suggérant également qu’ils devraient être libres d’apprendre comme nous le sommes, pour mieux faire oublier que leur apprentissage repose sur un vol massif de données et non pas sur une liberté éducative. Parmi les mythes de l’intelligence, on trouve donc d’abord le mythe de l’apprentissage. Mais cette métaphore de l’apprentissage elle aussi nous induit en erreur. Ces modèles n’apprennent pas. Ils sont surtout le produit de l’analyse de données. Un modèle n’évolue pas par sélection naturelle : il est optimisé pour un ensemble de conditions dans lesquelles des motifs spécifiques sont renforcés. Ce n’est pas l’IA qui collecte des données pour en tirer des enseignements, mais les entreprises qui collectent des données puis optimisent des modèles pour produire des représentations de ces données à des fins lucratives. Le mythe de l’apprentissage vise à produire une équivalence entre les systèmes informatiques et la façon dont nous mêmes apprenons, alors que les deux sont profondément différents et n’ont pas la même portée ni la même valeur sociale. Le mythe de l’apprentissage permet surtout de minimiser la valeur des données sans lesquelles ces systèmes n’existent pas.
Le mythe de la créativité fait lui aussi partie du mythe de l’intelligence. Il entretient une confusion entre le processus créatif et les résultats créatifs. Si les artistes peuvent être créatifs avec des produits d’IA, les systèmes d’IA génératifs, eux, ne sont pas créatifs : ils ne peuvent pas s’écarter des processus qui leurs sont assignés, hormis collision accidentelles. Le mythe de la créativité de l’IA la redéfinit comme un processus strict qui relèverait d’une série d’étapes, une méthode de production. Il confond le processus de créativité avec le produit de la créativité. Et là encore, cette confusion permet de suggérer que le modèle devrait avoir des droits similaires à ceux des humains.
Salvaggio distingue une 3e classe de mythes : les mythes futuristes qui visent à produire un agenda d’innovation. Ils spéculent sur l’avenir pour mieux invisibiliser les défis du présent, en affirmant continûment que les problèmes seront résolus. Dans ces mythes du futur, il y a d’abord le mythe du passage à l’échelle ou de l’évolutivité : les problèmes de l’IA seront améliorés avec plus de données. Mais ce n’est pas en accumulant plus de données biaisées que nous produiront moins de résultats biaisés. L’augmentation des données permet surtout des améliorations incrémentales et limitées, bien loin de la promesse d’une quelconque intelligence générale. Aujourd’hui, les avantages semblent aller surtout vers des modèles plus petits mais reposant sur des données plus organisées et mieux préparées. Le mythe de l’évolutivité a lui aussi pour fonction d’agir sur le marché, il permet de suggérer que pour s’accomplir, l’IA ne doit pas être entravée dans sa course aux données. Il permet de mobiliser les financements comme les ressources… sans limites. Oubliant que plus les systèmes seront volumineux, plus ils seront opaques et pourront échapper aux réglementations.
Un autre mythe du futur est le mythe du comportement émergent. Mais qu’est-ce qui conduit à un comportement émergent ? « Est-ce la collecte de grandes quantités d’écrits qui conduit à une surperintelligence ? Ou est-ce plutôt la conséquence de la précipitation à intégrer divers systèmes d’IA dans des tâches de prise de décision pour lesquelles ils ne sont pas adaptés ? » Les risques de l’IA ne reposent pas sur le fait qu’elles deviennent des machines pensantes, mais peut-être bien plus sur le fait qu’elles deviennent des machines agissantes, dans des chaînes de décisions défaillantes.
Salvaggio plaide pour que nous remettions en question ces mythes. « Nous devons travailler ensemble pour créer une compréhension plus rigoureuse de ce que ces technologies font (et ne font pas) plutôt que d’élaborer des déclarations de valeur (et des lois) qui adhèrent aux fictions des entreprises ».
C’est peut-être oublier un peu rapidement la valeur des mythes et des promesses technologiques. Les mythes de l’IA visent à produire non seulement une perception confuse de leur réalité, mais à influer sur les transformations légales. Les promesses et les mythes participent d’un narratif pour faire évoluer le droit en imposant un récit qui légitime le pouvoir perturbateur de la technologie. Les mythes permettent de crédibiliser les technologies, expliquait déjà le chercheur Marc Audetat dans l’excellent livre collectif Sciences et technologies émergentes : pourquoi tant de promesses ? (Hermann, 2015). Comme le disait l’ingénieur Pierre-Benoît Joly dans ces pages, « les promesses technoscientifiques ont pour fonction de créer un état de nécessité qui permet de cacher des intérêts particuliers ». Les mythes et les croyances de l’IA ont d’abord et avant tout pour fonction de produire le pouvoir de l’IA et de ceux qui la déploient.
Les 9 mythes de l’IA
-
16:39
Variabilisez vos profils QGIS avec QDT
sur OslandiaEnclosure: [download]
Variables d’environnement ?Les variables d’environnement sont, comme leur nom l’indique, des paires clé/valeur permettant de décrire et paramétrer des applicatifs selon un environnement. Une variable peut intervenir à différents niveaux ou périmètres : système d’exploitation, session avec droits d’administration, annuaire/domaine, session utilisateur, applicatif, processus.
Gestion des variables d’environnement sur Windows 11
Si vous êtes familier/ère avec l’utilisation de QGIS, c’est le même principe que pour les variables prédéfinies, liées à un projet, à des couches, etc. et utilisables à différents endroits (expressions, mode atlas/rapport…). D’ailleurs QGIS gère également des variables d’environnement à l’échelle de son installation et par profil (voir la documentation).
Remplacement dynamique par QDTDans QDT, vous pouvez définir des variables dans vos fichiers de configuration `QGIS3.ini` et `QGISCUSTOMIZATION3.ini`, qui seront ensuite interpolées avec les valeurs des variables d’environnement au moment du déploiement. Cette approche permet de paramétrer de manière flexible divers aspects de la configuration de QGIS sans modifier manuellement les fichiers sur chaque machine.
3 avantages :
– Flexibilité : adapter facilement la configuration à différentes machines sans modifications manuelles des fichiers.
– Maintenance réduite : gérez une seule version des fichiers QGIS*3.ini qui s’adapte dynamiquement aux conditions locales.
– Sécurité : séparer les données sensibles de la configuration en les conservant dans les variables d’environnement.Cet usage des variables est particulièrement utile dans des environnements où les chemins d’accès ou les configurations peuvent varier significativement entre les déploiements, permettant une personnalisation sans effort et à la volée de l’installation QGIS.
En bonus, nous avons intégré un mécanisme primaire de sauvegarde des paramètres en cas de conflit entre les valeurs poussées par QDT et celles changées par l’utilisateur. Concrètement, cela se traduit par des sections préfixées directement dans le fichier INI :
-
9:41
NEOGEO et SOGEFI allient leur catalogue de données et leur SIG pour les besoins de leurs utilisateurs
sur Neogeo TechnologiesUne solution mutualisée donnant une gamme complète d’outils pour répondre aux besoins cartographiques des acteurs publics.
Chez NEOGEO, nous avons décidé de nous associer à SOGEFI pour offrir à nos utilisateurs toute la puissance des données. Grâce à cette collaboration, la plateforme OneGeo Suite de NEOGEO est enrichie par les applications métier Mon Territoire de SOGEFI.
Ensemble, nous proposons une solution mutualisée qui fournit une gamme complète d’outils adaptés aux besoins des administrateurs, des gestionnaires de données, des services techniques, des élus et du grand public.
La combinaison de nos deux solutions offre une réponse précise et adaptée aux divers acteurs d’un territoire. Elle repose sur un socle commun robuste solide, structuré et évolutif centré sur les données, ce qui permet de créer un cycle vertueux de gestion de la donnée pour l’ensemble des acteurs de la structure, au bénéfice de leur territoire. Le développement de nos solutions respectives est axé sur l’expérience utilisateur, chaque outil étant conçu pour répondre aux besoins spécifiques des différents profils d’acteurs impliqués.
OneGeo Suite propose aux administrateurs une gamme de modules pour gérer les référentiels métiers et satisfaire aux exigences de publication et de partage des données Open Data. OGS valorise ces données grâce à des modes de publication et de reporting (Dataviz) adaptés aux besoins des utilisateurs et de leurs publics, qu’il s’agisse de partenaires ou du grand public. Avec son module Explorer pour la recherche et la consultation intuitive des jeux de données, son module Maps pour les fonctionnalités cartographiques avancées, et son module Portal pour un portail collaboratif, OneGeo Suite offre une solution complète et innovante. Cette suite est fondée sur des principes de mutualisation et de co-construction d’outils open source.
Mon Territoire propose une gamme complète d’outils métiers prêts à l’emploi pour les services techniques et les collectivités. Couvrant de nombreuses compétences, la gamme Mon Territoire utilise une sélection de données Open Data pour assister les agents responsables de l’urbanisme, de l’habitat, des réseaux, de la voirie et du développement économique.
Schéma décrivant les usages et les rôles au travers des applications fusionnées OneGeo Suite et Mon Territoire
« La gamme d’outils clé en main proposée par SOGEFI permet de compléter notre solution OneGeo Suite de catalogage et de diffusion de données par des modules métiers opérationnels directement accessibles aux utilisateurs de la plateforme.L’interopérabilité des deux solutions permet de mutualiser l’accès aux référentiels cartographiques et aux bases de données métier et le partage des droits sur les différents jeux de données offre la possibilité de définir une véritable stratégie de gouvernance des données. Enfin l’accès aux API Opendata proposées par SOGEFI et alimentées en temps réel permet d’enrichir l’offre de référentiels proposés dans le catalogue de données mis à disposition ».
« OneGeo Suite est la réponse idéale pour les structures départementales et régionales qui disposent d’un socle important de données. Les administrateurs de ces dernières disposent alors de tous les outils pour gérer ces importants volumes de données du catalogage à sa publication pour ses adhérents. OneGeo Suite, plateforme complètement Open Source, est totalement interopérable avec notre gamme Mon Territoire, elle apporte une vraie valeur ajoutée pour la diffusion et la valorisation de l’ensemble des données ainsi consolidées au fil du temps par les services et permet à l’IDG la mise en place d’un cycle vertueux de l’information pour l’ensemble de ces acteurs. »
L’un des avantages de notre collaboration est de pouvoir déployer rapidement des solutions prêtes à l’emploi grâce à un accompagnement spécifique par métiers et compétences. Une équipe pluridisciplinaire est mobilisée pour le déploiement de notre offre commune et le planning établi peut mobiliser différentes équipes en parallèle pour le bon avancement du projet. Chacun sur son métier, NEOGEO et SOGEFI ont à cœur de vous accompagner et de vous conseiller sur vos problématiques. Chacun mène une veille permanente sur l’Opendata ainsi que sur les technologies du domaine et vous propose de vous en faire bénéficier au travers des solutions et des services que nous mettons en place depuis plusieurs années. Construit autour de communautés d’utilisateurs, nos deux solutions sont reconnues sur le marché depuis de nombreuses années, elles sont au service de nombreux usagers qui nous font part de leurs besoins d’évolution et idées pour les versions à venir notamment au travers d’espace d’échanges dédiés (forum, page web dédié…). Ces remontées d’informations sont précieuses pour nos équipes afin de définir les feuilles de route de nos produits.
« Les outils métiers de SOGEFI sont tout à fait en adéquation avec les besoins et les usages des collectivités de toutes tailles dans leurs tâches du quotidien. Les partenariats existants avec Géofoncier sont un vrai plus pour les secrétaires de mairie. Nous pouvons également répondre aux besoins des services techniques des collectivités, des syndicats des eaux, d’assainissement. Les solution OneGeo Suite va nous permettre de maitriser nos données et de les mettre à disposition de nos utilisateurs et partenaires de manière simple et structurée (flux, datavisualisation, carte Web).? Le tout parfaitement intégré à notre SI et répondant à nos exigences en termes d’administration des comptes utilisateurs et des droits sur les données. »
« Depuis une douzaine d’année, la plateforme territoriale Guyane-SIG favorise l’accessibilité des données spatiales et la démocratisation de leurs usages sur la Guyane. En 2020, la Collectivité Territoriale de Guyane a initié un travail de modernisation de l’ensemble des composants fonctionnels en deux étapes :
-
-
- Nous avions besoins d’un outil performant pour proposer une lecture facilitée de l’information foncière pour l’ensemble de nos partenaires. Les attentes étaient fortes et avec Mon Territoire Carto, nous avons pu bénéficier rapidement d’un outil ergonomique mobilisant de nombreuses données en Opendata que nous avons pu compléter par des productions endogènes.
- Puis les efforts se sont portés sur les outils collaboratifs de partage et de valorisation des données dans le respect des standards. Avec la suite OneGeo, nos partenaires peuvent désormais publier en quelques clics leurs données.
-
L’accompagnement nous permet également de proposer régulièrement à nos partenaires des webinaires de présentation des évolutions fonctionnelles.
NEOGEO et SOGEFI sont ravis de poursuivre et renforcer leur partenariat déjà éprouvé depuis plusieurs années auprès du Portail Géofoncier. Ce portail porté par l’Ordre des Géomètres-Expert est aujourd’hui une référence nationale dans la valorisation de l’information foncière. L’ambition portée par Géofoncier a su s’appuyer sur la complémentarité des expertises de chacun. Les différents projets ont nécessité un travail de coordination et d’enrichissement mutuel des pratiques et technologies mobilisées par les deux sociétés dans un objectif commun. Nos équipes se connaissent, elles ont l’habitude de travailler ensemble et savent mobiliser les ressources en interne pour assurer une couverture élargie des compétences nécessaires aux projets.
« Depuis de nombreuses années, NEOGEO et SOGEFI sont nos partenaires privilégiés chez Géofoncier. Leurs expertises complémentaires et incontestées dans le domaine de la diffusion et de la valorisation de la donnée cartographique, associée à leurs écoutes attentives de nos besoins, font de NEOGEO et SOGEFI un groupement pertinent et essentiel à notre réussite. Leur engagement fort au quotidien à fournir en concertation des solutions complètes et pérennes ont grandement contribué au succès de Géofoncier. Nous sommes reconnaissants de pouvoir compter sur ces équipes d’experts aussi fiables et compétentes pour nous accompagner dans notre croissance continue.
NEOGEO possède une expertise avérée dans la mise en œuvre de solutions innovantes de partage, de valorisation et de visualisation de données géographiques auprès d’un large public. NEOGEO développe et met en place depuis sa création en 2008 des infrastructures de données géographiques et des plateformes open-source. NEOGEO a intégré en 2022 le groupe Geofit (leader français dans l’acquisition de données spatiales), permettant ainsi de renforcer ses compétences (équipe de 40 collaborateurs) et ses références (une cinquantaine de plateformes cartographiques majeures déployées en France et à l’étranger). C’est aussi la fusion des savoirs faires technologiques des deux structures qui a permis de donner le jour à la solution OneGeo Suite.
SOGEFI, expert de la data et du webmapping depuis 33 ans propose des solutions pour la gestion et l’exploitation de données par la cartographie. La gamme Mon Territoire est réservée aux collectivités pour la gestion par métier de leur territoire. SOGEFI place l’utilisateur au cœur de ses réflexions et de sa feuille de route et son expertise de la donnée lui permet de proposer des exploitations poussées de la donnée au sein de ses applications. La société équipe aujourd’hui plus de 1000 collectivités et entreprises avec ses solutions web-SIG cadastre, urbanisme, réseaux et voirie. Elle accompagne également le portail Géofoncier sur son expertise de la donnée par la mise à disposition de ses API. »
-
Recent items
-
16:46
OTB Team: OTB User Days 2024
sur Planet OSGeoDear all, The OTB User Days 2024 will be held from November 21th to November 22th in Toulouse, France. The event will be held at Artilect Fablab On November 21th, presentations will be held in the morning, and brainstorming in the afternoon : On November 22th : Please register here if you plan to come and you […]
-
15:00
Sortie de QField 3.4 « Ebo »
sur OslandiaOslandia est le partenaire principal d’OPENGIS.ch pour QField. Nous sommes fiers aujourd’hui de relayer l’annonce de la nouvelle version 3.4 « Ebo » de QField. Cette version introduit le « Geofencing » et le support d’algorithmes de traitements.
GeofencingUn nouveau framework pour le « Geofencing » est arrivé, qui permet aux utilisateurs de configurer le comportement de QField avec des zones-barrières. En fonction de la géolocalisation de l’utilisateur et des zones-barrières définies, QField va pouvoir afficher des alertes ou autoriser l’édition. Les zones-barrières sont définies au niveau du projet, par l’intermédiaire de polygones d’une couche vectorielle. Il existe trois options de comportement de geofencing dans cette version de QField :
- Alerter l’utilisateur lorsqu’il est à l’intérieur d’une zone définie
- Alerter l’utilisateur lorsqu’il est à l’extérieur de toutes les zones définies
- Informer l’utilisateur lorsqu’il entre ou sort d’une zone polygonale donnée
En plus de l’alerte ou l’information, les utilisateurs peuvent aussi configurer QField pour que l’édition soit désactivée lorsqu’ils sont à l’intérieur d’une zone ou à l’extérieur des zones définies. La configuration de cette fonctionnalité se fait dans QGIS par le plugin QFieldSync.
Traitement des objetsQField offre également dans cette version un accès aux algorithmes de traitements géométriques. Une « processing toolbox » qui contient plus d’une dizaine d’algorithmes est accessible directement dans QField, et permet de manipuler les géométries numérisées sur le terrain. Cette fonctionnalité repose sur le cœur de QGIS, plus particulièrement sur le framework Processing de QGIS et les nombreux algorithmes disponibles dans ce module.
La disponibilité de ces algorithmes dans QField ouvre la porte à de nombreuses nouvelles possibilités pour la modification des géométries : orthogonalisation, lissage, tampon, rotation, transformation affine, etc. Lorsque l’utilisateur configure les paramètres d’un algorithme, une prévisualisation en grisé de la sortie est visible en surimpression du canevas de carte.
Pour accéder à la boîte de traitement de QField, sélectionnez un ou plusieurs objets avec une pression longue dans la liste des objets de la carte, ouvrez le menu à 3 points et cliquez sur l’action « Traiter les objets sélectionnés ».
Si cette fonctionnalité vous plaît, vous pouvez remercier le National Land Survey of Finland, qui a financé ces développements.
Améliorations de la caméraLa caméra de QField a de nouvelles fonctionnalités : les ratios et dimensions des photos sont personnalisables. Elle permet également d’incruster dans la photo capturée les éléments de date de captation, et de localisation. Les dernières versions de QField ont largement amélioré la fonctionnalité de caméra QField, de telle sorte que c’est désormais la solution par défaut dans QField pour la prise de vue. Les utilisateurs peuvent toujours désactiver cette caméra pour utiliser la caméra native de leur système.
.. et toujours plusDe nombreux autres développements ont vu le jour pour cette version, tel que l’édition des variables projet par un éditeur, l’intégration de la documentation dans la barre de recherche, ou la possibilité de rechercher dans la liste des projets cloud. Toutes ces fonctionnalités sont détaillées dans le Changelog complet de la 3.4.
À votre tour !Vous avez des questions sur QField ? Intéressés par sa mise en œuvre, n’hésitez pas à contacter Oslandia !
-
14:24
Makina Corpus Territoires participe au Meet'Up Greentech 2024 et aux Data Challenges Adapt'Action
sur Makina CorpusLes 15 et 16 octobre à Paris, retrouvez l’équipe Makina Corpus Territoires au Meet’Up Greentech 2024. Nos solutions libres dédiées à la gestion de l’eau GeoRivière et Récolt’Ô participent aux Data Challenges Adapt’Action.
-
11:32
Incident en cours Géoplateforme
sur Toute l’actualité des Geoservices de l'IGNIncident en cours Géoplateforme
-
11:00
Mappery: Gordon the Globe
sur Planet OSGeoEnclosure: [download]
Elizabeth spotted this advert on the London Underground. Is Gordon smiling or shocked or ..?
-
9:34
Animal Migration Tracking
sur Google Maps ManiaThe Atlas of Ungulate MigrationUngulates, large herbivorous mammals with hooves, are a vital part of many ecosystems across the globe. These animals, including species like wildebeest, caribou, elk, and zebra, often migrate seasonally over vast distances. These migrations play a crucial role in maintaining the resilience of ecosystems, supporting biodiversity, and even sustaining local economies
-
17:46
Oslandia: New release for QField : 3.4 “Ebo”
sur Planet OSGeoOslandia is the main partner of OPENGIS.ch around QField. We are proud today to forward the announcement of the new QField release 3.4 “Ebo”.
Main highlightsA new geofencing framework has landed, enabling users to configure QField behaviors in relation to geofenced areas and user positioning. Geofenced areas are defined at the project-level and shaped by polygons from a chosen vector layer. The three available geofencing behaviours in this new release are:
- Alert user when inside an area polygon;
- Alert user when outside all defined area polygons and
- Inform the user when entering and leaving an area polygons.
In addition to being alerted or informed, users can also prevent digitizing of features when being alerted by the first or second behaviour. The configuration of this functionality is done in QGIS using QFieldSync.
Pro tip: geofencing settings are embedded within projects, which means it is easy to deploy these constraints to a team of field workers through QFieldCloud. Thanks Terrex Seismic for sponsoring this functionality.
QField now offers users access to a brand new processing toolbox containing over a dozen algorithms for manipulating digitized geometries directly in the field. As with many parts of QField, this feature relies on QGIS’ core library, namely its processing framework and the numerous, well-maintained algorithms it comes with.
The algorithms exposed in QField unlock many useful functionalities for refining geometries, including orthogonalization, smoothing, buffering, rotation, affine transformation, etc. As users configure algorithms’ parameters, a grey preview of the output will be visible as an overlay on top of the map canvas.
To reach the processing toolbox in QField, select one or more features by long-pressing on them in the features list, open the 3-dot menu and click on the process selected feature(s) action. Are you excited about this one? Send your thanks to the National Land Survey of Finland, who’s support made this a reality.
QField’s camera has gained support for customized ratio and resolution of photos, as well as the ability to stamp details – date and time as well as location details – onto captured photos. In fact, QField’s own camera has received so much attention in the last few releases that it was decided to make it the default one. On supported platforms, users can switch to their OS camera by disabling the native camera option found at the bottom of the QField settings’ general tab.
Wait, there’s moreThere are plenty more improvements packed into this release from project variables editing using a revamped variables editor through to integration of QField documentation help in the search bar and the ability to search cloud project lists. Read the full 3.4 changelog to know more, and enjoy the release!
A question concerning QField ? Interested in QField deployment ? Do not hesitate to contact Oslandia to discuss your project !
-
12:20
The American Election & the Rest of the World
sur Google Maps ManiaWith the world closely watching the U.S. 2024 election, what could a Trump or Harris presidency mean for international stability? From rising tensions in Eastern Europe to critical climate action, the global implications of the U.S. election stretch far beyond American borders.The European Union Institute for Security Studies (EUISS) has been exploring "how a Trump or a Harris presidency
-
11:50
Is Antarctica greening?
sur Séries temporelles (CESBIO)In a recent study, Roland and Bartlett et al. (2024) showed that the Antarctic Peninsula is « greening », i.e. the area covered by vegetation is growing. This article published in Nature Geoscience was featured in many media outlets. The authors drew this conclusion from the analysis of 35 years of Landsat images. More specifically, they computed a composite image of the maximum NDVI observed in March of every year since 1986. They used this annual time series to study the evolution of the area exceeding an NDVI threshold of 0.2. I was skeptical about the results because we showed recently that greening trends derived from annual maximum NDVI can be overestimated because the number of available Landsat observations increases over time (Bayle et al. 2024).
In temperate and sub-polar regions, the NDVI time series at a Landsat pixel is expected to look like this if there is a « greening ».
Such time series can be easily generated in Google Earth Engine from images acquired by Landsat 5, 7 and 8. A single line of code creates a global collection of Landsat images spanning the past 40 years!
var Landsat = ee.ImageCollection('LANDSAT/LC08/C02/T2_TOA').merge(ee.ImageCollection('LANDSAT/LE07/C02/T2_TOA')).merge(ee.ImageCollection('LANDSAT/LT05/C02/T2_TOA'))
However, the effective revisit frequency of Landsat has substantially increased over this period, which means that more clear-sky observations are generally available in the end of the study period. As a result, it is more likely to observe an NDVI value that is close to the actual maximum in the end of the study period. This statistical artefact can lead to the false conclusion that a pixel is « greening ». It can also lead to overestimate the actual NDVI increase in greening areas. For example, Bayle et al. (2024) showed that up to 50% of the greening trend in high-elevation alpine grasslands computed by Rumpf et al. (2022) can be explained by this effect.
It is possible to check if the magnitude of the greening was also overestimated in this Antarctic Peninsula study, because the authors have shared their code. I could reproduce their calculations using the mean instead of the maximum to create the annual composite from March NDVI images. Unlike the maximum, the sample mean is an unbiased estimator of the actual mean of the data. Therefore, it should not lead to a systematic under- or overestimation of the mean NDVI depending on the number of samples.
The average number of observations and the areal extent of « green » areas over the Antarctic peninsula in March from Landsat (blue curve in the bottom panel reproduces Fig. 2 in Sustained greening of the Antarctic Peninsula observed from satellites)I found that their results are robust and mostly insensitive to the changes in revisit. The main conclusion of the paper, « a clear but nonlinear trend towards a greater area of vegetation cover » remains unquestionable. The Mann-Kendall tests yield similar results with both approaches (mean vs. max.). The main differences are related to the area changes by period (cf. supplement Tab. 5.1 in R24). The change from 1986 to 2021 is 2.30 km² per decade using the mean NDVI whereas it is 3.13 km² per decade using the max NDVI (the value quoted the paper is 3.17 km² per decade*). The low impact of the revisit in this case is probably due to the fact that the authors restricted their analysis to a very short period of time (1 month), therefore on average there is only one available observation to create the annual NDVI composite even in the end of the study period. The magnitude of the area change might be somewhat overestimated but it is difficult to give a more accurate estimate given the available data.
Area change in km2/decade
method maxNDVI meanNDVI 1986-2021 3.13 2.30 1986-2004 2.77 2.32 2004-2016 2.94 3.61 2016-2021 4.91 -0.93 More details about my analysis and how to reproduce it in this repository: [https:]] .
* I could not find the exact same values as the authors in most of the cases, a possible explanation is given by the authors « Due to changes applied to imagery in the compilation of LANDSAT collection 2, this code cannot gaurantee exact reproduction of identical results to the paper, though the overall trends observed are highly comparable. »
Deception Island, Antarctica in February 2018References
Roland, T. P., Bartlett, O. T., Charman, D. J., Anderson, K., Hodgson, D. A., Amesbury, M. J., Maclean, I., Fretwell, P. T., & Fleming, A. (2024). Sustained greening of the Antarctic Peninsula observed from satellites. Nature Geoscience, 1–6. [https:]] Rumpf, S. B., Gravey, M., Brönnimann, O., Luoto, M., Cianfrani, C., Mariethoz, G., & Guisan, A. (2022). From white to green: Snow cover loss and increased vegetation productivity in the European Alps. Science, 376(6597), 1119–1122. [https:]] Bayle, A., Gascoin, S., Berner, L. T., & Choler, P. (2024). Landsat-based greening trends in alpine ecosystems are inflated by multidecadal increases in summer observations. In Ecography. [https:]]
-
11:32
Incident en cours Géoplateforme
sur Toute l’actualité des Geoservices de l'IGNIncident en cours Géoplateforme -
11:32
Incident en cours Géoplateforme (Résolu)
sur Toute l’actualité des Geoservices de l'IGNIncident en cours Géoplateforme (Résolu)
-
11:00
Mappery: The Map Shop
sur Planet OSGeoEnclosure: [download]
Reinder spotted this selection of maps for sale in a souvenir shop at Wawel Castle, Cracow, Poland. They like a map there!
-
9:22
Explorez l'Auvergne-Rhône-Alpes à vélo
sur Makina CorpusUne application web autour du véloSi vous êtes un passionné de vélo, vous allez adorer la nouvelle application web laregionduvelo.fr.
-
6:45
OPENGIS.ch: QField 3.4 “Ebo”: Geofencing and processing out of the box
sur Planet OSGeoQField 3.4 is out, and it won’t disappoint. It has tons of new features that continue to push the limits of what users can do in the field.
Main highlights
A new geofencing framework has landed, enabling users to configure QField behaviors in relation to geofenced areas and user positioning. Geofenced areas are defined at the project-level and shaped by polygons from a chosen vector layer. The three available geofencing behaviours in this new release are:- Alert user when inside an area polygon;
- Alert user when outside all defined area polygons and
- Inform the user when entering and leaving an area polygons.
In addition to being alerted or informed, users can also prevent digitizing of features when being alerted by the first or second behaviour. The configuration of this functionality is done in QGIS using QFieldSync.
Pro tip: geofencing settings are embedded within projects, which means it is easy to deploy these constraints to a team of field workers through QFieldCloud. Thanks Terrex Seismic for sponsoring this functionality.
QField now offers users access to a brand new processing toolbox containing over a dozen algorithms for manipulating digitized geometries directly in the field. As with many parts of QField, this feature relies on QGIS’ core library, namely its processing framework and the numerous, well-maintained algorithms it comes with.
The algorithms exposed in QField unlock many useful functionalities for refining geometries, including orthogonalization, smoothing, buffering, rotation, affine transformation, etc. As users configure algorithms’ parameters, a grey preview of the output will be visible as an overlay on top of the map canvas.
To reach the processing toolbox in QField, select one or more features by long-pressing on them in the features list, open the 3-dot menu and click on the process selected feature(s) action. Are you excited about this one? Send your thanks to the National Land Survey of Finland, who’s support made this a reality.
QField’s camera has gained support for customized ratio and resolution of photos, as well as the ability to stamp details – date and time as well as location details – onto captured photos. In fact, QField’s own camera has received so much attention in the last few releases that we have decided to make it the default one. On supported platforms, users can switch to their OS camera by disabling the native camera option found at the bottom of the QField settings’ general tab.
Wait, there’s moreThere are plenty more improvements packed into this release from project variables editing using a revamped variables editor through to integration of QField documentation help in the search bar and the ability to search cloud project lists. Read the full 3.4 changelog to know more, and enjoy the release!
-
18:49
QGIS Blog: Plugin Update – September, 2024
sur Planet OSGeoIn September a total of 20 new plugins were published in the QGIS plugin repository.
HighlightIn the last month some AI-related plugins became available for users, namely IntelliGeo and TreeEyed, which in addition to the increasing number of tools, greatly contribute for the adaptation of QGIS to current and future needs, showcasing it as one of the best options for beginners and experts alike to conduct a number of geospatial analyses.
As stated by their authors, with IntelliGeo there’s a chat interface where users can detail their requests, and the output is either a PyQGIS code or a graphical processing model, which can in turn be executed directly in QGIS.
As for the TreeEyed plugin, its main objective is the monitoring of trees by generating vector and raster datasets from high resolution RGB imagery.
OverviewHere follows the quick overview in reverse chronological order. If any of the names or short descriptions catches your attention, you can find the direct link to the plugin page in the table below:
Project Setup Sets up a QGIS project to my personal specs. Continuous Network Analysis (Processing) Processing plugin that adds several scripts to assist in decision making and validation of line-type vector networks by generating inconsistencies, further expanding the “Network Analysis” tool. Oslandia Official plugin for Oslandia customers. Reach Enables the use of real transit time as a spatial predicate for selects and joins. Data Clock Polar plot of seasonal data. QGIS Light QGIS made simple – a light user interface for core GIS functions. Attribute Searcher A minimalistic plugin to search for values in attributes quick and easy. Topo Maps ????????Generate Topographic Maps. IntelliGeo IntelliGeo is QGIS plugin that facilitates interaction with Large Language Models in QGIS environment. CartAGen Cartographic generalization. RiverBankErosionAndAccretion This plugin calculates the erosion and accretion along a river’s course. VectorStats Plugin for descriptive and statistical analysis of vectors, with chart generation. Jilin1Info(2023) 2023???50cm???????????? Historique Parcelle Historique des parcelles (cadastre français). String Writer Writes QGIS layers to Surpac string file format. TreeEyed TreeEyed is a QGIS plugin for tree monitoring using AI. SHP Buddy Quickly create shapefiles for breeding experiments. TEKSI Wastewater TEKSI Wastewater plugin to manage wastewater networks. KGR Finder By simply drawing polygons or clicking on existing polygons, this extension makes it possible to download data from OpenStreetMap (OSM) or the iDAI.gazetteer and display it on the map, including all existing attributes. The plugin is designed so that other services can also be easily integrated in the future. layer_style_master This QGIS plugin copies symbology, labels, and rendering settings from one layer to multiple other layers.
-
17:54
Publication de la première étude économique de l'écosystème géonumérique en France
sur Conseil national de l'information géolocaliséePublication de la première étude économique de l'écosystème géonumérique en France -
14:36
Vidéo de présentation du CNIG
sur Conseil national de l'information géolocaliséeVidéo de présentation du CNIG
-
11:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
11:30
Pierre Laconte, Jean Remy (Coord.), 2020, Louvain-la-Neuve à la croisée des chemins, Louvain-la-Neuve, Belgique, Academia-L’Harmattan, 294 p.
sur CybergeoCet ouvrage livre les coulisses de la conception de Louvain-la-Neuve, une ville nouvelle belge à vocation universitaire, non loin de Bruxelles, à partir des années 1960. Conséquence de la querelle linguistique en Belgique qui a interdit tout enseignement en français en Flandre, les sections francophones de la célèbre université de Leuven ont dû déménager en Wallonie et créer l’université de Louvain-la-Neuve. Mais, contrairement à la tendance lourde à l’époque et aujourd’hui encore, le choix a été fait de créer une ville nouvelle universitaire, et non une "université-campus".
La première lecture de cet ouvrage montre des pensées et des courants d’architecture et d’urbanisme différents, qui ont confronté leurs points de vue et leurs perspectives dans ce projet. Il a fallu une coordination exceptionnelle entre les acteurs (pouvoirs publics et privés, université et associations) qui ont fait Louvain-la-Neuve (LLN) pour qu’elle devienne la ville qu’elle est aujourd’hui. Les auteurs sont l...
-
11:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
11:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
11:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...
-
11:30
Cartographier les pressions qui s’exercent sur la biodiversité : éléments de réflexion autour des pratiques utilisées
sur CybergeoPour mieux orienter les politiques de conservation, il est crucial de comprendre les mécanismes responsables de la perte de biodiversité. Les cartes illustrant les pressions anthropiques sur la biodiversité représentent une solution technique en plein développement face à cet enjeu. Cet article, fondé sur une revue bibliographique, éclaire les diverses étapes de leur élaboration et interroge la pertinence des choix méthodologiques envisageables. La définition des notions mobilisées pour élaborer ces cartes, en particulier celle de la pression, représente un premier défi. La pression se trouve précisément à la jonction entre les facteurs de détérioration et leurs répercussions. Cependant, les indicateurs à notre disposition pour la localiser géographiquement sont généralement axés soit sur les causes, soit sur les conséquences de la dégradation. Cet écueil peut être surmonté si la nature des indicateurs utilisés est bien définie. À cet effet, nous proposons une catégorisation des ind...
-
11:30
Exploring human appreciation and perception of spontaneous urban fauna in Paris, France
sur CybergeoCity-dwellers are often confronted with the presence of many spontaneous animal species which they either like or dislike. Using a questionnaire, we assessed the appreciation and perception of the pigeon (Columba livia), the rat (Rattus norvegicus), and the hedgehog (Erinaceus europaeus) by people in parks, train stations, tourist sites, community gardens, and cemeteries in Paris, France. Two hundred individuals were interviewed between May 2017 and March 2018. While factors such as age, gender, level of education or place or location of the survey did not appear to be decisive in analyzing the differential appreciation of these species by individuals, there was a clear difference in appreciation based on the species and the perceived usefulness of the animal, which is often poorly understood. The rat was disliked (with an average appreciation score of 2.2/10), and the hedgehog was liked (with an average appreciation score of 7.7/10). The case of the pigeon is more complex, with som...
-
11:30
From "Bioeconomy Strategy" to the "Long-term Vision" of European Commission: which sustainability for rural areas?
sur CybergeoThe aim of this paper is to analyze the current and long-term effects of the European Commission Bioeconomy Strategy in order to outline possible scenarios for rural areas and evaluate their sustainability. The focus is on the main economic sectors, with particular reference to employment and turnover, in order to understand what kind of economy and jobs are intended for rural areas, as well as their territorial impacts. For this purpose, we have analyzed the main European Commission documents and datasets concerning the bioeconomy and long-term planning for rural areas, as well as the recent scientific data to verify the impact on forests. The result is that European rural areas are intended to be converted initially into large-scale biomass producers for energy and bio-based industry, according to the digitization process, and subsequently into biorefinery sites, with severe damage to landscape, environment, biodiversity, land use and local economy. Scenarios for rural areas don’t...
-
11:30
Impact du numérique sur la relation entre les systèmes de gestion de crise et les citoyens, analyse empirique en Île-de-France et en Région de Bruxelles-Capitale
sur CybergeoDepuis une dizaine d’année, les systèmes de gestion de crise utilisent les canaux de communication apportés par le numérique. D'un côté, le recours aux plateformes numériques et aux applications smartphones permet une plus grande visibilité des connaissances sur le risque. De l’autre, les réseaux sociaux numériques apparaissent comme un levier idéal pour combler le manque d'implication citoyenne dans la gestion de crise. Pourtant, jusqu'à la crise sanitaire qui a débuté en 2020, rien ne semble avoir été fait pour impliquer les citoyens au cours du processus de gestion de crise. Dans cet article, nous posons la question de l'apport du numérique dans la transformation de la communication sur les risques et dans l'implication citoyenne dans la gestion de crise. En 2018, nous avons diffusé un questionnaire en Île-de-France et dans la région de Bruxelles-Capitale afin de comprendre les attentes des citoyens et les effets des stratégies de communication territoriale sur la perception des ...
-
11:30
La fabrique publique/privée des données de planification urbaine en France : entre logique gestionnaire et approche territorialisée de la règle
sur CybergeoLa question des données territoriales revêt une importance croissante pour l’État, qui entend orienter leur production, leur circulation et leur condition d’usage. Cet article examine les modalités du repositionnement de l’État vis-à-vis des collectivités locales en matière d’urbanisme règlementaire dans le cadre de la standardisation et de la numérisation des données des Plans Locaux d’Urbanisme. Il explore également l’intégration de ces données dans une géoplateforme unique. Nous montrons que ce projet de construction d’un outil commun à l’échelle nationale s’inscrit dans le cadre d’une reprise en main par le pouvoir central des données de planification urbaine à travers l’intégration partielle de méthodes privées, développées par des sociétés commerciales au cours des années 2010 grâce au processus d’open data. L’étude de la fabrique publique/privée des données de l’urbanisme règlementaire permet de mettre en exergue deux points clés de la reconfiguration de l’action de l’État pa...
-
11:00
Mappery: Hannoverian Bumper Sticker
sur Planet OSGeoEnclosure: [download]
Marc-Tobias shared this. I like that Hannover becomes the centre of the world.
-
10:30
Du 18 au 20 mars 2025 à Aix'en-Provence : formation "savoir utiliser les Fichiers Fonciers"
sur Datafoncier, données pour les territoires (Cerema)Publié le 07 octobre 2024Une session de formation "savoir utiliser les Fichiers Fonciers" se tiendra du 18 au 20 mars 2025 dans les locaux du Cerema à Aix-en-Provence.Cette session est à destination des bénéficiaires des Données Foncières (Fichiers fonciers et DV3F) et des bureaux d'études.Vous trouverez le contenu et le coût de la formation dans la rubrique AccompagnementInscription jusqu'au 18 février (…)
Lire la suite
-
10:30
Appropriations de l’espace et répression du mouvement des Gilets jaunes à Caen
sur MappemondeEn mobilisant différentes méthodologies de recherche issues principalement de la géographie sociale et de la sociologie politique, le présent article souhaite esquisser quelques pistes d’analyse et répondre à la question suivante : comment rendre compte par la cartographie des espaces de lutte du mouvement des Gilets jaunes dans l’agglomération caennaise ? En explorant ainsi sa dimension spatiale, nous désirons contribuer aux débats méthodologiques et analytiques qui ont accompagné ce mouvement qui s’est distingué par ses revendications et sa durée, mais aussi par sa géographie.
-
10:30
Les cartes dans l’analyse politique de l’espace : de l’outil à l’objet de recherche
sur MappemondeLa publication de la carte répertoriant les trajets d’utilisateurs de l’application de sport Strava, en 2017, a rendu identifiables des bases militaires dont les membres utilisaient Strava lors de leurs entraînements (Six, 2018). Cet exemple souligne à la fois l’omniprésence de l’outil cartographique dans nos vies et sa dimension stratégique. Aucune carte n’est anodine, quand bien même son objet semble l’être. Nos sociétés sont aujourd’hui confrontées à de nouveaux enjeux, liés à l’abondance des cartes sur Internet, dans les médias, au travail, que celles-ci soient réalisées de manière artisanale ou par le traitement automatisé de données géolocalisées. L’usage de la cartographie, y compris produite en temps réel, s’est généralisé à de nombreux secteurs d’activités, sans que l’ensemble des nouveaux usagers ne soit véritablement formé à la lecture de ce type de représentation, ni à leur remise en question. Dans ce cadre, le rôle du géographe ne se limite pas à la production de cartes...
-
10:30
Les stratégies cartographiques des membres de la plateforme Technopolice.fr
sur MappemondeConséquence de la transformation des cadres institutionnels du contrôle et de la sécurité, le déploiement de la vidéosurveillance dans l’espace public est aujourd’hui contesté par plusieurs collectifs militants qui s’organisent à travers des modes d’action cartographiques. Leurs pratiques entendent dénoncer, en la visibilisant, une nouvelle dimension techno-sécuritaire des rapports de pouvoir qui structurent l’espace. Grâce aux résultats d’une enquête de terrain menée auprès des membres de la plateforme Technopolice, nous montrons que le rôle stratégique de la cartographie collaborative dans leurs actions politiques réside dans ses fonctions agrégatives et multiscalaires. La diffusion de cartes et leur production apparaissent alors comme des moyens complémentaires, analytiques et symboliques, utilisés par les militants pour mieux appréhender et sensibiliser le public au phénomène auquel ils s’opposent.
-
10:30
La végétalisation de Paris vue au travers d’une carte : une capitale verte ?
sur MappemondeCet article s’intéresse à un dispositif cartographique en ligne proposant de visualiser les projets de végétalisation urbaine entrant dans la politique municipale parisienne. Avec une approche de cartographie critique, nous montrons comment la construction de la carte, et en particulier le choix des figurés et la récolte des données, participe à donner à la capitale française une image de ville verte. Le mélange de données institutionnelles et de données contributives composant la carte du site web Végétalisons Paris traduit l’ambiguïté de la politique de végétalisation parisienne, entre participation citoyenne et instrumentalisation politique.
-
10:30
Géopolitique de l’intégration régionale gazière en Europe centrale et orientale : l’impact du Nord Stream 2
sur MappemondeDépendante des importations de gaz russe, l’Union européenne tente de diversifier ses approvisionnements depuis la crise gazière russo-ukrainienne de 2009. En Europe centrale et orientale, cette politique se traduit par un processus d’intégration régionale des réseaux gaziers. Planifié depuis 2013, ce processus n’a pas connu le développement prévu à cause des divisions engendrées par le lancement du projet de gazoduc Nord Stream 2 porté par Gazprom et plusieurs entreprises énergétiques européennes. Ainsi la dimension externe de la politique énergétique des États membres a un impact sur la dimension interne de la politique énergétique européenne.
-
10:30
Les Petites Cartes du web
sur MappemondeLes Petites Cartes du web est un ouvrage de 70 pages de Matthieu Noucher, chargé de recherche au laboratoire Passages (Bordeaux). Il s’adresse à un public universitaire ainsi qu’à toute personne intéressée par la cartographie. Son objet est l’analyse des « petites cartes du web », ces cartes diffusées sur internet et réalisées ou réutilisées par des non-professionnel?les. Elles sont définies de trois manières :
-
historique, comme des cartes en rupture avec les « grands récits » de la discipline ;
-
politique, comme des cartes « mineures », produites hors des sphères étatiques et dominantes ;
-
technique, en référence aux « petites formes du web » d’É. Candel, V. Jeanne-Perrier et E. Souchier (2012), participant à un « renouvellement des formes d’écriture géographique ».
Ce bref ouvrage, préfacé par Gilles Palsky, comprend trois chapitres. Les deux premiers, théoriques, portent l’un sur la « profusion des “petites cartes” » et l’autre sur l’actualisation de la critique de la cartographie. L...
-
-
10:30
L’Amérique latine
sur MappemondeEn choisissant de commencer son ouvrage par la définition du terme « latine », Sébastien Velut donne le ton d’une approche culturelle et géopolitique de cette région centrale et méridionale du continent américain. Grâce à une riche expérience, il présente ce « grand ensemble flou » (p. 11), ce continent imprévu qui s’est forgé depuis cinq siècles par une constante ouverture au Monde. L’ouvrage, destiné à la préparation des concours de l’enseignement, offre une riche analyse géographique, nourrie de travaux récents en géographie et en sciences sociales, soutenue par une bibliographie essentielle en fin de chaque partie. L’exercice est difficile mais le propos est clair, explicite et pédagogique pour documenter l’organisation des territoires de l’Amérique latine. En ouverture de chaque partie et chapitre, l’auteur pose de précieuses définitions et mises en contexte des concepts utilisés pour décrire les processus en œuvre dans les relations entre environnement et sociétés.
En presque 3...
-
10:30
Les cartes de l’action publique. Pouvoirs, territoires, résistances
sur MappemondeLes cartes de l’action publique, ouvrage issu du colloque du même nom qui s’est déroulé en avril 2018 à Paris, se présente comme une recension de cas d’étude provenant de plusieurs disciplines des sciences sociales. Sociologues, politistes et géographes proposent au cours des 14 chapitres de l’ouvrage (scindé en quatre parties) une série d’analyses critiques de cartes dont il est résolument admis, notamment depuis J. B. Harley (1989), qu’elles ne sont pas neutres et dénuées d’intentionnalités. Cette position, assumée dès l’introduction, sert de postulat général pour une exploration de « l’usage politique des cartes, dans l’action publique et dans l’action collective » (p. 12).
Les auteurs de la première partie, intitulée « Représenter et instituer », approchent tout d’abord les cartes de l’action publique par leur capacité à instituer et à administrer des territoires.
Dans un premier chapitre, Antoine Courmont traite des systèmes d’information géographique (SIG) sous l’angle des scien...
-
10:30
Vulnérabilités à l’érosion littorale : cartographie de quatre cas antillais et métropolitains
sur MappemondeL’érosion littorale est un phénomène naturel tangible dont la préoccupation croissante, compte tenu du changement climatique, nous a menées à travailler sur la problématique de la cartographie de certaines composantes du risque d’érosion comprenant l’étude de l’aléa et de la vulnérabilité. Les terrains guadeloupéens (Capesterre-Belle-Eau et Deshaies) et métropolitains (Lacanau et Biarritz) ont été choisis, présentant une grande diversité d’enjeux. À partir d’un assortiment de facteurs, puis de variables associées à ces notions, la spatialisation d’indices à partir de données dédiées permettrait d’aider les décideurs locaux dans leurs choix de priorisation des enjeux et de mener une réflexion plus globale sur la gestion des risques.
-
10:30
La construction d’une exception territoriale : L’éducation à la nature par les classes de mer finistériennes
sur MappemondeLes classes de mer, inventées en 1964 dans le Finistère, restent encore aujourd’hui très implantées localement. Dépassant la seule sphère éducative, ce dispositif est soutenu par des acteurs touristiques et politiques qui ont participé à positionner le territoire comme pionnier puis modèle de référence en la matière à l’échelle nationale. Tout en continuant à répondre aux injonctions institutionnelles, poussant à la construction d’un rapport normalisé à la nature (développement durable, éco-citoyenneté), cette territorialisation du dispositif singularise la nature à laquelle les élèves sont éduqués.
-
9:05
Guess Where You Are
sur Google Maps ManiaI am currently ranked Number One in the world in the game GuessWhereYouAre. However, I suspect I won't stay on top of the leaderboard for long, especially after other players discover this exciting new Street View game. GuessWhereYouAre is a fun and engaging location-based game that places players in random spots around the world using Street View. Your goal is to explore your surroundings and
-
8:52
Une communauté en poche
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa Géo Communauté est désormais dotée d’une application mobile. Nommée « Géo Communauté Esri France », l’appli disponible sur iPhone, iPad et Android, propose un accès aux différents contenus. Les Web Séminaires en direct et en replay peuvent être suivis à tout moment. Cet outil devient aussi une façon plus facile et fluide d’interagir avec les autres utilisateurs Esri francophones grâce à la messagerie interne et le forum. Des groupes d’intérêts sont établis pour échanger à propos de sujet et de thématiques spécifiques. Les dernières informations apparaissent sur le fil d’actualité et il est possible d’activer les notifications push. Dans le cadre d’évènements proposés par Esri France, comme le Géo événement (photo), l’application devient un moyen pour centraliser les informations, pour préparer un programme et faciliter le networking.
+ d'infos :
geo-communaute.fr
-
21:25
Free and Open Source GIS Ramblings: LLM-based spatial analysis assistants for QGIS
sur Planet OSGeoAfter the initial ChatGPT hype in 2023 (when we saw the first LLM-backed QGIS plugins, e.g. QChatGPT and QGPT Agent), there has been a notable slump in new development. As far as I can tell, none of the early plugins are actively maintained anymore. They were nice tech demos but with limited utility.
However, in the last month, I saw two new approaches for combining LLMs with QGIS that I want to share in this post:
IntelliGeo plugin: generating PyQGIS scripts or graphical modelsAt the QGIS User Conference in Bratislava, I had the pleasure to attend the “Large Language Models and GIS” workshop presented by Gustavo Garcia and Zehao Lu from the the University of Twente. There, they presented the IntelliGeo Plugin which enables the automatic generation of PyQGIS scripts and graphical models.
The workshop was packed. After we installed all dependencies and the plugin, it was exciting to test the graphical model generation capabilities. During the workshop, we used OpenAI’s API but the readme also mentions support for Cohere.
I was surprised to learn that even simple graphical models are actually pretty large files. This makes it very challenging to generate and/or modify models because they take up a big part of the LLM’s context window. Therefore, I expect that the PyQGIS script generation will be easier to achieve. But, of course, model generation would be even more impressive and useful since models are easier to edit for most users than code.
Image source: https://github.com/MahdiFarnaghi/intelli_geo ChatGeoAI: chat with PyQGISChatGeoAI is an approach presented in Mansourian, A.; Oucheikh, R. (2024). ChatGeoAI: Enabling Geospatial Analysis for Public through Natural Language, with Large Language Models. ISPRS Int. J. Geo-Inf., 13, 348.
It uses a fine-tuned Llama 2 model in combination with spaCy for entity recognition and WorldKG ontology to write PyQGIS code that can perform a variety of different geospatial analysis tasks on OpenStreetMap data.
The paper is very interesting, describing the LLM fine-tuning, integration with QGIS, and evaluation of the generated code using different metrics. However, as far as I can tell, the tool is not publicly available and, therefore, cannot be tested.
Image source: [https:]]Are you aware of more examples that integrate QGIS with LLMs? Please share them in the comments below. I’d love to hear about them.
-
11:00
Mappery: Johannes Kepler
sur Planet OSGeoEnclosure: [download]
This portrait of Johannes Kepler was spotted by Reinder at the Collegium Maius in Cracow. Don’t you love the way old paintings so often have a globe or a map in the background (presumably a symbol of status)?
-
23:26
The Nicknames of America
sur Google Maps ManiaSome U.S. cities have very quirky nicknames. Apparently, the citizens of Auburn, Alabama like to call their town the 'Armpit of the Confederacy'. While their nearby neighbors in Gordo, Alabama call their home the 'Armpit of Civilization'. Elmwood and Belleville in Wisconsin both claim to be the 'UFO Capital of the World' (presumably because of all the strange, alien-looking folk living in
-
17:33
Datavisualisation sur les prix Nobel attribués depuis 1901
sur Cartographies numériquesKerri Smith & Chris Ryan (2024). How to win a Nobel prize. Nature.
Le prix Nobel a été décerné dans trois domaines scientifiques – la chimie, la physique et la physiologie ou médecine – presque chaque année depuis 1901, à l’exception de quelques interruptions dues principalement aux guerres. Nature a analysé les données concernant 346 prix et 646 lauréats (les prix Nobel peuvent être partagés par trois personnes maximum) pour déterminer quelles peuvent être leurs caractéristiques.
Pour avoir les meilleures chances de remporter un prix Nobel, l’idéal est de naître en Amérique du Nord et d’y rester (54 % des prix Nobel décernés) ou encore en Europe, avec un moins de chance cependant. Les lauréats sont issus la plupart du temps de laboratoires d'autres lauréats.
Une analyse de 3 des 69 prix scientifiques décernés entre 1995 et 2017 révèle que quelques disciplines sont surreprésentées. Au cours du XXe siècle, seulement 11 prix Nobel ont été décernés à des femmes. Depuis 2000, 15 autres prix ont été décernés à des femmes. L'article comporte de nombreux graphiques ainsi qu'une datavisualisation animée qui montre les trajectoires migratoires des Nobels.
Articles connexesUne vidéo sur l'évolution du réseau Internet (1997-2021) à partir du projet Opte
La carte mondiale de l'Internet selon Telegeography
Quand Facebook révèle nos liens de proximité
Une cartographie mondiale des points de connexion Wi-Fi réalisée dans le cadre du projet WiGLE
Mesurer le rayonnement des grandes puissances à travers leurs réseaux diplomatiques
L'essor parallèle de la Silicon Valley et d'Internet : du territoire au réseau et inversement
-
16:15
« Notre planète suffoque, et nos cartes restent muettes » (Karine Hurel)
sur Cartographies numériques
« Notre planète suffoque, et nos cartes restent muettes » (source : Libération)Pour la géographe Karine Hurel, il faut réinventer notre façon de cartographier le monde, afin de mieux le comprendre et pour protéger les écosystèmes dont nous dépendons. Cette approche anthropocentrée de la cartographie a ainsi privilégié une vision du monde centrée sur l’humain, reléguant au second plan la représentation des écosystèmes qui nous entourent, leur richesse et leur complexité. Or comment par exemple traduire la richesse d’un sol quand nos conventions cartographiques nous poussent à voir le monde uniquement d’en haut ? Comment exprimer l’essence d’un lieu, ses vulnérabilités ou notre attachement à celui-ci, quand la norme cartographique privilégie l’analyse de données quantifiables ? Comment prétendre protéger ce que nous ne savons pas représenter ? Ce manque de représentation du monde vivant dans nos imaginaires collectifs a très probablement contribué à la faible considération que nous avons accordée à notre environnement et à la crise écologique que nous vivons. Pourtant, les cartes ont un rôle crucial à jouer pour nous montrer l’invisible, et nous reconnecter au vivant. Elles peuvent être les catalyseurs d’une prise de conscience collective, les boussoles qui guideront nos sociétés vers un avenir plus durable. A elles seules, elles ont le pouvoir de lanceuses d’alerte.
Pour compléter
Transition écologique : le temps des villes et des territoires (Libération)« Comment réconcilier métropoles et campagnes, périphéries et centres-villes, écologie et habitat ? Plongée, en partenariat avec Popsu (Plateforme d’observation des projets et stratégies urbaines) dans les initiatives qui améliorent les politiques urbaines ».
Articles connexes
Paul Crutzen et la cartographie de l'Anthropocène
Feral Atlas, une exploration de l’Anthropocène perçu à travers la féralisation
Cartographier l'anthropocène à l'ère de l'intelligence artificielle (IGN, 2024)
CartNat : une cartographie du gradient de naturalité potentielle de la France métropolitaine
Traces GPS et suivi des déplacements d'animaux
Environnement et justice dans les paysages anthropisés. Une exposition virtuelle du Leventhal Center
Cartes et données sur l'occupation des sols en France (à télécharger sur le site Theia)
Les nouvelles façons de « faire mentir les cartes » à l'ère numérique
La carte, objet éminemment politique
-
15:40
Une cartographie réglementaire incohérente menace silencieusement les rivières et les ruisseaux
sur Cartographies numériques
Messager M. L., Pella H., Datry T. (2024). Inconsistent Regulatory Mapping Quietly Threatens Rivers and Streams. Environmental Science & Technology. DOI : [https:]]Les cours d’eau français, qui n’ont de définition officielle que depuis 2015, sont inégalement protégés d’un département à l’autre, où un même cours d’eau pourra successivement gagner ou perdre ce statut réglementaire. Des disparités qui peuvent affecter la santé des bassins versants. C’est ce que montre cette étude qui a voulu reconstituer la carte de tous les cours d’eau officiellement reconnus dans notre pays, une démarche unique au monde. Les chercheurs de l’Inrae dénoncent les failles d’un chantier qui « menace les rivières et les ruisseaux ».
Carte nationale des cours d'eau protégés par la loi sur l'eau en France métropolitaine en 2023 (source : Messager & al., 2024)
En comparant ces cartes à la base de données topographique de l’Institut national de l’information géographique et forestière (IGN), les auteurs estiment qu’environ un quart des tronçons hydrographiques précédemment cartographiés, les lignes bleues (pointillées ou non) sur les cartes topographiques, ont été qualifiés de non-cours d’eau.
Cette analyse met également en lumière des variations géographiques frappantes dans l’étendue des cours d’eau protégés au titre de la loi sur l’eau. Si certains ruisseaux sont considérés comme cours d’eau dans un département, ils peuvent être considérés comme non-cours d’eau ou disparaître totalement de la carte dans le département voisin ! Ces variations reflètent une application inégale de la définition officielle du cours d’eau, et peuvent compromettre la continuité amont aval du réseau fluvial.
Pour évaluer les implications de la définition légale et de la cartographie des cours d’eau réalisée au titre de la loi sur l’eau à l’échelle nationale, les auteurs ont compilé et harmonisé 91 cartes départementales couvrant toute la France métropolitaine, sauf la Corse. Cette nouvelle carte nationale des cours d’eau comprend plus de 2 millions de tronçons couvrant 93 % de la France métropolitaine, le reste ayant été laissé de côté au cas par cas par certains départements.
L'hydrographie est sociale et politique, insistent les auteurs. « L'effacement d'un cours d'eau sur une carte réglementaire peut se traduire par son efficacement réel du paysage, en le rendant vulnérable au remblaiement, au creusement de fossés [...] ou aux prélèvements d'eau. » Cela montre bien qu'on ne peut pas détacher la dimension technique des données de la dimension politique de leur usage. Le traitement de l'information est un continuum politique.
L'hydrographie est sociale et politique (source : Messager & al., 2024).
Pour compléter
« Une cartographie inédite des cours d’eau officiels pointe les incohérences de la réglementation » (The Conversation).
« A cause d’une cartographie incohérente», les ruisseaux poussés dans le fossé » (Libération).
« Quand le gouvernement et la FNSEA redessinent la carte des cours d’eau » (Reporterre).
Articles connexes
Impact du changement climatique sur le niveau des nappes d'eau souterraines en 2100
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
Conflits liés à l'eau : les prévisions du site Water, Peace and Security
La cartographie des déchets plastiques dans les fleuves et les océans
Les barrages vieillissants constituent une menace croissante à travers le monde (rapport de l'ONU)
L'histoire par les cartes : plus de deux siècles d'aménagements fluviaux sur le Rhin
Un jeu de données SIG sur les fleuves qui servent de frontières dans le monde
Connaître l'état des eaux souterraines de l'Union européenne (projet Under the Surface)
Données de réanalyse hydrologique concernent les débits fluviaux et les inondations (GloFAS v4.0)
Diffusion de la 1ère version de la BD TOPAGE® métropole
-
11:00
Mappery: Fire Finding with an Alidade
sur Planet OSGeoEnclosure: [download]
Have you heard of an alidade? I hadn’t until Walter Schwartz sent me these pics.
He said “Behold the ingenious alidade, a surveying instrument here used as a fire finder. This one is displayed at the Cole Land Transportation Museum in Bangor, Maine. Forest rangers used these atop fire towers to report the distance and, in conjunction with another tower, the coordinates of fires. The map on this table covers an approximately 25 mile diameter (40 KM) inclusive of Augusta to Rockport Maine. The user viewed through a rectangular slot on one upright and rotated the metal structure to view the fire. Some tables were on slides so that the view would not be obstructed by parts of the tower structure. GPS and cameras solve the same problem today. “
Well who knew that? I found this great explanation of the alidade.
-
17:49
OSGeo Announcements: [OSGeo-Announce] FOSS4G 2022 Firenze (Italy) recordings are online
sur Planet OSGeosee news item: FOSS4G 2022 Firenze (Italy) recordings are online - OSGeo
FOSS4G 2022 has been a great event Firenze (Italy). The videos are now published on Youtube.
We hope you will enjoy them.
You find the videos of the talks at our FOSS4G Youtube Channel.
355 videos were uploaded.
We hope you like the videos and get valuable information. We would like to spread the world and we hope you will learn about our great software and our community.
We would like to thank all people involved organizing FOSS4G 2022.
About OSGeo
-------------------
The Open Source Geospatial Foundation (OSGeo) [13] is a non-profit organization dedicated to the development and promotion of open-source geospatial technologies and data. OSGeo serves as an umbrella organization for the collaborative development of open source geospatial software, and provides financial, organizational, and legal support to the broader geospatial community._______________________________________________
Announce mailing list
Announce@lists.osgeo.org
[https:]]1 post - 1 participant
-
16:35
Markus Neteler: Migration of grass-dev mailing list to OSGeo Discourse
sur Planet OSGeoThe post Migration of grass-dev mailing list to OSGeo Discourse appeared first on Markus Neteler Consulting.
-
14:00
Revue de presse du 27 septembre 2024
sur GeotribuAutomne 2024 : carte à base de composants électroniques, un nouveau service gratuit de tuiles OSM, Panoramax continue de se déployer, des nouvelles des conférences QGIS ... et une plaidoirie de défense du format Shapefiles.
-
11:00
Mappery: Your world at Pied a Terre
sur Planet OSGeoEnclosure: [download]
Reeinder said “At the Amsterdam bookstore Scheltema, one can put a post-it on a kind of world map display, to mark the spot where one has been.”
-
9:39
Finding Your Coordinate Twins
sur Google Maps ManiaDid you know San Francisco shares the same latitude as Fukushima, Japan? Or that Chicago lines up with Rome? These surprising global connections can now be explored with a fun new interactive map that reveals your latitude and longitude twins from across the world!Introducing LatLon Connect - an interactive tool that lets you discover cities around the globe that sit on the same latitude or
-
8:57
Réunis pour les réseaux
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueTrois fournisseurs de solutions, 1Spatial, RMSI et Cyclomedia, s’associent pour adresser le marché de la cartographie des réseaux d’utilité publique. Cette alliance permettra aux gestionnaires d’infrastructures de disposer rapidement d’un plan cartographique précis, complet et à jour, plaçant ainsi les données critiques au coeur de leurs projets. En fournissant technologies et services de la capture à l’enrichissement des données, l’initiative vise tous types de réseaux (eau/assainissement, énergie et télécom). Elle permettrait d’améliorer la sécurité conformité avec les réglementations de travaux, d’optimiser la maintenance et les extensions des réseaux d’un point de vue financier comme environnemental. Cette maitrise du contexte géospatial est aussi nécessaire pour la construction d’un jumeau numérique optimal, sur base de réseaux intelligents (Smart Grids) indispensables face aux enjeux énergétiques et climatiques.
+ d'infos :
1spatial.com
-
7:30
De l’automatisation des inégalités
sur Dans les algorithmesCet article inaugure une nouvelle catégorie de publications, celle d’articles de fond essentiels à nos compréhensions communes. Ici, nous vous proposons un article publié en janvier 2018 sur Internet Actu, qui revenait en détail sur le livre que venait de faire paraître Virginia Eubanks, Automating Inequality (MacMillan, 2018, non traduit).
Dans une tribune pour le New York Times, l’avocate Elisabeth Mason, directrice du Laboratoire pauvreté et technologie qui dépend du Centre sur la pauvreté et l’inégalité de Stanford, soulignait que le Big data et l’intelligence artificielle étaient amenés à être des outils puissants pour lutter contre la pauvreté. Les grands ensembles de données peuvent désormais être exploités pour mieux prédire l’efficacité des programmes d’aides et les évaluer. « Le big data promet quelque chose proche d’une évaluation impartiale, sans idéologie, de l’efficacité des programmes sociaux », explique-t-elle en rêvant d’une société parfaitement méritocratique, tout entière fondée sur la « preuve de ce qui marche » (Evidence-based policymaking). Un propos qui pourrait paraître un peu naïf, si on l’éclaire par le livre que vient de publier la spécialiste de science politique, Virginia Eubanks : Automatiser les inégalités : comment les outils high-tech profilent, policent et punissent les pauvres.
Vous avez été signalés ! Couverture du livre d’Eubanks.Les processus de décision sont de plus en plus confiés à des machines, rappelle la chercheuse. « Des systèmes d’éligibilité automatisés, des algorithmes de classements, des modèles de prédiction des risques contrôlent les quartiers qui doivent être policés, quelles familles peuvent obtenir des aides, qui peut accéder à un emploi, qui doit être contrôlé pour fraude. (…) Notre monde est parcouru de sentinelles informationnelles (…) : d’agents de sécurité numérique qui collectent de l’information sur nous, qui fabriquent des inférences à partir de nos comportements et contrôlent l’accès aux ressources ». Si certains sont visibles, la plupart sont impénétrables et invisibles. « Ces outils sont si profondément tissés dans la fabrique de la vie sociale, que la plupart du temps, nous ne remarquons même pas que nous avons été surveillés et analysés ».
Reste que bien peu de personnes s’intéressent à ce que signifie d’être signalés par ces programmes et les catastrophes individuelles que cela engendre. Se voir retirer son assurance santé au moment où vous êtes le plus vulnérable laisse ceux qui en sont victimes désespérés et acculés. Le problème, souligne très bien Virginia Eubanks est « qu’il n’y a pas de règles qui vous notifient le fait que vous avez été signalé » (ref-flagged) par un programme. La plupart des gens ne savent pas qu’ils ont été la cible de systèmes de décisions automatisés.
Eubanks souligne que ce contrôle s’exerce sur des membres de groupes sociaux plus que des individus : gens de couleurs, migrants, groupes religieux spécifiques, minorités sexuelles, pauvres et toutes populations oppressées et exploitées. Les groupes les plus marginalisés sont ceux sur lesquels le plus de données sont collectées. Et le problème, souligne Virginia Eubanks, c’est que « cette collecte de données renforce leur marginalité » en créant « une boucle de rétroaction de l’injustice » qui renforce à son tour la surveillance et le soupçon.
Des hospices… aux hospices numériquesLe propos de la chercheuse est éminemment politique : en enquêtant sur une poignée de systèmes automatisés développés pour optimiser les programmes sociaux américains, elle dénonce une politique devenue performative… c’est-à-dire qui réalise ce qu’elle énonce. Selon elle, les programmes sociaux n’ont pas pour objectif de fonctionner, mais ont pour objectif d’accumuler de la stigmatisation sur les programmes sociaux et renforcer le discours montrant que ceux qui bénéficient de l’assistance sociale sont, au choix, des criminels, des paresseux ou des profiteurs. La rationalisation des programmes d’aide publics du fait de la crise et des coupes budgétaires les contraint à toujours plus de performance et d’efficacité. Or cette performance et cette efficacité s’incarnent dans des outils numériques qui n’ont rien de neutre, pointe la chercheuse.
Le problème, c’est que ces outils de surveillance sont partout : dans les marges où nous entraîne la chercheuse, les histoires où les technologies facilitent la communication et ouvrent des opportunités sont rares. Pour les plus démunis, la révolution numérique ressemble surtout à un cauchemar. Comme elle le soulignait déjà, pour comprendre l’avenir de la surveillance, il faut regarder comment elle se développe déjà auprès des populations les plus marginalisées.
Dans la première partie de l’ouvrage, Virginia Eubanks dresse un rapide historique pour rappeler que, à la suite de Michel Foucault, les communautés les plus démunies ont toujours été les plus surveillées. Elle souligne la continuité entre les asiles, les prisons, les hospices de la fin du XVIIIe siècle aux bases de données d’aujourd’hui, rappelant que les premières bases de données ont été créées par les promoteurs de l’eugénisme pour discriminer les criminels et les faibles d’esprit.
Elle souligne aussi combien cette histoire de l’assistance publique est intimement liée, surtout aux Etats-Unis, à des vagues régulières de critiques contre l’aide sociale. Partout, l’enjeu a été de mettre en place des règles pour limiter et contrôler le nombre de bénéficiaires des aides sociales, privées comme publiques. Une histoire qui s’intrique à celle des représentations de la pauvreté, de son coût, de la fraude, de la dénonciation de l’inefficacité des aides… Les « hospices numériques » (digital poorhouse), c’est-à-dire les systèmes automatisés de contrôle des aides que reçoivent les plus pauvres, naissent dès les années 70, avec l’informatique elle-même, rappelle la chercheuse. La recherche d’outils neutres pour évaluer les dépenses publiques pour ces bénéficiaires a surtout consisté dans le développement d’outils de surveillance des récipiendaires de l’aide publique. Des programmes de détection des fraudes, des bases de données de bénéficiaires ont été créées et reliées pour tracer les dépenses et les comportements de leurs bénéficiaires dans de multiples programmes sociaux. « Le conflit entre le développement des droits pour les bénéficiaires de l’aide sociale et le faible soutien aux programmes d’assistance publique a été résolu par le développement d’outils technologiques punitifs ». Alors que le droit développait l’aide publique, la technologie était utilisée pour réduire le nombre de leurs allocataires ! Certains programmes d’aides multipliant les situations de non-conformité et les sanctions pour un retard à un rendez-vous, ou pour ne pas avoir consulté un médecin prescrit… Pour Virginia Eubanks, ces systèmes automatisés sont une continuité et une expansion des systèmes de gestion des pauvres punitifs et moralistes, des hospices de la fin du XVIIIe siècle et du début du XIXe siècle que pointait le travail de Michel Foucault. « Si ces systèmes sont présentés pour rationaliser et gérer les bénéficiaires, leur but premier reste et demeure de profiler, surveiller et punir les pauvres ».
S’intéresser aux effets des calculs sur la sociétéDans son livre, Virginia Eubanks se concentre sur l’étude de 3 systèmes : un système mis en place par l’Indiana pour automatiser l’éligibilité de candidats aux programmes d’assistance publique de l’Etat ; un répertoire des SDF de Los Angeles ; et un système d’analyse du risque pour prédire les abus ou négligence sur enfants dans un comté de la Pennsylvanie. Des exemples et des systèmes assez spécifiques, par nature très Américains, qui pourraient nous laisser indifférents, nous Européens, si leur étude ne révélait pas une nature des outils numériques, un fonctionnement qu’on peut potentiellement retrouver dans chacun de ceux qui sont déployés.
La chercheuse prend le temps de les explorer en détail. Elle nous rappelle leur histoire, comment et pourquoi ils ont été mis en place. Comment ils fonctionnent. Elle nous présente quelques personnes qui les font fonctionner, d’autres qui en sont les bénéficiaires ou les victimes. Dans ce travail ethnographique, elle ne présente pas toujours en détail les systèmes, les critères, les questions, le fonctionnement des algorithmes eux-mêmes. La manière dont sont calculés les scores depuis le répertoire des SDF pour leur attribuer une priorité dans la demande de logement n’est pas par exemple ce que cherche à nous montrer Virginia Eubanks. En fait, c’est un peu comme si pour elle ces systèmes étaient par nature incapables d’optimiser le monde qu’on leur demande d’optimiser. L’important n’est pas le calcul qu’ils produisent qui seront toujours imparfait que leurs effets concrets. C’est eux qu’elle nous invite à observer. Et ce qu’elle en voit n’est pas très agréable à regarder.
Chacun des exemples qu’elle prend est édifiant. Le système automatique de gestion de l’assistance de l’Indiana, confié à un opérateur privé, montre toute l’incompétence du délégataire : durant son fonctionnement, l’aide publique a reculé de 54 %. Au moindre oubli, au moindre document manquant, les bénéficiaires étaient tout simplement éjectés du système au prétexte d’un culpabilisant « défaut de coopération » cachant surtout ses défaillances techniques et organisationnelles. Le taux de demande d’aides refusées s’est envolé. Des personnes sourdes, handicapés mentaux, malades, étaient contraintes de joindre un centre d’appel pour bénéficier d’aides… Le contrat entre l’Etat de l’Indiana et IBM a fini par être rompu. Les procès entre le maître d’oeuvre et le délégataire ont duré des années. Son coût n’a jamais été pleinement évalué, hormis pour les gens qu’il a privés des aides auxquelles ils avaient droit. « En retirant l’appréciation humaine des agents en première ligne au profit des métriques d’ingénieurs et de prestataires privés, l’expérience de l’Indiana a suralimenté la discrimination ». Les spécifications sociales pour l’automatisation se sont basées sur l’épuisement et l’usure des bénéficiaires, sur des postulats de classes et de races qui ont été encodées en métriques de performances.
Dans le comté de Los Angeles, Virginia Eubanks évoque longuement la mise en place d’une base de données centralisée des SDF créée pour améliorer l’appariement entre l’offre de logement d’urgence et la demande. L’enjeu était de pouvoir prioriser les demandes, entre sans-abris en crise et sans abris chroniques, en aidant les premiers pour éviter qu’ils ne tombent dans la seconde catégorie. Les partenaires du projet ont donc créé une base de données pour évaluer les demandeurs collectant de vastes quantités d’information personnelle avec un algorithme pour classer les demandeurs selon un score de vulnérabilité et un autre pour les apparier avec les offres de logements : le VI-SPDAT (index de vulnérabilité ou outil d’aide à la décision de priorisation des services). Tout sans-abri accueilli par un organisme doit alors répondre à un long questionnaire, particulièrement intime, posant des questions sur sa santé, sa sexualité, les violences commises à son encontre ou dont il a été l’auteur… La base de données est accessible à quelque 168 organisations différentes : services de la ville, association de secours, organisations religieuses, hôpitaux, centre d’aides et d’hébergements… et même la police de Los Angeles. Chaque sans-abri reçoit un score allant de 1 à 17, du moins au plus vulnérable. Ceux qui ont un score élevé reçoivent alors un accord d’hébergement qu’ils peuvent porter (avec les justificatifs nécessaires) aux autorités du logement de la ville qui peuvent alors leur proposer un logement ou un financement. Virginia Eubanks pointe là encore les multiples difficultés de ces questionnaires qui se présentent comme neutres, sans l’être. Selon la manière dont les SDF répondent aux questions (seuls ou accompagnés, par quelqu’un qui les connait ou pas…), leur score peut varier du tout au tout. Ainsi, un SDF sortant de prison se voit attribuer un score faible au prétexte qu’il a eu un hébergement stable durant son séjour en établissement pénitentiaire.
Elle souligne que le manque de solutions de logements pour sans-abris fait que le système sert plus à gérer les SDF qu’à résoudre le problème. Selon le service des sans-abris de Los Angeles, la ville comptait 57 794 SDF en 2017. 31 000 sont enregistrés dans la base depuis sa création en 2014. 9 627 ont été aidé pour trouver un logement. Si pour Virginia Eubanks le système n’est pas totalement inopérant, reste que sa grande disponibilité pose question. Ces enregistrements consultables par trop d’organisations sur simple requête – et notamment par les forces de l’ordre, sans avoir à justifier d’une cause, d’une suspicion ou autre -, transforment des données administratives et les services sociaux en extension des systèmes de police et de justice. L’absence d’une protection des données de ce registre, nous rappelle combien toute base de données créée pour répondre à un objectif finit toujours par être utilisée pour d’autres objectifs… Les bases de données coordonnées sont des centres de tri qui rendent ceux qui en sont l’objet « plus visibles, plus traçables, plus prévisibles ». « Les personnes ciblées émergent désormais des données » : les personnes jugées à risque sont codées pour la criminalisation. Si ces systèmes produisent certes des chiffres pour mieux orienter les budgets, les données ne construisent pas d’hébergements.
Le dernier exemple que prend Virginia Eubanks est une enquête sur le fonctionnement d’un outil de prédiction du risque de maltraitance et d’agression d’enfants, développé par le bureau de l’enfance, de la jeunesse et des familles du comté d’Allegheny (Pennsylvanie). Elle nous plonge dans le quotidien des travailleurs sociaux d’un centre d’appel à la recherche d’informations sur les dénonciations qu’ils reçoivent, là encore, via une multitude de bases de données : provenant des services du logement, de la santé, de la police, de l’enseignement… Elle explore comment le système prioritise certains critères sur d’autres, comme l’âge des enfants et surtout, le fait que les familles soient déjà sous surveillance des services sociaux. Elle détaille également longuement l’histoire de cet outil prédictif, développé par Rhema Vaithianathan (@rvaithianathan), directrice du Centre pour l’analyse de données sociales de l’université d’Auckland en Nouvelle-Zélande qui s’appuie sur plus de 130 variables pour produire un score de risque allant 1 (le plus faible) à 20… Un programme abandonné par la Nouvelle-Zélande du fait de son manque de fiabilité et de l’opposition qu’il suscita. Dans les pages qu’elle consacre à ce système, Virginia Eubanks prend le temps de nous montrer comment les travailleurs sociaux interprètent les informations dont ils disposent, comment les familles sont sommées de répondre aux enquêtes sociales que ces alertes déclenchent. Elle souligne combien les données censées être neutres cachent une succession d’appréciations personnelles. Elle souligne également combien le système peine à guider celui qui mène enquête suite à un signalement. Combien certains critères ont plus de poids que d’autres : à l’image du fait de recevoir un appel pour un enfant pour lequel le centre a déjà reçu un appel sur les deux années précédentes ou qui a déjà été placé. Elle souligne les limites du modèle prédictif construit qui produit chaque année de trop nombreux faux positifs et négatifs. Comme le soulignait la mathématicienne Cathy O’Neil @mathbabedotorg), les choix qui président aux outils que nous développons reflètent toujours les priorités et les préoccupations de leurs concepteurs. Et la prédictivité est d’autant moins assurée quand nombre de variables sont subjectives. Qu’importe, comme le soulignait une récente enquête du New York Times, l’outil, malgré ses défauts, semble prometteur. Pour ses concepteurs, il nécessite surtout d’être peaufiné et amélioré. Ce n’est pas le constat que dresse Virginia Eubanks.
Eubanks montre combien l’outil mis en place estime que plus les familles recourent à l’aide publique, plus le score de risque progresse. Le système mis en place s’intéresse d’ailleurs bien plus à la négligence dans l’éducation des enfants qu’à la maltraitance ou qu’aux abus physiques ou sexuels des enfants. Or, rappelle la chercheuse, « tous les indicateurs de la négligence sont aussi des indicateurs de pauvreté » : manque de nourriture, de vêtements, de soins de santé, habitation inadaptée… Elle pointe également la grande ambiguïté de ces programmes, à la fois juge et partie, qui ont souvent deux rôles qui devraient être distingués : l’aide aux familles et l’enquête sur les comportements. Trop souvent explique-t-elle, les familles pauvres échangent leur droit à la vie privée contre l’obtention d’aide. Pour Eubanks, on est plus là dans un profilage de la pauvreté que dans un profilage de la maltraitance : le modèle confond la parenté avec la parenté pauvre. Le système voit toujours les parents qui bénéficient d’aides publiques comme un risque pour leurs enfants. Eubanks souligne aussi l’inexistence d’un droit à l’oubli dans ces systèmes : toute information entrée dans le système est définitive, même fausse. Le système enregistre des décisions sans traces d’humanités. Pire, encore, le score de risque se renforce : quand une bénéficiaire d’aides est devenue mère, son enfant s’est vu attribuer un fort taux de risque, car sa mère avait déjà eu des interactions avec les services sociaux quand elle était elle-même enfant. La reproduction de la surveillance est bouclée.
Déconstruire la boucle de rétroaction de l’injusticeDe son observation patiente, la chercheuse dresse plusieurs constats. Partout, les plus pauvres sont la cible de nouveaux outils de gestion qui ont des conséquences concrètes sur leurs vies. Les systèmes automatisés ont tendance à les décourager de réclamer les ressources dont ils ont besoin. Ces systèmes collectent des informations très personnelles sans grande garantie pour leur vie privée ou la sécurité des données, sans leur ménager les moindres contreparties (aucun SDF référencé dans le répertoire de Los Angeles par exemple n’a conscience qu’il n’est jamais ôté de cette base, même s’ils retrouvent un logement… et peut nombreux sont ceux qui ont conscience de la constellation d’organismes qui ont accès à ces informations).
Tous les systèmes caractérisent les plus démunis comme personne à risques. Tous ces systèmes rendent chacun de leur mouvement plus visible et renforcent la surveillance dont ils sont l’objet. Ils visent plus à « manager les pauvres qu’à éradiquer la pauvreté ». Enfin, ces systèmes suscitent très peu de discussion sur leurs réels impacts et leur efficacité. Or, ils font naître des « environnements aux droits faibles », où la transparence et la responsabilité politique semblent absentes.
Pourtant, rappelle-t-elle, la pauvreté n’est pas un phénomène marginal. La pauvreté en Amérique n’est pas invisible. 51 % des Américains passent une année de leur vie au moins dans une situation de pauvreté. La pauvreté n’est pas une aberration qui n’arrive qu’à une petite minorité de gens souffrants de pathologies. Si les techniques de surveillance de la pauvreté ont changé, les résultats sont les mêmes. « Les institutions de secours et leurs technologies de contrôle rationalisent un brutal retour à une forme d’asservissement en sapant les pouvoirs des plus pauvres et en produisant de l’indifférence pour les autres ».
« Quand on parle de technologies, on évoque toujours leurs qualités. Leurs promoteurs parlent de technologies disruptives, arguant combien elles secouent les relations de pouvoirs instituées, produisant une gouvernementalité plus transparente, plus responsable, plus efficace, et intrinsèquement plus démocratique. » Mais c’est oublier combien ces outils sont intégrés dans de vieux systèmes de pouvoirs et de privilèges. Ces systèmes s’inscrivent dans une histoire. Et ni les modèles statistiques ni les algorithmes de classement ne vont renverser comme par magie la culture, la politique et les institutions.
La métaphore de l’hospice numérique qu’elle utilise permet de résister à l’effacement du contexte historique, à la neutralité, que la technologie aimerait produire. L’hospice numérique produit les mêmes conséquences que les institutions de surveillance passées : elle limite le nombre de bénéficiaires des aides, entrave leur mobilité, sépare les familles, diminue les droits politiques, transforme les pauvres en sujets d’expérience, criminalise, construit des suspects et des classifications morales, créé une distance avec les autres classes sociales, reproduit les hiérarchies racistes et ségrégationnistes… Sa seule différence avec les institutions d’antan est de ne plus produire de l’enfermement physique. Certainement parce que l’enfermement dans les institutions de surveillance a pu produire des solidarités qui ont permis de les combattre… Les outils numériques produisent non seulement de la discrimination, mais aussi de l’isolement entre ceux qui partagent pourtant les mêmes souffrances.Les problèmes sont toujours interprétés comme relevant de la faute du demandeur, jamais de l’Etat ou du prestataire. La présomption d’infaillibilité des systèmes déplace toujours la responsabilité vers l’élément humain. Elle renforce le sentiment que ces systèmes fonctionnent et que ceux qui échouent dans ces systèmes sont ingérables ou criminels. Ces systèmes produisent une « classification morale ». Ils mesurent des comportements non pas individuels, mais relatifs : chacun est impacté par les actions de ceux avec qui ils vivent, de leurs quartiers, de leurs relations… En cela, l’impact de ces modèles est exponentiel : les prédictions et les mesures reposent sur des réseaux relationnels, qui ont un potentiel contagieux pareil à des virus. Ces modèles distinguent les pauvres parmi les pauvres. La classe moyenne ne tolérerait pas qu’on applique des outils de ce type sur elle. Ils sont déployés à l’encontre de ceux qui n’ont pas le choix.
Virginia Eubanks insiste : ces hospices numériques sont difficiles à comprendre. Les logiciels et les modèles qui les font fonctionner sont complexes et souvent secrets. D’où la nécessité d’exiger l’ouverture et le libre accès au code qui les font fonctionner. Ils sont massivement extensibles et évolutifs. Ils peuvent se répandre très rapidement. Ils sont persistants et sont très difficiles à démanteler et ce d’autant qu’ils s’intègrent et s’enchevêtrent les uns avec les autres, tout comme l’infrastructure des innombrables outils de Google, rendant toujours plus difficile pour l’utilisateur de s’en passer. ‘Une fois que vous brisez les fonctions des travailleurs sociaux en activités distinctes et interchangeables, que vous installez un algorithme de classement et un système d’information que vous intégrez dans tous vos systèmes d’information, il est quasiment impossible d’en renverser le cours (…), tout comme produire un chiffre qui prédit le risque devient impossible à ignorer ». A mesure que ces technologies se développent, « elles deviennent de plus en plus difficiles à défier, à réorienter, à déraciner ». Les hospices numériques sont éternels. Alors que les enregistrements papier, du fait de leur physicalité et des contraintes de stockage qu’ils impliquaient, pouvaient permettre à ceux qui étaient enregistrés d’accéder à un droit à l’oubli, les bases de données numériques construisent des enregistrements éternels, et d’autant plus éternels qu’elles sont interreliées. Et cet enregistrement éternel est une punition supplémentaire, qui intensifie les risques de fuites de données et de divulgation.
Le risque bien sûr est que les technologies expérimentées sur les pauvres deviennent notre lot commun, soient demain utilisées sur chacun d’entre nous. Aujourd’hui, seuls les plus pauvres sont placés sous surveillance, mais ces outils sont là pour destituer demain chacun d’entre nous, prévient la chercheuse. Nous vivons dans des sociétés qui n’ont pas l’usage des plus âgés ou des invalides. « Nous mesurons la valeur humaine seulement sur la capacité à gagner sa vie ». « Nous voyons le monde comme une rivière sanglante de compétition ». Et Eubanks de dénoncer, à la suite d’Oscar Gandy, la « discrimination rationnelle », cette façon que nous avons d’ignorer les biais qui existent déjà. « Quand les outils d’aide à la décision automatisés ne sont pas construits pour démanteler explicitement les inégalités structurelles, elles les augmentent, les précipitent, les étendent, les intensifient. »
« Les ingénieurs qui construisent ces outils attirent notre attention sur les biais qui impactent leurs systèmes. Indirectement, ils font retomber leurs responsabilités sur la société, sans voir que le racisme et le comportement de classe des élites sont « mathwashés » (blanchis par les mathématiques, comme les pratiques de Greenwashing, c’est-à-dire qui se donnent une image de responsabilité par les mathématiques – NDT), c’est-à-dire neutralisés par la mystification technologique et la magie des bases de données ». Les nouveaux outils high-tech sont vus comme de simples mises à jour administratives, sans conséquence politiques. Ils ne sont montrés que comme des solutions anodines pour améliorer l’efficacité des systèmes, alors que les transformations qu’ils proposent sont bien plus radicales. Comme le soulignait Rhema Vaithianathan, la conceptrice du système prédictif de maltraitance : « d’ici 2040, le Big data devrait avoir ratatiné le secteur public jusqu’à n’être plus reconnaissable ». Comme le confesse Eubanks : « Je trouve troublant la philosophie qui voit les êtres humains comme des boites noires inconnaissables et les machines comme transparentes. Ce me semble être un point de vue qui renonce à toute tentative d’empathie et qui verrouille toute possibilité de développement éthique. L’hypothèse qui veut que la décision humaine soit opaque et inaccessible est un aveu que nous avons abandonné la responsabilité que nous avons à nous comprendre les uns les autres. »
Le problème, souligne encore la chercheuse, est que ces systèmes se développent. Les systèmes prédictifs se déploient : dans la justice, la police, les services sociaux, scolaires… Les bases de données deviennent la matrice du fonctionnement de nos sociétés.
Eubanks souligne très bien combien les garanties sont trop souvent absentes. Elle pointe les apports des principes dont nous bénéficions, en Europe ou en France, comme l’interdiction d’interconnexion des bases de données, le droit à l’oubli, les droits à la protection de la vie privée et notamment le fait que le stockage et l’exploitation des informations doivent être limités par leur finalité ou leur pertinence. Autant de garanties qui ne sont pas si fortes de l’autre côté de l’Atlantique. Pour Virginia Eubanks, face à ces technologies de l’efficacité, il est plus que nécessaire de protéger les droits humains. D’offrir des garanties, des contreparties et des contre-pouvoirs aussi puissants que le sont ces outils. Comme le souligne son travail : nous en sommes bien loin.
Pour Virginia Eubanks, il nous faut changer le discours et le regard sur la pauvreté. Il faut rendre l’assistance publique moins punitive et plus généreuse. Il est aussi nécessaire de développer des principes de conception techniques qui minimisent les dommages. Elle propose ainsi un intéressant serment d’Hippocrate pour les data-scientists, les ingénieurs et les responsables administratifs. Et esquisse un standard éthique minimum : est-ce que l’outil que je développe augmente l’autodétermination et les capacités des pauvres ? Est-ce que cet outil serait toléré si sa cible n’était pas des personnes pauvres ?
Bien sûr les observations de Virginia Eubanks ont lieu dans un autre contexte que le nôtre. On peut se rassurer en se disant que les lacunes qu’elle pointe ne nous concernent pas, que nous avons d’autres réglementations, que notre système n’est pas aussi libéral. Certainement. A la lecture du livre, je constatais surtout pour ma part, que je ne connaissais pas les équivalents français ou européens des systèmes que décrivait Eubanks. Cela ne signifie pas pour autant qu’ils n’existent pas ou que leur automatisation n’est pas en cours.
Virginia Eubanks signe une analyse radicalement différente de celles que l’on voit d’habitude autour des nouvelles technologies. C’est bien sûr un livre politique. Tant mieux : il n’en est que plus fort. Il me rappelle pour ma part la synthèse que Didier Fassin avait fait de ses travaux autour de la police, de la justice et de la prison, dans son remarquable réquisitoire Punir, une passion contemporaine, où il montrait combien la sévérité de nos systèmes pénitentiaires, policiers et judiciaires renforçait l’injustice et les inégalités, en dénonçant combien la justification morale de la punition ne produit qu’une répression sélective.
La chercheuse américaine pointe en tout cas combien la technologie est trop souvent « un mirage », comme le souligne sa consoeur danah boyd, qui nous masque les coûts réels des systèmes, leurs impacts sur les gens. Le travail ethnographique de Virginia Eubanks rend visible la politique derrière les outils. Elle nous montre que pour comprendre les systèmes, il ne faut pas seulement se plonger dans le code, mais regarder leurs effets concrets. Aller au-delà des bases de données, pour constater ce qu’elles produisent, ce qu’elles réduisent. Comme le souligne le journaliste Brian Bergstein dans une tribune pour la Technology Review, « l’instabilité déjà causée par l’inégalité économique ne fera qu’empirer si l’Intelligence artificielle est utilisée à des fins étroites ». Nous y sommes déjà !
-
6:27
Les requêtes d’élévation dans Giro3D
sur OslandiaEnclosure: [download]
Cet article concerne des fonctionnalités publiées avec la version 0.36 de Giro3D.
Giro3D 0.36 introduit un système de requêtes d’élévation sur les Maps. Nous allons explorer cette API ainsi que quelques cas d’usages typiques.
Pré-requis: les couches d’élévationPour bénéficier de l’API de requêtes d’élévation, une Map doit être dotée d’une couche d’élévation. Les couches d’élévation peuvent lire des données de sources diverses, comme des GeoTIFF ou des couches tuilées (comme celles fournies par l’IGN ou Mapbox).
Requêter une élévation sur une coordonnéeUne fois notre Map et notre couche d’élévation prêtes, nous pouvons commencer à requêter les élévations. Cela passe par la méthode getElevation().
// Mont-Blanc const coordinates = new Coordinates('EPSG:4326', 6.864594, 45.833641); const elevationResult = map.getElevation({ coordinates });
getElevation() ne renvoie pas directement une valeur unique, mais un objet contenant une série d’échantillons (samples). Nous pouvons ordonner ces échantillons par résolution, puis récupérer celui ayant la meilleure résolution.
if (result.samples.length > 0) { result.samples.sort((a, b) => a.resolution - b.resolution); const best = result.samples[0]; const elevation = best.elevation; console.log(`Elevation for coordinate: ${elevation} m`); }
Il est ainsi possible de requêter plusieurs Maps simultanément, d’agréger leurs échantillons, puis de récupérer le meilleur.
Requêter plusieurs maps ?Dans un contexte typique, une scène ne contient qu’une seule map. Mais il existe des scénarios ou plusieurs map dotées de données d’élévation sont présentes simultanément dans une scène, voire se chevauchent.
C’est le cas par exemple d’une scène contenant une mosaïque hétérogène de rasters d’élévation (chacun étant réprésenté par une Map). Dans ce cas nous devrons créer un objet pour stocker les résultats plutôt que de laisser getElevation() le faire pour nous, puis requêter toutes les map en leur passant cet objet:
Positionner des labels sur un terrainconst coordinates = new Coordinates('EPSG:4326', 6.864594, 45.833641); const result = { samples: [], coordinates: options.coordinates }; for (const map of allMaps) { map.getElevation({ coordinates }, result); } if (result.samples.length > 0) { result.samples.sort((a, b) => a.resolution - b.resolution); const best = result.samples[0]; const elevation = best.elevation; console.log(`Best sample for coordinate: ${elevation} m`); }
Pour en savoir plus, voir l’exemple complet sur le site de Giro3D.
Un cas d’usage typique des requêtes d’élévation est le positionnement de labels sur le terrain. Supposons que nous voulions mettre une label au sommet du Mont-Blanc, mais que nous ne disposions que de sa latitude et longitude et pas son élévation:
const labelObject = new CSS2DObject(/** options */); // Mont-Blanc const coordinates = new Coordinates('EPSG:4326', 6.864594, 45.833641).as('EPSG:3857'); labelObject.position.setX(coordinates.x); labelObject.position.setY(coordinates.y); // ... After elevation query on the coordinates labelObject.position.setZ(elevation);
Il est ainsi possible de positionner rapidement un grand nombre d’objets à la surface du terrain.
Positionnement de labels sur le terrain
LimitesLa requête d’élévation ne lit que les données actuellement présentes en mémoire, et ne fait aucune requête [HTTP.] Les données chargées dépendent du point de vue actuel : si la caméra est très éloignée du terrain, des données de faible résolution seront chargées. Cela peut avoir un impact sur la qualité du positionnement, notamment lorsque l’on se rapproche.
Pour pallier à ce problème, il suffit de procéder à une nouvelle requête d’élévation lorsque les données actuellement chargées changent. Nous pouvons pour cela ajouter un listener sur l’événement de changement d’élévation de la map, et mettre à jour les labels situées dans la zone de mise à jour (extent).
Créer un profil d’élévationfunction updateLabels(extent) { // Code } map.addEventListener('elevation-changed', ({ extent }) => updateLabels(extent));
Pour en savoir plus, voir l’exemple complet sur le site de Giro3D.
Un autre scénario typique faisant usage des requêtes d’élévation est bien sûr le profil d’élévation. Il est relativement simple de créer un profil d’élévation en utilisant 3 composants:
- les requêtes d’élévation
- les outils de dessins Giro3D que nous avons présentés dans un article précédent.
- la librairie chart.js
Dessin d’un profil d’élévation
Le profil est créé en requ?tant des dizaines, voire centaines d’élévations en un temps très court (moins d’une seconde généralement).
Bien sûr, les mêmes limites s’appliquent: il s’agit de requêter uniquement les données chargées, et aucune requête HTTP supplémentaire n’est effectuée par Giro3D. Il s’agit donc d’un cas idéal pour fournir aux utilisateurs un aperçu très rapide sans surcharger les serveurs.
Les performancesLes requêtes d’élévation sont généralement très rapides: de l’ordre de la dizaine de millisecondes.
Dans l’exemple Giro3D des profils">[https:] d’élévation, les 200 échantillons sont obtenus en moins de 200 millisecondes. Un profil de 10 000 échantillons est réalisé en moins de 400 millisecondes.
ConclusionLes requêtes d’élévation sont un moyen souple et performant de combler le fossé entre la géomatique 2D et 3D, sans nécessiter de service additionnel de type OGC WPS.
-
11:00
Mappery: 3D Globe
sur Planet OSGeoEnclosure: [download]
Elizabeth shared this with us. She said “Would you call this a map? It is certainly a navigation aid.” I am not sure how you would describe this but it certainly is an interesting piece.
-
10:45
Mapping Every US Election Since 1840
sur Google Maps ManiaThe Republican Party has won the popular vote in only one Presidential Election in the last 35 years. Since 1989 only George W. Bush (in 2004) has won the popular vote for the Republicans - and in that election Bush benefited from being the incumbent.A newly released visualization from the University of Richmond’s Digital Scholarship Lab highlights the dwindling appeal of the Republican Party
-
9:48
Presse : RODolPh une application pour collecter efficacement les redevances dues par les opérateurs de réseaux
sur Makina CorpusLa presse en parle?! Découvrez cet article de Michel Degoffe paru dans La Lettre du Maire n° 2332 : RODolPh, une application pour collecter efficacement les redevances dues par les opérateurs de réseaux.
-
11:02
AssetMAPPER pour inspecter facilement son patrimoine routier
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueGroupe international créé au Canada en 1991, Transoft Solutions développe des logiciels et des services innovants. Présent dans douze pays, il compte quelque 50.000 utilisateurs dans 150 pays, des professionnels du transport, dans les domaines de l’aviation, du génie civil et transport et la sécurité routière. Sa nouvelle filiale française, installée début 2024, poursuit le développement d’une solution opérée depuis huit ans, permettant de réaliser de manière automatisée l’identification et le diagnostic du patrimoine routier. Des informations précises et géolocalisées qui, une fois exportées, pourront enrichir le système d’information géographique (SIG) de toute organisation, collectivités, bureaux d’études, entreprise de service ou gestionnaire de réseaux ou patrimoine.
«Cette solution se résume en trois points : flexibilité, ergonomie et sécurité, affirme Matthieu Levivier, Directeur de Transoft Solutions France. Contrairement à d’autres offres basées sur du matériel dédié, complexe et coûteux, nous proposons une captation à l’aide d’une simple caméra 360°, comme une GoPro. Le traitement à l’aide de l’IA des images obtenues est entièrement réalisé en ligne par AssetMAPPER, notre logiciel développé en France. Et le résultat se visionne à l’aide d’une interface Google Maps que tout le monde connait. L’outil reste personnalisable. L’utilisateur peut ajouter ses propres objets ou programmer une détection particulière. Enfin, le process est entièrement réalisé sur une plate-forme Cloud sécurisée. Pas besoin d’un serveur dédié : il suffit de récupérer la carte mémoire de sa caméra 360°, de nous transférer son contenu et nous nous chargeons du reste».
Voir aussi ce qui ne se voit pas Le «reste» permet d’obtenir en une journée un inventaire et un diagnostic de tous les éléments visibles dans une vue à 360°. Celle-ci est extraite depuis la vidéo réalisée par la caméra à pied, en vélo ou depuis un bateau pour la signalisation de navigation fluviale. Le plus souvent, le relevé s’effectue en voiture. Dans ce cas, il est possible de couvrir jusqu’à 600 km et, à une vitesse pouvant atteindre les 100km/h, de dresser l’inventaire de près de 10.000 équipements en une seule journée ! Tous les types de signalisation horizontale et verticale existants à travers le monde sont relevés et positionnés de manière précise : panneaux directionnels ou de police, mais aussi balises, feux, barrières, candélabres, adresses avec plaque de rue et numéro…
Les process de Transoft Solutions sont éprouvés et, en fin de traitement dans le Cloud, AssetMAPPER offre, en parallèle d’une visualisation cartographique, des rapports avec la catégorisation des objets, les dédoublements (tel qu’un panneau vu à deux reprises sur deux clichés, ou de face puis de dos) ou la mesure performance. «Cela permet par exemple d’estimer la qualité d’usure d’un marquage au sol ou de la colorimétrie d’un panneau, explique Matthieu Levivier. Grâce à l’entrainement, nous pouvons également voir ce qui ne se voit pas : un panneau qui aurait dû être présent ou celui qui est masqué par la végétation». L’utilisateur peut enfin télécharger les jeux de données sous divers formats (Excel, CSV, JSON, Shapefile) pour une intégration notamment dans un SIG.
Relever la signalisation de police autour d’un aéroport Cette promesse se vérifie sur le terrain, comme aux côtés de Jean-Pierre Cahon, expert reconnu en équipement de la route et tout particulièrement en signalisation routière. Il est aujourd’hui chef de projet au sein de la division Infrastructures ville et transports d’Ingérop. Il connait bien l’offre de Transoft Solutions pour l’avoir éprouvée dans de précédentes fonctions, par exemple pour réaliser des relevés de signalisation horizontale d’un conseil départemental ou d’un gestionnaire de réseaux autoroutier.
Cette fois, Ingérop a été mandaté par le groupe ADP pour intervenir sur le site de l’aéroport parisien de Roissy Charles-de-Gaulle. «Nous avons travaillé sur un large secteur incluant les terminaux, les voies rapides, une zone de bureaux et une zone technique et de maintenance, avec pour objectif de réaliser l’inventaire et le diagnostic des panneaux de police en utilisant la technique d’inspection automatisée, relate Jean-Pierre Cahon. L’exercice s’est révélé complexe en raison de l’environnement très dense, avec parfois 5 à 6 ensembles de panneaux, poteaux, balises et panonceaux identifiés dans une même vue ! La circulation et la configuration particulière du réseau routier ajoutaient d’autres difficultés. À certains endroits, jusqu’à 7 passages ont été nécessaires pour couvrir complètement les lieux. Enfin, cette mission d’assistance à maitrise d’ouvrage s’est déroulée en février 2024, à une période où la luminosité est peu idéale. L’équipe Transoft Solutions a été contrainte à repousser certaines limites du logiciel et du traitement ; et cela a fonctionné !»
Trois jours de roulage étaient prévus, mais le trafic et la pluie ont obligé l’équipe d’Ingérop à le réaliser en cinq jours. Jean-Pierre Cahon en dresse le bilan. «Le relevé sur environ 200km de voirie nous a permis de relever précisément 2.914 panneaux. Nous avons pu constater la présence de panneaux très dégradés, accidentés non changés ou certains mauvais positionnements par rapport à la réglementation». L’expert a ensuite exporté les données vers son SIG à partir duquel il a pu éditer les cartes et imprimer les Atlas requis avec son audit.
Interrogé sur la pertinence de la solution, Jean-Pierre Cahon souligne qu’un relevé équivalent à la main «nécessiterait entre 20 et 25 jours, avec une problématique de sécurité que l’on ne se pose plus. Aujourd’hui, il est impensable de prendre le risque d’avoir un agent exposé sur les routes» ! Quant à la différence avec un relevé LiDAR de haute densité : «la précision serait certes meilleure, mais à un coût bien plus élevé. De plus, il restera des limites. Même avec un LiDAR, il sera impossible de lire le marquage CE qui donne au dos du panneau des informations sur sa fabrication et donc de son remplacement obligatoire sous dix ans». Puisqu’il en est question, «chez Transoft Solutions, le coût au kilomètre utile est facturé 30 euros, avec une dégressivité au volume», conclut Matthieu Levivier.
+ d'infos :
transoftsolutions.com
RDV le jeudi 17 octobre de 11 à 12h pour découvrir plus en détail comment inventorier ou inspecter son patrimoine facilement avec l’IA.
Cliquez ici pour vous inscrire gratuitement au webinaire organisé par Transoft Solutions.
-
11:00
Mappery: I can’t explain
sur Planet OSGeoEnclosure: [download]
I spotted this globe at a wedding venue recently. I’ve no idea who the two figures aren’t? Feel free to make suggestions
-
10:00
Mapping the Political Landscape
sur Google Maps ManiaWaves of Interest is a deep dive into Google search trends during election years. This beautiful data visualization maps out which political topics capture the attention of Americans during US election years. And where!By using the clever visual metaphor of a topographic map Waves of Interest transforms political interest into an intuitive landscape. The visualization reveals the fall
-
9:12
GeoSolutions: GeoSolutions Participating at GIS-Pro 2024 in Portland, ME October 7-10
sur Planet OSGeoYou must be logged into the site to view this content.
-
6:41
Nouveau dans QGIS 3.40 : Le support CMJN
sur OslandiaCrédits : Bru-nO (Pixabay Content License)
Grâce au financement de la Métropole de Bordeaux, j’ai eu la chance de travailler sur le support du CMJN (Cyan Magenta Jaune Noir, CMYK en anglais) dans QGIS. L’objectif de la métropole est de faire tomber la dernière barrière empêchant leur migration complète depuis ArcGIS vers QGIS.
Les développements sont maintenant terminés et seront disponibles dans la version 3.40 de QGIS, prévue pour être publiée en octobre 2024, avant de devenir la prochaine LTR en février 2025. Il est cependant à noter que le support du CMJN ne sera complet que dans les versions de QGIS construites avec Qt 6 (version encore non officielle) pour des raisons expliquées dans l’article. Sur Windows, cette version n’est actuellement installable qu’en utilisant OSGeo4W (version qgis-qt6-dev).
EDIT: En réalité, la version de QGIS construite à partir de Qt 6.8 qui embarque les modifications nécessaires pour l’export PDF CMJN n’est toujours pas disponible. Plus d’information ici.
C’est quoi le CMJN ?Vous connaissez certainement le RVB qui permet de coder une couleur sur écran en choisissant la quanté de rouge, vert et bleu de cette couleur. Il est aussi possible que vous utilisiez le TSL ou TSV.
RVB – Crédits : Daniel Roberts (Pixabay Content License)
Ces 3 référentiels de couleurs permettent de coder une couleur pour un écran, le CMJN cible quant à lui les imprimantes en permettant de saisir la quantité exacte d’encre qui sera libérée lors de l’impression (d’où les 4 composantes CMJN, une par cartouche d’encre).
CMJN ( ici de gauche à droite, NCMJ ) – Crédits : Magnascan (Pixabay Content License)
Les caractéristiques du CMJN diffèrent fortement du RVB, on parle notamment de mode colorimétrique soustractif, car l’encre absorbe la lumière au contraire du RVB qui est dit additif, plus vous avez de rouge, vert, bleu plus vous vous rapprochez de la pleine lumière, le blanc.
La nature intrinsèquement différente de ces 2 espaces colorimétriques font qu’il est fortement déconseillé de convertir l’un vers l’autre. Le mieux est de choisir une couleur dans un espace (CMJN pour l’impression, RGB pour le rendu sur écran) et de s’y tenir.
Pire, l’impression d’une même couleur est différente selon l’imprimante, l’encre, le papier… Le choix d’une couleur CMJN se fait dans un espace de couleur, représenté par un fichier de profil ICC, fourni par votre imprimeur. C’est un peu l’équivalent d’un nuancier utilisé lors d’un choix de peinture.
Vous pouvez maintenant vous écharper sur la VRAIE bonne couleur d’une ligne de route – Crédits : Yanis Ladjouzi (Pixabay Content License)
Implémentation dans QGIS… et QtSuite aux développements, il est maintenant possible dans QGIS de :
- Saisir des couleurs au format CMJN, et en précision flottante ;
- Définir son mode de couleur préférentiel (RVB ou CMJN) et son espace de couleur ;
- Générer un fichier au format PDF/X-4 (prêt pour l’impression) embarquant un espace de couleur et utilisant des couleurs CMJN ;
- Permettre au moteur d’expression de manipuler des couleurs CMJN sans les convertir en RVB ;
- Gérer les rampes de couleurs CMJN ;
- Plein d’autres petites améliorations et corrections autour de la thématique des couleurs.
Selection des couleurs dans QGIS en CMJN
La belle histoire de l’Open sourceJ’ai pris un grand plaisir à participer à ce développement car il est le fruit de la collaboration de nombreux acteurs du logiciel libre.
Lors d’une première phase d’étude concernant le support du CMJN dans QGIS, on identifie rapidement que Qt, le cadriciel (framework) utilisé par QGIS pour le rendu des cartes, présente des limitations. Il convertit toutes les couleurs en RVB lors du rendu des cartes au format PDF et son support des espaces de couleurs CMJN est incomplet.
Il est donc nécessaire de le faire évoluer. Nous nous adressons donc à notre partenaire privilégié lorsqu’il s’agit de Qt, KDAB, et plus précisément Giuseppe D’Angelo qui réalise alors les développements nécessaires.
S’agissant de nouvelles fonctionnalités, ces dernières sont disponibles uniquement dans Qt 6 (Qt 5 est en fin de vie). C’est pour cette raison que le support du CMJN est incomplet dans les versions officielles de QGIS reposant encore sur Qt 5.
QGIS.org, l’association qui chapeaute le projet QGIS, a décidé de financer les développements sur Qt, charge ensuite à Oslandia de piloter ces développements puis de réaliser l’intégration dans QGIS. Cette intégration ainsi que les évolutions fonctionnelles afférentes été financé par la métropole de Bordeaux.
Mes développements ont ensuite été relus par d’autres contributeurs QGIS. (Si vous voulez en savoir plus sur le processus de contribution QGIS, vous pouvez lire un précédent billet de blog sur la qualité logicielle dans QGIS)
Enfin, je tenais à remercier spécialement Jehan, développeur sur le projet GIMP. Sa disponibilité et son exhaustivité dans nos correspondances électroniques m’ont grandement aidé à comprendre les enjeux à la fois techniques et fonctionnels du CMJN, et ont très certainement contribué à la qualité du résultat obtenu.
La suiteQGIS 3.40 sera donc capable de générer un fichier PDF/X-4 utilisant des couleurs CMJN. Qt, de son côté, améliore le support du CMJN, l’écriture PDF, et la gestion des espaces de couleurs.
Encore merci à la métropole de Bordeaux et QGIS.org pour avoir financé ces développements, et toutes les personnes impliqués dans la réalisation de ceux ci.
Nous serions ravis d’avoir des retours d’utilisateurs sur vos cas d’utilisation liés à la gestion des couleurs dans QGIS. N’hésitez pas à nous écrire ou à commenter nos posts pour nous dire comment vous utilisez ces fonctionnalités.
Ces fondations dans la gestion des espaces colorimétriques dans QGIS ouvrent la porte à de futurs perfectionnements. Si le sujet vous intéresse et que vous souhaitez contribuer, n’hésitez pas à nous contacter à infos+qgis@oslandia.com et consulter notre offre de support à QGIS.
-
16:12
Mises à jour octobre 2024
sur Toute l’actualité des Geoservices de l'IGNTous les nouveaux services web géoservices et toutes les mises à jour de données en téléchargement du mois d'octobre 2024. -
16:00
Mises à jour octobre 2024
sur Toute l’actualité des Geoservices de l'IGNTous les nouveaux services web géoservices et toutes les mises à jour de données en téléchargement du mois d'octobre 2024.
-
13:40
Journée d’étude : Le Fleuve sur la carte. Cartographie locale.
sur Cartes et figures du mondeLe 17 octobre 2024
Tours, CESR (Centre d’Etudes Supérieures de la Renaissance)
Salle Saint-Martin
Le fleuve sur la carte. Cartographie locale.
Journée d’étude organisés par Nathalie Bouloux (Université de Tours, CESR), Jean Senié (Université de Tours, CESR) et Camille Serchuk (Southern Connecticut State University)
- 9h30 – Camille Serchuk, Jean Senié Nathalie Bouloux et Jean-Charles Ducène : Introduction et présentation du projet
- 10h – Camille Serchuk : Cartes et paysages fluviaux en France au XVIe siècle
- 10h30 – Pause
- 10h45 – Juliette Dumasy (Université d’Orléans, POLEN) : La représentation des fleuves du Fenland sur les cartes anglaises au Moyen Âge
- 11h15 – Evelien Timpener : Late medieval river maps, their practical use and juridical implications in medieval water management
- Discussions
- 12h30 – Déjeuner
- 14h – Jean Senié : Le rôle des cartes dans les conflits frontaliers le long du Pô (fin XVe-XVIIIe siècle)
- 14h30 – Armelle Querrien : Autour de la figure de 1685 de la Théols à Issoudun: hydraulique, procès, représentations
- 15h – Pause
- 15h30 – Annette Baumann : Sovereignty rights on the river – the dispute over customs and market rights on the Elbe between the Hanseatic City of Hamburg and the Dukes of Brunswick
- 16h – Discussion générale
-
12:13
Café géo de Paris, 15 octobre 2024 : Les Etats-Unis et le Monde, avec Philippe Etienne
sur Les cafés géographiquesUn ancien ambassadeur de France aux Etats-Unis rend compte de l’ampleur des défis auxquels fait face aujourd’hui la première puissance mondiale.
Café de Flore (75006), dans la salle du premier étage, mardi 15 octobre 2024, de 19h à 21h.
Philippe Etienne, ambassadeur de France aux Etats-Unis de 2019 à 2023, a accepté l’invitation des Cafés Géo pour éclairer l’assistance sur les grandes questions géopolitiques de la puissance américaine, sans oublier d’évoquer les fractures de la situation intérieure des Etats-Unis.
Moins de quatre ans après l’assaut sur le Capitole, l’élection présidentielle américaine du 5 novembre 2024 opposera l’ancien Président Donald Trump et l’actuelle Vice-Présidente Kamala Harris. Deux Amérique continuent de s’affronter dans un contexte international incertain marqué par de nombreux conflits de toute nature. L’hégémonie américaine est menacée à la fois par le spectre de la désunion à l’intérieur et par la remise en cause de l’ordre mondial né en 1945.
Philippe Etienne a été ambassadeur en Roumanie, auprès de l’UE (13 ans au total à Bruxelles), en Allemagne et en dernier lieu aux Etats-Unis (2019 2023).
Il a été conseiller diplomatique d’Emmanuel Macron entre 2017 et 2019.
Il est Président de la Mission pour le 80ème anniversaire de la Libération de la France.Le Café abordera la problématique suivante : l’Europe semble dépassée par l’accumulation des crises et par la compétition entre Washington et Pékin. Comment nos démocraties peuvent- elles défendre leurs intérêts, leur souveraineté et leurs valeurs dans un monde autant déstructuré et violent ?
-
11:44
Café géo de Chambéry-Annecy, 10 octobre 2024 : Pourquoi et comment protéger les glaciers et les écosystèmes qui leur succèdent ?
sur Les cafés géographiquesavec Jean-Baptiste Bosson, glaciologue et géomorphologue
10 octobre 2024, 18h, Café Terra Natura, 68 avenue des Neigeos, Seynod
Les glaciers sont de passionnants témoins de l’histoire de la Terre. Sources de terreur puis d’émerveillement, d’aventure et de connaissance, ils permettent de mieux comprendre l’évolution du climat et ses enjeux à l’Anthropocène. Basée sur des résultats récemment obtenus dans les Alpes et dans le monde, cette présentation explore l’évolution fascinante et inquiétante des glaciers sur Terre et met en lumière l’importance de protéger ces géants et les écosystèmes qui leur succèdent.
-
11:00
Mappery: A Wild Map in a Nuclear Bunker
sur Planet OSGeoEnclosure: [download]
Rollo spotted this Mapsinthewild in a late 1940’s nuclear bunker operations room in York with the ‘most advanced map of the time’ laid out. This facility was designed to monitor impact and fall out. It would support a team of 60 for 30 days underground…. apparently design was out dated almost immediately (1950) but was still manned for 30 years!!!!
And here is the 1980’s tech update …
-
10:21
Optimisation simple d’un réseau de neurones
sur Neogeo TechnologiesMaintenant que l’on a appris à entraîner un réseau de neurones (un modèle) et à récupérer / créer des données d’entraînement, faisons un petit point théorique sur l’optimisation de l’entrainement de notre modèle.
Entraîner un modèle est un processus itératif : à chaque itération, le modèle fait une estimation de la sortie, calcule l’erreur dans son estimation (loss), collecte les dérivées de l’erreur par rapport à ses paramètres et optimise ces paramètres à l’aide de la descente de gradient.
Descente de gradient (rappel)La descente de gradient est un algorithme permettant de trouver le minimum d’une fonction.
Approche intuitive :
- De façon intuitive, on peut imaginer être un skieur sur une montagne. On cherche à trouver le point d’altitude la plus basse (donc, un minimum d’altitude).
- L’approche pour trouver ce minimum est de se placer face à la pente descendante et de simplement avancer pendant 5 minutes.
- Donc, 5 minutes plus tard, on se trouve à un autre point et on réitère l’étape précédente.
- Ainsi de suite jusqu’à arriver au point le plus bas.
Approche mathématique :
- La pente de la montagne correspond à la dérivée. Et, la valeur de dérivée correspond à l’inclinaison de la pente en un point donné.
- Donc, une dérivée élevée indique une pente importante. De la même façon, si la dérivée est faible, alors la pente est faible. Finalement, une dérivée nulle correspond à un sol horizontal.
- Pour le signe de la dérivée, on va à l’inverse de la pente. Plus concrètement, une dérivée positive indique une pente qui descend vers la gauche et, une dérivée négative indique une pente qui descend vers la droite.
- Une fois la direction déterminée (gauche ou droite), il reste à déterminer le pas (on se déplace pendant 5 minutes, 10 minutes, … ?). L’idéal serait de faire le pas le plus petit possible pour déterminer si on a trouvé le minimum le plus régulièrement possible. Le problème avec cette approche est le coût calculatoire : le calcul va être très lent. A l’inverse, un pas trop grand nous fera louper le minimum. Il faut donc trouver un juste milieu, ce qui se fait en spécifiant un taux d’apprentissage (learning_rate) que l’on développera par la suite.
Approches couplées :
- On peut représenter la montagne décrite dans l’approche intuitive par la fonction suivante : f(x) = 2x²cos(x) – 5x. On se restreindra à une étude sur l’intervalle [-5,5].
- Visuellement, le minimum est situé vers x ? 3.8 pour une valeur minimale de y ? -42 environ.
- On va donc appliquer la descente de gradient pour trouver ce minimum.
Pour cela, on commence par prendre un premier x (x0) au hasard. x0 = -1 -> f(x0) = 6.08)
On calcule ensuite la valeur de la pente en ce point (la dérivée f'(x0)). f'(-1) = -2sin(-1)-4cos(-1)-5 ? -5.47827
On « avance » dans la direction opposée à la pente : x1 = x0 ? ?f'(x0) (avec ? = learning_rate = 0.05). x1 ? -0.72609
On répète ensuite l’opération jusqu’à trouver xmin. xmin = 3.8
HyperparamètresCe processus d’optimisation peut être influencé directement par le développeur via le biais des hyperparamètres. Ces hyperparamètres sont des paramètres ajustables qui impactent l’entraînement du modèle et le taux de convergence de ce dernier. Le taux de convergence correspond en combien d’itérations le modèle obtient un résultat optimal.
Pour entraîner le modèle, on dispose de 3 hyperparamètres :
- Nombre d’époques epochs_number : le nombre de fois où l’on parcourt l’ensemble de données
- Taille du lot d’entraînement batch_size : le nombre d’échantillons de données propagés sur le réseau avant la mise à jour des paramètres
- Taux d’apprentissage learning_rate : à quel point les paramètres des modèles doivent être mis à jour à chaque lot/époque. Des valeurs plus petites entraînent une vitesse d’apprentissage lente, tandis que des valeurs plus élevées peuvent entraîner un comportement imprévisible pendant l’apprentissage. (ref. « Descente de gradient »)
Plus concrètement, on possède initialement 2 choses :
- le modèle
- un jeu de données
On commence par découper le jeu de données en sous-jeux de données, tous de même taille. Ces sous-jeux de données sont appelés batch, tous de taille batch_size.
Ensuite, chaque batch est propagé dans le réseau (passé en entrée de celui-ci). Lorsque tous les batch sont passés par le modèle, on a réalisé 1 epoch. Le processus est alors reproduit epochs_number nombre de fois.
Ces étapes peuvent être visualisées sur l’image suivante.
Boucle d’entraînement du modèleAvant toute chose il faut définir les hyperparamètres. Par exemple :
- learning_rate = 1e-3
- batch_size = 64
- epochs = 5
Une fois les hyperparamètres définis la boucle d’entraînement et d’optimisation du modèle peuvent commencer. Pour rappel, chaque itération de cette boucle est donc une epoch.
De façon plus précise chaque epoch est constituée de 2 phases :
- l’entraînement : itération sur le jeu de données d’entraînement afin de tenter de converger vers des paramètres optimaux.
- la validation : itération sur le jeu de données de validation pour vérifier que le modèle est plus performant et s’améliore.
A la première boucle, comme notre réseau n’a pas encore été entraîné, il a très peu de chance qu’il donne une bonne réponse / un bon résultat. Il faut alors mesurer la distance entre le résultat obtenu et le résultat attendu. Cette distance est calculée à l’aide de la fonction de perte (loss_function).
Le but est donc, au fur et à mesure des itérations de boucle, de minimiser cette loss_function afin d’avoir un résultat obtenu au plus proche du résultat attendu. On notera ici l’utilité de la descente de gradient qui, comme expliqué précédemment, est un algorithme permettant de trouver le minimum d’une fonction, ici, la loss_function.
L’optimisation consiste donc à mettre à jour les paramètres à chaque boucle pour minimiser cette fonction de perte. Cette optimisation est encapsulée dans un objet optimizer qui est appliqué sur le modèle. Ce dernier prend donc en entrée les hyperparamètres du modèle. Dans la boucle d’entrainement, l’optimisation est plus précisément réalisée en 3 étapes :
- Appel à fonction optimizer.zero_grad() : réinitialisation des gradients des paramètres du modèle. Par défaut, les gradients s’additionnent ; pour éviter le double comptage, nous les mettons explicitement à zéro à chaque itération.
- Appel à la fonction loss.backward() : rétropropagation de la prédiction de perte (loss).
- Appel à la fonction optimizer.step() : ajustement des paramètres par les gradients collectés lors de la rétropropagation.
Nous avons révisé comment entraîner un modèle de données en introduisant les concepts de hyperparamètres et touché du doigt l’importance d’un bon optimiseur.
La prochaine fois nous vous proposerons un TP pour coder notre optimiseur et étudier quelques uns des optimiseurs fournis dans pytorch.
Rédacteurs : Mathilde Pommier et Sébastien Da Rocha
-
9:51
Tracking Satellites in 3D
sur Google Maps Maniasearching & zooming in on individual satellitesExploring the Final Frontier with Keep TrackKeepTrack is an innovative platform that allows users to monitor satellites orbiting Earth in real-time. At its core is a 3D interactive map that not only shows you where satellites are at the moment but also provides advanced analytics and visualizations to study their orbits and interactions in
-
8:30
Selectour : migration D6 vers D10 et refonte de l'intranet Saphir
sur Makina CorpusSelectour, premier réseau d’agences de voyages indépendantes en France avec plus de 1 000 points de vente répartis sur l’ensemble du territoire et les DOM-TOM, accompagne près
-
2:00
Camptocamp: Generative AI in geospatial: A Pyramid of Increasing Complexity
sur Planet OSGeoEnclosure: [download]
Large Language Models LLMs like GPT have emerged as game-changers in the way we interact with technology, automate processes and generate content. -
18:16
OSGeo Announcements: [OSGeo-Announce] We are pleased to announce that OTB version 9.1.0 is out!
sur Planet OSGeoReady to use binary packages are available on the package page of the website:
* OTB-9.1.0-Linux.tar.gz
<https://www.orfeo-toolbox.org/packages/OTB-9.1.0-Linux.tar.gz>\(Ubuntu/Debian\)
* OTB-9.1.0-Linux_RedHat.tar.gz
<https://www.orfeo-toolbox.org/packages/OTB-9.1.0-Linux_RedHat.tar.gz>\(Linux\)
* OTB-9.1.0-Win64.zip
<https://www.orfeo-toolbox.org/packages/OTB-9.1.0-Win64.zip>\(Windows
64 bits)Docker images are available with different python versions (3.8 by default, 3.10 for 9.1.0_ubuntu22, 3.12 for 9.1.0_ubuntu24) :
|docker pull orfeotoolbox/otb:9.1.0|
It is also possible to checkout the branch with git:
|git clone Main Repositories / otb · GitLab OTB -b release-9.1|
The documentation for OTB 9.1.0 can be found here <https://www.orfeo-toolbox.org/CookBook-9.1/>\.
To download the packages one by one for a modular installation, you can download them here < [https:]] follow the instructions in the cookbook <https://www.orfeo-toolbox.org/CookBook-9.1/Installation.html>\.
*Changes*
This release introduces bug fixes, important dependencies update (jpeg turbo, geotiff and GDAL), documentation improvement and *the support of SPOT5* (previously drop in OTB8 as OSSIM dependency was removed).
The full changelog can be accessed here <https://gitlab.orfeo-toolbox.org/orfeotoolbox/otb/-/blob/release-9.1/RELEASE_NOTES.txt>\.
We welcome your feedback and requests on OTB’s GitLab <Sign in · GitLab; and if you find a bug, please report it!
*Reminder from OTB 9.0:*
The *whole new packaging system* is entirely made with CMake / CPack, to make the toolbox more modular. You still have the possibility to have a full package for Linux and Windows, but for those who want to install only a part of the toolbox it is possible since v9. The modules list is available in the cookbook with their associated applications. All the packages are now in tar.gz and the installation is movable unlike OTB < 9.
*All GUI has been dropped*. QGIS is now the official visualization tool. We support the development of a plugin which you can use with the following instructions <https://www.orfeo-toolbox.org/CookBook/QGISInterface.html>\. Thus *like 9.0 the version 9.1 does not include Monteverdi or Mapla*.
Like version 9.0, Mac version is not supported, you can use docker image.
Laurent Tristan
OTB Team1 post - 1 participant
-
11:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
11:30
Pierre Laconte, Jean Remy (Coord.), 2020, Louvain-la-Neuve à la croisée des chemins, Louvain-la-Neuve, Belgique, Academia-L’Harmattan, 294 p.
sur CybergeoCet ouvrage livre les coulisses de la conception de Louvain-la-Neuve, une ville nouvelle belge à vocation universitaire, non loin de Bruxelles, à partir des années 1960. Conséquence de la querelle linguistique en Belgique qui a interdit tout enseignement en français en Flandre, les sections francophones de la célèbre université de Leuven ont dû déménager en Wallonie et créer l’université de Louvain-la-Neuve. Mais, contrairement à la tendance lourde à l’époque et aujourd’hui encore, le choix a été fait de créer une ville nouvelle universitaire, et non une "université-campus".
La première lecture de cet ouvrage montre des pensées et des courants d’architecture et d’urbanisme différents, qui ont confronté leurs points de vue et leurs perspectives dans ce projet. Il a fallu une coordination exceptionnelle entre les acteurs (pouvoirs publics et privés, université et associations) qui ont fait Louvain-la-Neuve (LLN) pour qu’elle devienne la ville qu’elle est aujourd’hui. Les auteurs sont l...
-
11:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
11:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
11:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...
-
11:30
Cartographier les pressions qui s’exercent sur la biodiversité : éléments de réflexion autour des pratiques utilisées
sur CybergeoPour mieux orienter les politiques de conservation, il est crucial de comprendre les mécanismes responsables de la perte de biodiversité. Les cartes illustrant les pressions anthropiques sur la biodiversité représentent une solution technique en plein développement face à cet enjeu. Cet article, fondé sur une revue bibliographique, éclaire les diverses étapes de leur élaboration et interroge la pertinence des choix méthodologiques envisageables. La définition des notions mobilisées pour élaborer ces cartes, en particulier celle de la pression, représente un premier défi. La pression se trouve précisément à la jonction entre les facteurs de détérioration et leurs répercussions. Cependant, les indicateurs à notre disposition pour la localiser géographiquement sont généralement axés soit sur les causes, soit sur les conséquences de la dégradation. Cet écueil peut être surmonté si la nature des indicateurs utilisés est bien définie. À cet effet, nous proposons une catégorisation des ind...
-
11:30
Exploring human appreciation and perception of spontaneous urban fauna in Paris, France
sur CybergeoCity-dwellers are often confronted with the presence of many spontaneous animal species which they either like or dislike. Using a questionnaire, we assessed the appreciation and perception of the pigeon (Columba livia), the rat (Rattus norvegicus), and the hedgehog (Erinaceus europaeus) by people in parks, train stations, tourist sites, community gardens, and cemeteries in Paris, France. Two hundred individuals were interviewed between May 2017 and March 2018. While factors such as age, gender, level of education or place or location of the survey did not appear to be decisive in analyzing the differential appreciation of these species by individuals, there was a clear difference in appreciation based on the species and the perceived usefulness of the animal, which is often poorly understood. The rat was disliked (with an average appreciation score of 2.2/10), and the hedgehog was liked (with an average appreciation score of 7.7/10). The case of the pigeon is more complex, with som...
-
11:30
From "Bioeconomy Strategy" to the "Long-term Vision" of European Commission: which sustainability for rural areas?
sur CybergeoThe aim of this paper is to analyze the current and long-term effects of the European Commission Bioeconomy Strategy in order to outline possible scenarios for rural areas and evaluate their sustainability. The focus is on the main economic sectors, with particular reference to employment and turnover, in order to understand what kind of economy and jobs are intended for rural areas, as well as their territorial impacts. For this purpose, we have analyzed the main European Commission documents and datasets concerning the bioeconomy and long-term planning for rural areas, as well as the recent scientific data to verify the impact on forests. The result is that European rural areas are intended to be converted initially into large-scale biomass producers for energy and bio-based industry, according to the digitization process, and subsequently into biorefinery sites, with severe damage to landscape, environment, biodiversity, land use and local economy. Scenarios for rural areas don’t...
-
11:30
Impact du numérique sur la relation entre les systèmes de gestion de crise et les citoyens, analyse empirique en Île-de-France et en Région de Bruxelles-Capitale
sur CybergeoDepuis une dizaine d’année, les systèmes de gestion de crise utilisent les canaux de communication apportés par le numérique. D'un côté, le recours aux plateformes numériques et aux applications smartphones permet une plus grande visibilité des connaissances sur le risque. De l’autre, les réseaux sociaux numériques apparaissent comme un levier idéal pour combler le manque d'implication citoyenne dans la gestion de crise. Pourtant, jusqu'à la crise sanitaire qui a débuté en 2020, rien ne semble avoir été fait pour impliquer les citoyens au cours du processus de gestion de crise. Dans cet article, nous posons la question de l'apport du numérique dans la transformation de la communication sur les risques et dans l'implication citoyenne dans la gestion de crise. En 2018, nous avons diffusé un questionnaire en Île-de-France et dans la région de Bruxelles-Capitale afin de comprendre les attentes des citoyens et les effets des stratégies de communication territoriale sur la perception des ...
-
11:30
La fabrique publique/privée des données de planification urbaine en France : entre logique gestionnaire et approche territorialisée de la règle
sur CybergeoLa question des données territoriales revêt une importance croissante pour l’État, qui entend orienter leur production, leur circulation et leur condition d’usage. Cet article examine les modalités du repositionnement de l’État vis-à-vis des collectivités locales en matière d’urbanisme règlementaire dans le cadre de la standardisation et de la numérisation des données des Plans Locaux d’Urbanisme. Il explore également l’intégration de ces données dans une géoplateforme unique. Nous montrons que ce projet de construction d’un outil commun à l’échelle nationale s’inscrit dans le cadre d’une reprise en main par le pouvoir central des données de planification urbaine à travers l’intégration partielle de méthodes privées, développées par des sociétés commerciales au cours des années 2010 grâce au processus d’open data. L’étude de la fabrique publique/privée des données de l’urbanisme règlementaire permet de mettre en exergue deux points clés de la reconfiguration de l’action de l’État pa...
-
11:00
Mappery: Battersea Park Playground
sur Planet OSGeoEnclosure: [download]
The Geomob speaker, known as the Geospatial Index, shared this picture from a Battersea Park playground in London.
-
10:30
Appropriations de l’espace et répression du mouvement des Gilets jaunes à Caen
sur MappemondeEn mobilisant différentes méthodologies de recherche issues principalement de la géographie sociale et de la sociologie politique, le présent article souhaite esquisser quelques pistes d’analyse et répondre à la question suivante : comment rendre compte par la cartographie des espaces de lutte du mouvement des Gilets jaunes dans l’agglomération caennaise ? En explorant ainsi sa dimension spatiale, nous désirons contribuer aux débats méthodologiques et analytiques qui ont accompagné ce mouvement qui s’est distingué par ses revendications et sa durée, mais aussi par sa géographie.
-
10:30
Les cartes dans l’analyse politique de l’espace : de l’outil à l’objet de recherche
sur MappemondeLa publication de la carte répertoriant les trajets d’utilisateurs de l’application de sport Strava, en 2017, a rendu identifiables des bases militaires dont les membres utilisaient Strava lors de leurs entraînements (Six, 2018). Cet exemple souligne à la fois l’omniprésence de l’outil cartographique dans nos vies et sa dimension stratégique. Aucune carte n’est anodine, quand bien même son objet semble l’être. Nos sociétés sont aujourd’hui confrontées à de nouveaux enjeux, liés à l’abondance des cartes sur Internet, dans les médias, au travail, que celles-ci soient réalisées de manière artisanale ou par le traitement automatisé de données géolocalisées. L’usage de la cartographie, y compris produite en temps réel, s’est généralisé à de nombreux secteurs d’activités, sans que l’ensemble des nouveaux usagers ne soit véritablement formé à la lecture de ce type de représentation, ni à leur remise en question. Dans ce cadre, le rôle du géographe ne se limite pas à la production de cartes...
-
10:30
Les stratégies cartographiques des membres de la plateforme Technopolice.fr
sur MappemondeConséquence de la transformation des cadres institutionnels du contrôle et de la sécurité, le déploiement de la vidéosurveillance dans l’espace public est aujourd’hui contesté par plusieurs collectifs militants qui s’organisent à travers des modes d’action cartographiques. Leurs pratiques entendent dénoncer, en la visibilisant, une nouvelle dimension techno-sécuritaire des rapports de pouvoir qui structurent l’espace. Grâce aux résultats d’une enquête de terrain menée auprès des membres de la plateforme Technopolice, nous montrons que le rôle stratégique de la cartographie collaborative dans leurs actions politiques réside dans ses fonctions agrégatives et multiscalaires. La diffusion de cartes et leur production apparaissent alors comme des moyens complémentaires, analytiques et symboliques, utilisés par les militants pour mieux appréhender et sensibiliser le public au phénomène auquel ils s’opposent.
-
10:30
La végétalisation de Paris vue au travers d’une carte : une capitale verte ?
sur MappemondeCet article s’intéresse à un dispositif cartographique en ligne proposant de visualiser les projets de végétalisation urbaine entrant dans la politique municipale parisienne. Avec une approche de cartographie critique, nous montrons comment la construction de la carte, et en particulier le choix des figurés et la récolte des données, participe à donner à la capitale française une image de ville verte. Le mélange de données institutionnelles et de données contributives composant la carte du site web Végétalisons Paris traduit l’ambiguïté de la politique de végétalisation parisienne, entre participation citoyenne et instrumentalisation politique.
-
10:30
Géopolitique de l’intégration régionale gazière en Europe centrale et orientale : l’impact du Nord Stream 2
sur MappemondeDépendante des importations de gaz russe, l’Union européenne tente de diversifier ses approvisionnements depuis la crise gazière russo-ukrainienne de 2009. En Europe centrale et orientale, cette politique se traduit par un processus d’intégration régionale des réseaux gaziers. Planifié depuis 2013, ce processus n’a pas connu le développement prévu à cause des divisions engendrées par le lancement du projet de gazoduc Nord Stream 2 porté par Gazprom et plusieurs entreprises énergétiques européennes. Ainsi la dimension externe de la politique énergétique des États membres a un impact sur la dimension interne de la politique énergétique européenne.
-
10:30
Les Petites Cartes du web
sur MappemondeLes Petites Cartes du web est un ouvrage de 70 pages de Matthieu Noucher, chargé de recherche au laboratoire Passages (Bordeaux). Il s’adresse à un public universitaire ainsi qu’à toute personne intéressée par la cartographie. Son objet est l’analyse des « petites cartes du web », ces cartes diffusées sur internet et réalisées ou réutilisées par des non-professionnel?les. Elles sont définies de trois manières :
-
historique, comme des cartes en rupture avec les « grands récits » de la discipline ;
-
politique, comme des cartes « mineures », produites hors des sphères étatiques et dominantes ;
-
technique, en référence aux « petites formes du web » d’É. Candel, V. Jeanne-Perrier et E. Souchier (2012), participant à un « renouvellement des formes d’écriture géographique ».
Ce bref ouvrage, préfacé par Gilles Palsky, comprend trois chapitres. Les deux premiers, théoriques, portent l’un sur la « profusion des “petites cartes” » et l’autre sur l’actualisation de la critique de la cartographie. L...
-
-
10:30
L’Amérique latine
sur MappemondeEn choisissant de commencer son ouvrage par la définition du terme « latine », Sébastien Velut donne le ton d’une approche culturelle et géopolitique de cette région centrale et méridionale du continent américain. Grâce à une riche expérience, il présente ce « grand ensemble flou » (p. 11), ce continent imprévu qui s’est forgé depuis cinq siècles par une constante ouverture au Monde. L’ouvrage, destiné à la préparation des concours de l’enseignement, offre une riche analyse géographique, nourrie de travaux récents en géographie et en sciences sociales, soutenue par une bibliographie essentielle en fin de chaque partie. L’exercice est difficile mais le propos est clair, explicite et pédagogique pour documenter l’organisation des territoires de l’Amérique latine. En ouverture de chaque partie et chapitre, l’auteur pose de précieuses définitions et mises en contexte des concepts utilisés pour décrire les processus en œuvre dans les relations entre environnement et sociétés.
En presque 3...
-
10:30
Les cartes de l’action publique. Pouvoirs, territoires, résistances
sur MappemondeLes cartes de l’action publique, ouvrage issu du colloque du même nom qui s’est déroulé en avril 2018 à Paris, se présente comme une recension de cas d’étude provenant de plusieurs disciplines des sciences sociales. Sociologues, politistes et géographes proposent au cours des 14 chapitres de l’ouvrage (scindé en quatre parties) une série d’analyses critiques de cartes dont il est résolument admis, notamment depuis J. B. Harley (1989), qu’elles ne sont pas neutres et dénuées d’intentionnalités. Cette position, assumée dès l’introduction, sert de postulat général pour une exploration de « l’usage politique des cartes, dans l’action publique et dans l’action collective » (p. 12).
Les auteurs de la première partie, intitulée « Représenter et instituer », approchent tout d’abord les cartes de l’action publique par leur capacité à instituer et à administrer des territoires.
Dans un premier chapitre, Antoine Courmont traite des systèmes d’information géographique (SIG) sous l’angle des scien...
-
10:30
Vulnérabilités à l’érosion littorale : cartographie de quatre cas antillais et métropolitains
sur MappemondeL’érosion littorale est un phénomène naturel tangible dont la préoccupation croissante, compte tenu du changement climatique, nous a menées à travailler sur la problématique de la cartographie de certaines composantes du risque d’érosion comprenant l’étude de l’aléa et de la vulnérabilité. Les terrains guadeloupéens (Capesterre-Belle-Eau et Deshaies) et métropolitains (Lacanau et Biarritz) ont été choisis, présentant une grande diversité d’enjeux. À partir d’un assortiment de facteurs, puis de variables associées à ces notions, la spatialisation d’indices à partir de données dédiées permettrait d’aider les décideurs locaux dans leurs choix de priorisation des enjeux et de mener une réflexion plus globale sur la gestion des risques.
-
10:30
La construction d’une exception territoriale : L’éducation à la nature par les classes de mer finistériennes
sur MappemondeLes classes de mer, inventées en 1964 dans le Finistère, restent encore aujourd’hui très implantées localement. Dépassant la seule sphère éducative, ce dispositif est soutenu par des acteurs touristiques et politiques qui ont participé à positionner le territoire comme pionnier puis modèle de référence en la matière à l’échelle nationale. Tout en continuant à répondre aux injonctions institutionnelles, poussant à la construction d’un rapport normalisé à la nature (développement durable, éco-citoyenneté), cette territorialisation du dispositif singularise la nature à laquelle les élèves sont éduqués.
-
10:30
The U.S. Supermarket Wars
sur Google Maps ManiaAccording to the Washington Post, "Walmart, Kroger, Aldi (Süd) and Albertsons own a third of all U.S. grocery stores locations." But who is winning the supermarket wars in your area?Hot on the heels of Japan's ConbiniWars interactive map, the Post has divided the United States based on which supermarket chain owns the most stores in each county. Whereas the ConbiniWars map used a Voronoi layer
-
7:30
Se libérer du technocolonialisme
sur Dans les algorithmesEn cartographiant la logique profondément coloniale de nos technologies, avec Anatomy of AI et Calculating Empires, Kate Crawford et Vladan Joker ont attiré notre attention sur le caractère extractiviste sans précédent des technologies numériques, construites depuis « les logiques du capital, du maintien de l’ordre et de la militarisation » qui accélèrent les asymétries de pouvoir existantes. Dans leur nouveau livre, Data Grab : the new colonialism of Big Tech (and how to fight back) (Pillage de données : le nouveau colonialisme des Big Tech (et comment le combattre), WH Allen, 2024, non traduit), Ulises A. Mejias et Nick Couldry interrogent la métaphore technocoloniale. Peut-on dire que la technologie procède d’un colonialisme ? Et si c’est le cas, alors comment nous en libérer ?
Explorer, étendre, exploiter, exterminer : une continuitéA la fin de leur précédent livre, The costs of connection (Stanford University Press, 2019) Mejias et Couldry en appelaient déjà à « décoloniser internet » de l’emprise des multinationales qui le dominent. Mais derrière la formule qui fait florès, peut-on vraiment affirmer que le colonialisme technologique repose sur les mêmes caractéristiques que le colonialisme d’hier ?
Le colonialisme, historique, repose d’abord sur un accaparement sans précédent des terres, des biens, des ressources, des personnes, dont les effets, les conséquences et les répercussions continuent encore aujourd’hui. Il repose sur un quadriptyque, expliquent les chercheurs : « explorer, étendre, exploiter, exterminer ». Comparativement, l’accaparement des données semble bien anodin. Pourtant, estiment les chercheurs, ce technocolonialisme partage beaucoup de caractéristiques avec son ancêtre. D’abord, il est comme lui global et se déroule à très large et très vaste échelle. Mais surtout, il « prolonge et renouvelle cet héritage de dépossession et d’injustice » commencé avec la colonisation. En 1945, un habitant de la planète sur trois était dépendant de l’ordre colonial. Aujourd’hui, un habitant de la planète sur trois a un compte Facebook, comparent un peu rapidement les auteurs. Les contextes et impacts sont différents, mais l’échelle du déploiement de la domination des Big Tech rappelle nécessairement cette histoire, estiment-ils. Le pouvoir de Meta par exemple contribue à une diffusion étendue de la désinformation qui a conduit jusqu’à des violences génocidaires et des interférences politiques.
Le colonialisme s’est toujours justifié par sa mission civilisatrice, visant non seulement à contrôler les corps, mais également les esprits et les consciences, comme l’ont fait dans le passé l’Eglise et la Science. Et les Big Tech aussi se targuent d’une mission civilisatrice. La mission civilisatrice, les motifs économiques, l’exercice du pouvoir et l’introduction de technologies spécifiques façonnent l’histoire du colonialisme. Par le passé, la mission civilisatrice s’est toujours faite par le déploiement de nouvelles force de surveillance, de discrimination, d’exploitation. Et c’est également ce qu’on retrouve aujourd’hui avec l’extension de la surveillance au travail, la généralisation de la reconnaissance faciale, du scoring, ou l’exploitation des travailleurs du clic du monde entier. Comme le dit le philosophe Achille Mbembe dans Sortir de la grande nuit : Essai sur l’Afrique décolonisée (2010) : « Notre époque tente de remettre au goût du jour le vieux mythe selon lequel l’Occident seul a le monopole de l’avenir. »
Image : couverture du livre de Ulises A. Mejias et Nick Couldry, Data Grab.Le colonialisme de données est « un ordre social dans lequel l’extraction continue de données génère des richesses massives et des inégalités à un niveau global ». Ce nouvel ordre social repose un nouveau contrat social où le progrès nécessite de remettre nos données aux entreprises, sans condition. Certes, les grandes entreprises de la tech ne nous proposent pas de nous réduire en esclavage et le fait de refuser leurs services ne conduit pas à l’extermination. Reste que le pillage de données n’est pas le fait de quelques entreprises malhonnêtes, mais se produit à tous les niveaux. L’exemple le plus éclairant est certainement l’IA générative qui a eu besoin de collecter toutes les données possibles pour alimenter ses moteurs. Une sorte de prédation généralisée motivée pour le bien de l’humanité. Pour Mejias et Couldry, chausser les lunettes du colonialisme pour regarder la prédation en cours permet surtout de faire apparaître les similarités entre le colonialisme historique et le technocolonialisme, qui reposent, l’un comme l’autre sur l’appropriation de ressources et qui se justifie toujours pour servir un but plus grand (le progrès économique). Ce pillage est toujours imposé par une alliance entre les Etats et les entreprises. Il a toujours des effets désastreux sur l’environnement et il renforce toujours les inégalités, entre des élites extractivistes et des populations exploitées. Enfin, cette prédation se justifie toujours par des alibis : un narratif civilisationnel.
La numérisation de nos existences implique un profond changement dans les relations de pouvoir dans lesquelles nous sommes pris. Le capitalisme ne peut pas être compris sans le rôle qu’a joué le colonialisme dans son expansion, rappellent les chercheurs. « Le capitalisme a une dimension coloniale, non pas par accident, mais par conception ». Et l’exploitation est une fonction des opérations routinières de nos outils numériques. Le colonialisme des données exploite nos existences mêmes. Comme le disait Achille Mbembe dans Brutalisme : « nous sommes le minerai que nos objets sont chargés d’extraire ».
Piller, c’est déposséder sans égard pour les droits de ceux qu’on dépossèdeCe pillage de données transforme déjà en profondeur tous les aspects de nos vies : l’éducation, la santé, les lieux de travail, la consommation, la production… La grande différence que l’on pourrait faire entre le colonialisme historique et ce nouveau colonialisme, c’est que la violence physique semble y être largement absente. En fait, estiment les chercheurs, la violence est devenue plus symbolique. Le pillage lui-même est devenu sans friction, puisqu’il suffit d’accepter les conditions d’utilisation pour qu’il se déploie. Cela ne signifie pas pour autant que toute violence ait disparu. L’enjeu colonial, d’extraction et de dépossession, lui, continue. Il signifie toujours déposséder l’autre sans égard pour ses droits. La justification est d’ailleurs toujours la même : « rendre ce qui est pillé plus productif », selon une définition de la productivité qui correspond aux intérêts du pilleur. Quant à l’exploitation du travail humain, elle n’a pas disparu, comme le rappellent les travailleurs du clic. Cette exploitation est toujours aussi intensive en technologie, nécessite toujours des outils très spécifiques et spécialisés et bénéficie d’abord à ceux à qui ils appartiennent, à l’image des plateformes d’IA qui bénéficient d’abord à ceux qui les proposent et les exploitent.
« L’exploitation des données est une continuation de la violence coloniale via d’autres moyens ». Elle produit toujours de la discrimination et de la perte d’opportunité pour ceux qui en sont les victimes, selon des logiques de classification sociales. Les distinctions de « classe, de genre, de race ont toujours été instrumentées pour créer le mythe que ces différences avaient besoin d’être gérées et organisées par la rationalité occidentale ». Le colonialisme des données renouvelle la mission historique du colonialisme via de nouveaux moyens que sont les systèmes de prise de décision automatisés, les plateformes… dont les effets « sont plus subtils et difficiles à tracer qu’avant ». La discrimination s’inscrit désormais dans nos outils numériques, comme le montrait Virginia Eubanks dans Automating Inequality, en inscrivant les inégalités dans des plateformes profondément asymétriques. L’extraction de données permet d’attacher les personnes à des catégories. Les systèmes de scoring déterminent des scores qui reflètent et amplifient les discriminations forgées par le colonialisme.
Les deux auteurs ont des mots assez durs sur la science occidentale, rappelant qu’elle naît en partie pour la gestion coloniale (la botanique, la zoologie, l’anthropologie…). Qu’elle invente des techniques et des outils (la carte, les rapports, les tableaux…) pas seulement au profit de la science, mais bien également en coordination avec l’expansion économique et militaire. Cette science a été très vite appliquée pour surveiller, contrôler et gérer les populations colonisées. La Big Science et les Big Techs aujourd’hui sont toujours au service de relations de pouvoir asymétriques. Or, rappellent les chercheurs, le colonialisme des données à besoin de nous. « Sans nos données, il ne fonctionne pas ». Nous participons à notre propre exploitation.
La donnée a une caractéristique particulière cependant. C’est un bien non-rival. Elle peut-être copiée et réutilisée sans fin. Cela n’empêche pas qu’elle soit exploitée dans des territoires de données très spécifiques que sont les plateformes, interreliées, qui imposent leurs propres lois depuis les codes qu’elles produisent. Ce nouveau monde de données dirige nos activités vers des canaux numériques qui sont entièrement sous le contrôle des entreprises qui les proposent. Si les données sont un bien non-rival, ce qu’elles capturent (nous !) est bien une ressource finie.
La mission civilisatrice des données : produire notre acceptation
Pour les deux chercheurs, l’exploitation des données est née en 1994, quand Lou Montulli, employé de Netscape, invente le cookie. En 30 ans, les structures de pouvoir du net ont domestiqué la surveillance en avantage commercial via une machinerie numérique tentaculaire, comme le montrait Soshana Zuboff. Les ordinateurs ont été placés au cœur de toute transaction, comme l’expliquait Hal Varian, l’économiste en chef de Google dès 2013. Tout ce qui est personnel ou intime est devenu un terrain d’exploitation. Nous sommes au cœur de territoires de données où le monde des affaires écrit les contrats, en les présentant comme étant à notre bénéfice. Nous sommes cernés par des relations d’exploitation de données qui maximisent l’extraction d’une manière particulièrement asymétrique. Une forme d’hypernudge qui optimise nos comportements pour servir les objectifs des collecteurs. Ce colonialisme n’opère pas que dans le domaine de la publicité ciblée, rappellent les auteurs, elle s’étend aux finances personnelles, à l’agriculture de précision, à l’éducation, la santé, le travail… selon des logiques d’opacité (on ne sait pas exactement quelles données sont collectées), d’expansionnisme (les données d’un secteur servent à d’autres), d’irresponsabilité (sans rendre de comptes) et dans une conformité juridique très incertaine. La gestion des humains est devenue rien d’autre que la gestion d’une base de données, au risque d’y délaisser les plus vulnérables. Ces systèmes ravivent les inégalités du vieil ordre colonial.Dans un chapitre sur la mission civilisatrice des données, les deux chercheurs expliquent que celle-ci repose d’abord sur la commodité. Elle repose également sur une narration connectiviste, quasi religieuse, qui invisibilise la surveillance qu’elle active en suggérant que l’extraction de données est inévitable. Qu’elle doit être continue, profonde, totale. Ce narratif met de côté tous les problèmes que cette extraction génère, comme le fait qu’elle divise les gens, les épuise, les traumatise… On oublie que la connexion limite plus qu’elle augmente la diversité. « Les plateformes plus que les gens, décident quelles connexions sont plus avantageuses pour elles », à l’image des recommandations qu’elles produisent sans qu’on ait notre mot à dire, qu’importe la polarisation ou la radicalisation qu’elles produisent. La viralité est le modèle économique. Nous sommes le jeu auquel joue l’algorithme.
Ce storytelling impose également un autre discours, celui que l’IA serait plus intelligente que les humains. Comme le microscope a participé au succès de l’impérialisme (soulignant le lien entre la méthode scientifique et l’entreprise coloniale comme moyen de réduire et d’abstraire le monde naturel en objets capables d’être gérés), l’IA est l’outil pour rendre l’extraction de données inévitable. D’un outil pour comprendre le monde, la méthode scientifique est aussi devenue un processus pour éliminer l’opposition à la gestion coloniale. Couldry et Mejias rappellent pourtant que la science n’a pas servi qu’un sombre objectif colonial, mais que l’abstraction scientifique et le développement technologique qu’elle a produit a accompagné l’extractivisme colonial. Le narratif sur l’intelligence de l’IA, comme l’explique Dan McQuillan dans Resisting AI, sert à opacifier ses effets. Il nous pousse à croire que l’optimisation statistique serait le summum de la rationalité, qu’il permettrait justement d’éliminer nos biais quand il ne fait que les accélérer. Pour les deux chercheurs, l’IA discriminatoire et opaque par essence sert d’abord et avant tout à dissimuler les limites de la rationalité, à la parer de neutralité, à automatiser la violence et la discrimination qu’elle produit. L’IA n’est que la nouvelle étape d’une production coloniale de connaissance qui prend toutes les productions humaines pour générer une connaissance qui nous est présentée comme son apothéose, quand elle est avant tout un moyen de s’assurer la continuité de l’appropriation des ressources.Si le discours civilisationnel fonctionne, c’est d’abord parce que ce narratif renforce la hiérarchie des pouvoirs et vise à verrouiller la position des dominés comme dominés. Il colonise l’imagination de ce que doit être le futur : un avenir connecté, un avenir que l’on doit accepter, un avenir normal et inaltérable. Ce que ce narratif vise à produire, c’est notre acceptation. Il n’y a pas d’alternative !
La nouvelle classe colonialeLa surveillance se porte bien, comme le pointent les chiffrages du site Big Tech sells War. La sécurité, la défense et la surveillance sont désormais largement aux mains des grandes entreprises de la tech. Le pire colonialisme d’hier ressemble à celui d’aujourd’hui. Et comme hier, il implique l’existence d’une véritable classe coloniale. Celle-ci ne porte plus le casque blanc. Elle opère à distance, dans les bureaux feutrés de quelques grandes entreprises. Mejias et Couldry rappellent qu’à la grande époque, la Compagnie britannique des Indes orientales était une entreprise commerciale de 250 000 employés gérés depuis Londres par une équipe de 35 à 159 employés seulement. Uber, avec 32 000 employés coordonne les opérations de 5 000 0000 de livreurs et chauffeurs pour quelques 131 millions d’utilisateurs.
S’inspirer des résistances anticoloniales
La classe coloniale de la donnée naît dès le milieu des années 80 dans les entreprises qui proposent les premières cartes de crédit et qui se mettent à collecter des données sur les consommateurs pour cela. Leur but ? Distinguer les consommateurs afin de trouver les plus fidèles. Dans les années 90, ces conceptions commencent à essaimer dans les théories de gestion. Couplées aux data sciences, elles donneront naissance aux Big data, c’est-à-dire aux théories de l’exploitation des données qu’incarnent les plus grandes entreprises de la tech. Amazon incarne l’explorateur, celui qui conquiert de nouveaux territoires pour l’extraction depuis le commerce de détail. Google et Apple, les expansionnistes de la données qui dominent de vastes empires de services et d’infrastructures cherchant à pousser toujours plus loin leurs emprises. Facebook est l’exploiteur le plus systémique des données. Les deux auteurs dressent rapidement les évolutions extractivistes des grands acteurs de la tech et de bien d’autres. Nous sommes désormais cernés par une infrastructure d’extraction, dominée par une bureaucratie d’acteurs, qui n’est pas sans rappeler la bureaucratie de l’administration coloniale. Celle-ci est dominée par la figure du data scientist, miroir de l’administrateur colonial, qui œuvre dans tous les domaines d’activité. Qu’ils oeuvrent pour Palantir, Salesforce ou LexisNexis, ils façonnent l’Etat algorithmique, transforment la nature même du gouvernement par de nouvelles formes de connaissance et de contrôle, dans un rapprochement dont on peine à prendre la mesure – 6500 agences publiques américaines utilisent Amazon Cloud Services. Partout, la technologie est devenue la modalité d’action sur la société. Partout, la technologie est convoquée pour optimiser les financements publics et notamment réduire les dépenses par un profilage toujours plus intensif des administrés en y appliquant partout des calculs probabilistes pour améliorer leur rentabilité, changeant profondément la nature du bien public et la conception de l’Etat providence. Pour ces acteurs, tout ce qui peut être utilisé le sera, simplement parce qu’il est disponible. Toutes les données sont collectées et sont rendues productives du fait même de leur disponibilité. La précision, l’exactitude ou la justice sont sans conséquences, tant que les données produisent des résultats.La critique de l’extractivisme colonial est nourrie. Les données, par nature, sont des objets sans contexte. L’historien et politicien Eric Williams, auteur de Capitalisme et esclavage (1930), a pourtant rappelé que la révolution industrielle qui a survalorisé l’innovation occidentale n’aurait pas été possible sans les ressources tirées de la colonisation. Pour lui, le capitalisme n’aurait pas pu se développer sans le colonialisme et sans la sujétion au travail, notamment par l’esclavage. Le sociologue péruvien, Anibal Quijano a parlé lui de « colonialité » du pouvoir pour parler des liens entre capitalisme et racisme, qui ne se sont pas achevés avec la décolonisation, mais se sont prolongés bien au-delà. Pour résister à la colonialité, Quijano invite à développer une rationalité et une connaissance débarrassée des idées de hiérarchies et de discrimination. Pour lui, la connaissance par exemple se construit bien plus par la diversité des perspectives que par le rejet de la diversité sous un prétexte rationaliste. Pour Mejias et Couldry, la connaissance que produit le Big Data est une connaissance depuis le point de vue des institutions qui les produisent, pas des gens et encore moins des gens depuis leur grande diversité. En cela, elle perpétue les caractéristiques de la science occidentale et la rend profondément colonialiste.
Sylvia Wynter est une autre chercheuse que les auteurs convoquent pour nous aider à trouver un autre rapport à la connaissance, à la science et à la rationalité. Pour elle, nous devons résister à la vision dominante de la science occidentale pour promouvoir une vision plus inclusive. Pour elle, nous avons besoin d’un mode de pensée sur la donnée qui inclut plus de gens et de perspectives, à l’image de ce que répètent les data scientists les plus critiques des perspectives technologiques comme Safiya Noble, Timnit Gebru ou les sociologues Ruha Benjamin, Virginia Eubanks… C’est également les perspectives que défendent Catherine D’Ignazio et Lauren Klein depuis le féminisme de données. C’est le même point de vue qu’exprime le philosophe Achille Mbembe quand il dénonce la continuité du colonialisme par d’autres moyens et nous invite à ne plus voir dans l’occident le centre de gravité du monde, dénonçant l’expansion de l’IA, comme le devenir artificiel de l’humanité. C’est le même enjeu qu’exprime Naomi Klein quand elle dénonce le capitalisme du désastre, qui utilise celui-ci pour créer des opportunités pour exploiter les populations les plus vulnérables. Pour Klein, l’extractivisme est lié au colonialisme qui ne voit le monde que comme une terre de conquête, plutôt que notre maison commune. Un extractivisme qui s’étend dans la plus grande impunité.
Les deux chercheurs terminent leur essai par des exemples de résistance qui peuvent paraître, comme souvent, bien fragiles face au rouleau compresseur de l’extractivisme des données. Pour eux, « le colonialisme de données n’est pas un problème facile à réparer ». On ne peut pas l’effacer d’une loi ou d’une nouvelle technologie… Ils nous invitent cependant à apprendre des résistances anticoloniales passées et de celles qui continuent de se déployer aujourd’hui, comme des résistances locales contre le déploiement des technologies de reconnaissance faciale, comme le propose la coalition Reclaim your Face. Dans de nombreuses industries de la tech, les travailleurs tentent de se syndiquer, non sans difficultés. D’autres montent des mouvements pour résister à l’extractivisme, comme No Tech for ICE, le mouvement qui s’oppose à l’usage des technologies par les agences d’immigration américaines ou No Tech for Apartheid qui s’oppose aux technologies de surveillance des Palestiniens ou Our Data Bodies, qui s’oppose aux technologies de surveillance sur les communautés pauvres et racisées américaines. Quand les Big Tech sont partout, c’est à chacun d’entre nous de résister, expliquent-ils en invitant à boycotter les plateformes, à éteindre ou déposer nos téléphones, comme le propose le Luddite Club des adolescents newyorkais. Mais nous devons aussi radicalement réimaginer la façon dont on utilise les données, comme nous y invite la penseuse argentine Veronica Gago, auteure de La puissance féministe, qui invite à s’extraire des zones d’extractivisme ou encore Ivan Illich qui nous invitait à construire une société conviale, faite d’outils responsables par lesquels les humains contrôleraient les technologies qu’ils utilisent.Ils nous invitent d’ailleurs à nous défaire des réponses technologiques. Les solutions sont également sociales, politiques, culturelles, éducatives et légales… Et elles doivent se connecter aux gens et aux luttes. Mejias et Couldry nous invitent à travailler ces systèmes en demandant des droits et des régulations, comme l’a fait le RGPD en Europe. Il nous faut protester contre les pratiques extractivistes, oeuvrer avec les autorités pour exiger des transformations concrètes, oeuvrer avec d’autres organisations pour changer l’allocation des financements, exiger des sanctions et des boycotts, mobiliser les citoyens sur ces enjeux, soutenir la taxation des entreprises de la tech, exiger des garanties pour protéger les citoyens, comme le proposent People vs Big Tech. Mais il faut aussi oeuvrer contre les systèmes et développer de nouveaux outils politiques permettant de refuser le colonialisme sur nos données en œuvrant pour le développement de plateformes plus locales que globales. Si choisir un colonisateur national plutôt qu’un service global ne règle pas la question, Mejias et Couldry nous invitent à trouver les moyens de rendre l’extractivisme des données inacceptable. A la suite de Ben Tarnoff, ils nous invitent à imaginer comment nationaliser l’internet et développer à la suite des travaux de Trebor Scholz, des plateformes coopératives. Ils nous invitent à renverser le discours dominant en relayant les critiques à l’égard des systèmes algorithmiques, à partager les histoires édifiantes des victimes des calculs, et à soutenir les organisations qui œuvrent en ce sens. Ils nous invitent à redéfinir la frontière entre ce que nous voulons et ce que nous ne voulons pas. « La crise du colonialisme des données exige notre participation mais sans notre approbation consciente. Elle ne nous confronte pas à la disparition des glaciers ou des forêts tropicales (même si le colonialisme des données vient avec des coûts environnementaux très significatifs), mais à des environnements sociaux appauvris organisés dans un seul but : l’extraction de données et la poursuite du profit. Et c’est un problème, car résoudre la crise environnementale – et toutes les crises auxquelles nous sommes confrontés – nécessite une collaboration sociale renforcée. Si nos environnements sociaux sont contrôlés par les États et les entreprises, il y a un risque que nous soyons manipulés pour servir leurs intérêts plutôt que les nôtres, ce qui pourrait saper les politiques collectives dont nous avons réellement besoin ». C’est aux colonisés d’agir. Il n’y a rien à attendre des colonisateurs de données. « L’extraction de données est le dernier stade d’un projet qui vise à gouverner le monde dans l’intérêt des puissants. Il nous faut inventer un monde où la donnée est quelque chose que les communautés contrôlent pour les buts qu’elles ont elles-mêmes choisies ». L’IA ne nous sauvera pas. Elle n’est « qu’un mécanisme de plus pour continuer à faire de l’argent et pour transformer le monde en espaces impénétrables que nous ne comprenons pas et sur lesquels nous n’avons aucun contrôle » et qui agit sur nos chances d’accès à des ressources cruciales (prêts, éducation, santé, protection sociale, travail…). Les données discriminent. Les tisser dans des algorithmes et des systèmes toujours plus complexes qui amplifient les biais ne générera que des systèmes de pouvoir encore plus inégaux. Ces systèmes exigent notre transparence la plus totale alors qu’eux-mêmes sont de plus en plus opaques, comme le disaient Ryan Calo et Danielle Citron. Si nous ne démantelons pas ces structures de pouvoir, le colonialisme de données produira de nouvelles injustices, pas leur disparition.
*
Si les perspectives critiques que tirent Mejias et Couldry sont intéressantes, on reprochera néanmoins à leur essai d’être plus philosophique que pragmatique. Les deux chercheurs peinent à documenter concrètement la prédation dont nous sommes l’objet, alors que les exemples ne manquent pas. Leurs propositions conclusives donnent un peu l’impression qu’ils nous invitent à prolonger la lutte, sans documenter justement le coût de la connexion. Leurs recommandations s’inscrivent dans un dictionnaire des luttes bien établies sans parvenir à proposer des leviers sur lesquels celles-ci pourraient converger. Dans leur radicalité, on pourrait s’attendre à ce que leurs propositions le soient également, permettant de construire des objectifs plus ambitieux, comme l’interdiction de la collecte de données, l’interdiction de leurs croisements, l’interdiction des inférences et de la segmentation des publics… On aurait pu attendre d’un livre sur le pillage des données qu’il soit plus radical encore, qu’il nous invite à combattre « la traite » dont nous sommes l’objet par le rétablissement de nos droits, comme l’abolition de l’esclavage ou l’indépendance ont été les leviers décisifs permettant d’envisager de mettre fin au colonialisme. Mejias et Couldry nous offrent une métaphore qui ouvre des perspectives, mais qui semblent bien moins mobilisables qu’on l’attendait.
MAJ du 4/10/2024 : Sur Mais où va le web, Irénée Régnauld revient sur le livre de l’anthropologue Payal Arora, From pessimism to to promise, qui offre un contrepoint au technocolonialisme de Mejias et Couldry. « Pour beaucoup, la peur d’être anonyme et perdu est plus grande que celle d’être surveillé. »
-
2:00
Paul Ramsey: Cancer 12
sur Planet OSGeoBack to entry 1
I was glancing at the New York Times and saw that Catherine, the Princess of Wales, had released an update on her treatment. And I thought, “wow, I hope she’s doing well”. And then I thought, “wow, I bet she gets a lot of positive affirmation and support from all kinds of people”.
I mean, she’s a princess.
Even us non-princesses, we need support too, and I have to say that I have been blown away by how kind the people around me in my life have been. And also how kind the other folks who I have never really talked with before have been.
I try to thank my wife as often as I can. It is hard not to feel like a burden when I am, objectively, a burden, no matter how much she avers I am not. I am still not fully well (for reasons), and I really want to be the person she married, a helpful full partner. It is frustrating to still be taking more than I’m giving.
From writing about my experience here, I have heard from other cancer survivors, and other folks who have travelled the particular path of colorectal cancer treatment. Some of them I knew from meetings and events, some from their own footprint on the internet, some of them were new to me. But they were all kind and supportive and it really helped, in the dark and down times.
From my work on the University of Victoria Board of Governors, I have come to know a lot of people in the community there, and they were so kind to me when I shared my diagnosis. My fellow board members stepped in and took on the tasks I have not been able to do the past few months, and the members of the executive and their teams were so generous in sending their well-wishes.
And finally, my employers at Crunchy Data were the best. Like above and beyond. When I told them the news they just said “take as much time as you need and get better”. And they held to that. My family doctor asked “do you need me to write you a letter for your employer” and I said “no, they’re good”, and he said, “wow! don’t see that very often”. You don’t. I’m so glad Crunchy Data is still small enough that it can be run ethically by ethical people. Not having to worry about employment on top of all the other worries that a cancer diagnosis brings, that was a huge gift, and not one I will soon forget.
I think people (and Canadians to a fault, but probably people in general) worry about imposing, that communicating their good thoughts and prayers could be just another thing for the cancer patient to deal with, and my personal experience was: no, it wasn’t. Saying “thanks, I appreciate it” takes almost no energy, and the boost of hearing from someone is real. I think as long as the patient doesn’t sweat it, as long as they recognize that “ackknowledged! thanks!” is a sufficient response, it’s all great.
Fortunately, I am not a princess, so the volume was not insuperable. Anyways, thank you to everyone who reached out over the past 6 months, and also to all those who just read and nodded, and maybe shared with a friend, maybe got someone to take a trip to the gastroenterologist for a colonoscopy.
Talk to you all again soon, inshala.
-
11:00
Mappery: Sanssouci Park
sur Planet OSGeoEnclosure: [download]
Reinder said “These images show a 3D plan in bronze or something, from the park ‘Sanssouci’ in Potsdam. A beautiful place with an unrivaled amount of quite impressive palaces. [https:]] “