Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
4560 éléments (102 non lus) dans 55 canaux
- Cybergeo (20 non lus)
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (4 non lus)
- Mappemonde (20 non lus)
- Dans les algorithmes (9 non lus)
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN (7 non lus)
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier (8 non lus)
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée
- Geotribu (3 non lus)
- Les cafés géographiques (5 non lus)
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO) (9 non lus)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (2 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques (7 non lus)
- Veille cartographie
- Makina Corpus (1 non lus)
- Oslandia (6 non lus)
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Éléments récents
-
14:00
Fernando Quadro: 8 Funções do GIS na Inteligência de Negócios
sur Planet OSGeoO Sistema de Informações Geográficas (GIS) é uma tecnologia que pode ser usada para inteligência de negócios de diversas formas, como:
Análise de Localização
Identifica localizações ideais para novas lojas, armazéns e instalações com base em dados geográficos e demográficos.Segmentação de Mercado
Estratégias de marketing adaptadas para regiões específicas.Otimização da Cadeia de Suprimentos
Planejamento de rotas, logística e gerenciamento de estoque identificando os caminhos mais eficientes para transporte.Gerenciamento de Riscos
Mapeia riscos ambientais e geopolíticos, zonas de desastres naturais, instabilidade política ou pontos críticos de crimes.Insights sobre o Comportamento do Cliente
O GIS rastreia os comportamentos do consumidor geograficamente, identificando padrões e preferências de compra regionais.Gerenciamento de Ativos
Gerenciamento e monitoramento de ativos físicos como equipamentos, veículos ou infraestrutura em vários locais.Análise de Concorrentes
Mapeia as localizações e o alcance de mercado dos concorrentes, fornecendo insights sobre lacunas ou oportunidades.Integração de dados em tempo real
GIS integra dados em tempo real de várias fontes, permitindo a tomada de decisões dinâmicas para ambientes de rápida mudança.Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]]Gostou desse post? Conte nos comentários
-
12:32
WhereGroup: Mapbender 4 – Praxisbericht nach dem Major Release
sur Planet OSGeoSeit dem Major Release Mapbender 4.0.0. gibt es erste positive Rückmeldungen. Wir berichten über bereits umgezogene Projekte und nehmen noch einmal Bezug auf unser QGIS2Mapbender-Plugin, mit dem Sie Mapbender-Anwendungen direkt aus QGIS erstellen können.
-
11:04
Inside the Maya Temples of Copan
sur Google Maps ManiaMused has released another amazing virtual tour. Explore the Maya Temples at Copán Ruinas is an extraordinary 'Street View' tour of the Maya temples at Copan, one of the most significant archaeological sites of the ancient world. Uncover Copan’s Ancient PastNestled in the lush jungles of western Honduras, Copan was once a thriving center of Maya culture, renowned for its artistic
-
11:00
Mappery: Another embroidery from Anne
sur Planet OSGeoPièce jointe: [télécharger]
Anne L. shared this Map In The Wild, crafted over a weekend while enjoying the sun in her courtyard.
-
9:55
Incident en cours depuis 9h35
sur Toute l’actualité des Geoservices de l'IGNIncident sur la Geoplateforme -
9:55
Incident en cours depuis 9h35 (résolu à 13h)
sur Toute l’actualité des Geoservices de l'IGNIncident sur la Geoplateforme -
9:55
Incident en cours depuis le 16/10 9h35 (résolu)
sur Toute l’actualité des Geoservices de l'IGNIncident sur la Geoplateforme
-
9:39
Géopolitique
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueJusque-là assez méconnu en dehors de son État, le gouverneur du Minnesota. Tim Walz devient le colistier de Kamala Harris, la candidate démocrate à la présidentielle américaine 2024. Certains géomaticiens l’ont vu cet été à San Diego à l’occasion de la conférence des utilisateurs d’Esri Inc. Cet ancien professeur de géographie au lycée était le grand témoin de l’UC en sa qualité d’utilisateur de SIG, depuis les années 90. Il les a exploités pour répondre aux problèmes impactant les personnes et les lieux en répondant à de nombreux enjeux comme autour de l’énergie propre, de la gestion du coût du logement, de l’approvisionnement des repas scolaires, de l’accès au travail ou de la garde des enfants. Le désigné vice-président a ainsi conscience du rôle clé de la géographie et de l’utilité des SIG : de très bons points face à Donald Trump et James David Vance !
+ d'infos :
esri.com
-
7:30
IA Lock-in
sur Dans les algorithmes« Mais pourquoi les Gafams veulent-ils intégrer l’IA générative partout, alors que les produits proposés jusqu’à présent, se sont révélés plutôt très décevants ? », questionne avec sa pertinence habituelle Ed Zitron. Pour comprendre cet enthousiasme pour ces technologies qui se révèlent souvent médiocres, il faut comprendre comment les entreprises de la tech gagnent de l’argent. Le modèle économique de nombreuses entreprises technologiques repose sur celui du logiciel en tant que service (SaaS, software as a service), où l’on vous facture un montant mensuel par utilisateur « pour un logiciel que vous ne possédez pas et ne contrôlez pas ». Si la proposition a plein d’avantages pour les entreprises qui y ont recours, cela conduit à une forme d’externalisation où les fonctionnalités de votre entreprise sont accomplies par d’autres, avec le risque d’un lock-in problématique, c’est-à-dire d’un verrouillage du client, un « enfermement propriétaire » qui rend le client totalement dépendant de la solution qu’il achète. Et Zitron de comparer le SaaS a un parasite qui devient d’autant plus puissant que votre entreprise grandit et qui finit par limiter votre capacité d’innovation à celle du fournisseur auquel vous êtes lié.
Outre l’infrastructure de calcul et de logiciels, les entreprises de la tech vendent d’innombrables services liés pour permettre aux entreprises de faire tourner leurs services. « Plus vous dépensez d’argent, plus il devient coûteux de partir, et ce coût devient d’autant plus lourd que votre organisation devient grande ». Quant aux cris d’exaspération et les récriminations à l’encontre de ces gammes logicielles, elles sont d’autant plus ignorées qu’elles proviennent de « personnes totalement différentes de celles qui prennent les décisions d’achats ». La seule force de ces solutions médiocres c’est d’être très utilisées et de faciliter une « conformité » qui rend la concurrence quasiment impossible pour les petites entreprises du logiciel d’autant que l’interopérabilité reste la grande absente de toutes ces solutions. Ce fonctionnement explique que les logiciels d’entreprises soient « si nuls » et pourquoi le modèle d’abonnement s’est imposé pour assurer des revenus récurrents.
Le problème estime Zitron, c’est que ce modèle pousse les entreprises qui fournissent des services à toujours en proposer de nouveaux. L’autre problème, c’est qu’elle crée des entreprises captives et favorise la concentration des activités des fournisseurs. On peut comprendre qu’une petite entreprise externalise ses besoins, mais il devient plus difficile de tout externaliser à mesure qu’elle grandit, surtout si cette externalisation passe par d’innombrables prestataires logiciels. La tendance à la concentration autour d’un seul prestataire logiciel grandit avec les clients et pousse les entreprises qui fournissent des services à proposer une gamme de plus en plus étendue de services (d’outils de visioconférence aux logiciels de paye…).
« C’est le fondement de l’ensemble de l’industrie technologique et d’une grande partie de la valorisation des entreprises technologiques : des milliers de milliards de dollars de capitalisation boursière sont soutenus par le modèle économique qui consiste à externaliser votre infrastructure et vos logiciels et à les facturer mensuellement, et à inventer de nouvelles façons de vous faire « investir dans votre infrastructure » en acceptant de les payer un peu plus chaque mois. »
Le problème, estime Zitron, c’est que cette industrie du service logiciel n’a plus d’idée pour assurer sa croissance autre que de faire croître le parasite. En fait, ce revenu annuel récurrent ne progresse plus (enfin, il progresse encore de plus de 20% par an, mais c’est la moitié de son niveau de progression d’il y a 5 ans). Non seulement les revenus baissent, mais la satisfaction des clients baisse également alors que le coût d’acquisition de nouveaux clients est plus élevé. Récemment une étude a montré que le nombre d’applications SaaS par entreprise, pour la première fois, a baissé (passant de 130 applications par entreprise en moyenne à 112). « Il se pourrait bien qu’il ne reste plus grand chose à vendre ! », ironise Zitron.
Dans ce paysage en berne, l’IA est une nouvelle promesse à vendre aux clients qui permet de renouveler le fond de services proposés. Tous les acteurs du SaaS ont donc produit des « gadgets IA ». « Il n’est pas évident de savoir ce que font ces produits alimentés par l’IA, et quand vous vous en rendez compte, ils ne semblent pas faire grand-chose », tance, cinglant, Zitron. « Presque toutes ces entreprises affirment que ces systèmes « réduisent la pénibilité » ou « améliorent la productivité », sans fournir d’explication réelle sur la manière dont cela pourrait se produire. » Pour l’instant, certains proposent de l’offrir gratuitement contre le renouvellement de leurs contrats premiums, d’autres la font payer assez cher, bien qu’il leur en coûte parfois plus cher encore, comme c’est le cas de Microsoft. Et Zitron d’évaluer par exemple que très peu des clients de Microsoft 365 semblent avoir opté pour l’option IA. Que le Github copilot de Microsoft semble coûter plus cher à l’entreprise que ce qu’il rapporte (alors qu’il est l’un des produits d’IA parmi les plus populaires et presque utile, bien qu’il semble générer beaucoup de bugs). En février, Microsoft annonçait 1,3 millions de comptes payants à Github copilot et 1,8 millions en septembre… La progression ralentit déjà !
L’IA générative semble le remède miracle pour facturer aux clients « ce qu’ils devraient déjà avoir ». « Au lieu de trouver un moyen d’organiser et de hiérarchiser intelligemment les messages, vous pouvez payer Slack (propriété de Salesforce) 10 $ de plus par utilisateur et par mois pour des résumés de fils de discussion et de canaux alimentés par l’IA ».
Le problème du boom de l’IA en service, « c’est qu’on ne sait pas si ces logiciels seront utiles, si nous avons vraiment besoin que nos e-mails soient résumés ou si les utilisateurs veulent vraiment un chatbot pour répondre à leurs questions ». Pour Zitron, l’IA générative pour l’instant ne se vend pas et elle coûte plus d’argent qu’elle ne rapporte lorsqu’elle se vend. « Dans tous les cas, le problème le plus évident de tous est qu’il ne semble pas y avoir beaucoup de croissance des revenus attribuables à ces outils, ce qui signifie qu’ils doivent soit devenir moins chers (ce qui rendrait leurs coûts intenables), soit meilleurs, ce qui obligerait ces entreprises à trouver un moyen de les rendre plus utiles, ce qu’aucune d’entre elles ne semble être en mesure de faire, et qui est probablement impossible ».
-
7:30
Uber : le grand contournement continue
sur Dans les algorithmesA New-York, la loi oblige les VTC a rémunérer les temps d’attente des chauffeurs. Uber et Lyft ont déjà trouvé la parade : ils déconnectent les chauffeurs dès qu’ils ont fini une course, effaçant ainsi leurs attentes des données enregistrées. Dans une enquête, Bloomberg montre que les blocages n’ont pas lieu seulement lors des périodes de faibles demandes, mais tout le temps, même lors des tensions. Un nouvel exemple (après l’augmentation des tarifs pour les livreurs en France qui a conduit à les réduire) qui montre que la caractéristique principale de l’ubérisation est le contournement de la règle.
-
6:57
[Story] Oslandia x QWC : épisode 4 / 8
sur OslandiaNous présentions déjà plus tôt cette année un nouveau plugin QGIS pour QWC qui permet de publier un projet dans son application QWC sans quitter QGIS : [https:]]
Depuis la publication de cet article, nous avons eu l’occasion d’apporter de nombreux correctifs et des améliorations (financés par Les Agences de l’eau | Direction des Systèmes d’Information et des Usages Numériques) au plugin QGIS ainsi qu’au service de publication associé.
Parmi les nouveautés, on retrouve :
- la possibilité d’ouvrir un projet publié dans le navigateur
- la gestion de plusieurs instances QWC (multi-tenant)
Dans chaque épisode de cette série dédiée à QWC – QGIS Web Client, nous abordons spécifiquement un aspect, un sujet pour terminer par la roadmap. Tous les épisodes sont à suivre sur notre site : [https:]
Vous aussi vous pouvez contribuer à QWC, directement ou en finançant les évolutions ! N’hésitez pas à nous contacter à infos@oslandia.com
-
6:26
Pas à Pas - Utiliser les nouvelles couches d'imagerie orientée ArcGIS
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierDepuis les premiers numéros du magazine SIGMAG, arcOrama collabore chaque trimestre à la rédaction d'un article didactique focalisé sur une fonctionnalité ou une application clé du système ArcGIS. Je reprends ci-dessous l'article publié dans le numéro 41 paru en juin 2024. Celui-ci présente en quelques étapes comment intégrer, afficher et diffuser des photos de terrain prise à l'aide d'un simple smartphone dans une couche d'imagerie orientée ArcGIS.
Fin 2023, Esri a introduit dans ArcGIS un nouveau modèle de données pour la gestion et l'exploitation géographiques d'images dont la position et l'orientation est connue. Cette nouvelle notion de couches d'imagerie orientée est supportée nativement dans les versions récentes d'ArcGIS Pro (3.2+), Online et Enterprise (11.2+). Qu'il s'agisse de photos classiques ou de photos panoramiques (180° ou 360°), que vos images aient été collectées de manière terrestre ou aérienne, vous pouvez désormais les intégrer dans vos workflows de visualisation et d'analyse pour compléter le jumeau numérique de votre territoire. Dans ce Pas à Pas, je vous propose un exemple d'intégration de photos d'équipement télécom prises sur le terrain en tant que couche d'imagerie orientée ArcGIS.
1. Pour collecter vos images orientées, vous pouvez utiliser différents appareils : smartphone, caméra embarquée légère (type GoPro), caméra professionnelle, photographies de drones, photographies aériennes, …. L'essentiel est que l'équipement soit équipé ou couplé à un GPS afin de disposer des informations de géolocalisation et d'orientation de chaque image. Celles-ci peuvent être présentes dans les balises Exif de chaque image ou dans une table ou un fichier séparé des images. Dans notre exemple, un opérateur terrain a collecté des photos d'équipements liées à une ligne de fibre optique aérienne à l'aide d'un simple iPhone.
2. Une fois ces prérequis vérifiés, vous téléchargerez vos photos sur votre poste de travail puis vous ouvrirez un projet ArcGIS avec une nouvelle carte. Dans notre cas, la carte contient des couches SIG relatives à la ligne de fibre optique (poteaux et lignes en rose sur la carte) pour laquelle des photos ont été collectées.
3. L'étape suivante consiste à créer une nouvelle couche d'imagerie orientée dans notre Géodatabase. Pour cela, vous pouvez faire un clic droit sur la Géodatabase puis "Nouveau > Jeu de données d'imagerie orientée". Vous renseignerez alors le nom de la couche d'imagerie orientée (ici "Inventaire_Photos_Supports"), le système de coordonnées (ici "Lambert 93"). Vous choisirez ensuite l'option MNE pour la source des altitudes en laissant le service d'altitude par défaut fournit par Esri. Vous cliquerez sur le bouton "Exécuter" pour créer la couche d'imagerie orientée.
4. Votre Géodatabase contient désormais une couche d'imagerie orientées qui, pour l'instant, est vide. Cette couche a été automatiquement ajoutée à la carte courante. Vous pouvez afficher la structure de la table attributaire pour découvrir les champs de métadonnées qui sont décrivent chaque image d'une couche d'imagerie orientée. Vous noterez par exemple les champs "Name" et "ImagePath" qui indique le nom et le chemin d'accès aux images, les champs "CameraHeading", "CameraPitch","CameraRoll" contenant les infos d'orientation des images dans l'espace, ou encore "HFOV" et "VFOV" qui indiquent les angles horizontaux et verticaux du champ de vision de la caméra. Lors du chargement des images, certaines de ces informations seront calculées automatiquement si elles ne sont pas renseignées dans les images.
5. Vous allez maintenant ajouter les images (ou plus exactement leurs métadonnées) dans cette nouvelle couche d'imagerie orientée. Pour cela, vous ferez un clic droit sur la couche dans la Géodatabase puis "Ajouter des images" dans le menu contextuel. Vous renseignerez ensuite la catégorie d'imagerie, ici ce sont des photos classiques donc : "Horizontal". Vous devrez ensuite sélectionner les fichiers, les dossiers ou les tables correspondant aux images à ajouter. Si vous utilisez une table, cette dernière doit avoir une structure de champs décrite dans l'aide en ligne. Vous cliquerez sur le bouton "Exécuter" pour lancer l'ajout des images.
6. La couche d'imagerie orientée affiche désormais plusieurs points (en vert sur la carte) qui correspondent aux points de prise de vue. La table contient les valeurs récupérées de chaque image comme le nom, le chemin d'accès, la date d'acquisition, la direction et les angles du champ de vision. Les champs d'inclinaison (Pitch) et de tangage (Roll) ne sont pas renseignés. On note également que les champs de distance minimal et maximal du champ de vision ne sont pas renseignés, ces derniers permettent de définir la plage de distances (à partir du point de prise de vue) de couverture de l'image.
7. Bien que le widget d'imagerie orientée fonctionne sans ces valeurs, il est intéressant de compléter la table pour affiner le calcul de l'emprise au sol du champ de vision de vos photos, vous pouvez utiliser la calculatrice pour renseigner les valeurs. Dans le cas de photos horizontales, on pourra mettre l'inclinaison à 90° et le tangage à 0°. De même, les distances "Near" et "Far" peuvent respectivement être mises à 1m. et 100m. Après le calcul de ces 4 champs, votre table doit ressembler à cette copie d'écran.
8. Notre couche d'imagerie est prête, nous pouvons maintenant commencer à l'utiliser. Pour cela, vous sélectionnerez la couche dans la liste des couches de la carte, puis dans le ruban "Couche d'imagerie orientée" vous activerez l'outil nommé "Explorer les images". Vous cliquerez alors sur la localisation qui vous intéresse, ici un des supports de notre réseau aérien de fibre optique. La visionneuse d'images orientées s'affiche alors et vous propose l'image la plus adaptée pour visualiser la localisation
9. La localisation que vous avez cliqué sur la carte peut être visualisée sur d'autres images (d'autres points vue). Pour voir les autres points de prise de vue candidats, vous pouvez cliquer sur l'icône de "boussole" dans la visionneuse. Il vous suffira alors de cliquer sur la prise de vue souhaitée. Dans le ruban "Imagerie Orientée", vous disposez également de deux boutons bleu nommés "Emprises" et "Localisation". Une fois activés, les points de prise de vue alternatifs et leur emprise s'affichent en bleu sur la carte.
10. La visionneuse d'images orientées permet également de naviguer dans l'image et de zoomer sur les parties de l'image qui vous intéresse. Grâce aux infos d'orientation, l'emprise au sol se met alors automatiquement à jour. Parmi les autres fonctionnalités de la visionneuse, vous pourrez également modifier la luminosité/contraste/netteté de l'image. Enfin, vous pourrez également utiliser l'outil "Localisation carte-image" pour cliquer un point sur la carte et voir sa localisation dans l'image orientée (et vice-versa).
11. Les couches d'imagerie orientée ne sont pas uniquement exploitables dans ArcGIS Pro. Elles peuvent être partagées sur un portail ArcGIS Online ou Enterprise. Pour cela, vous devrez préalablement déplacer vos images sur un serveur web permettant l'accès aux images dans un contexte web. Il est important également de mettre à jour les chemins d'accès des images dans le champ "ImagePath" de la couche en utilisant la calculatrice de champs ou via la fonction rechercher/remplacer disponible dans les tables. Via le menu contextuel de la couche, vous exécuterez la commande "Partager en tant que couche web" puis vous renseignerez les informations habituelles pour la publication de contenus sur un portail.
12. Une fois la couche publiée, vous pouvez l'ajouter dans vos cartes web et tirer parti des images orientées dans différentes applications web comme Map Viewer ou les Instant Apps de type "Barre latérale". Dans Map Viewer, il suffira d'ajouter la couche d'imagerie orientée puis de la sélectionner dans la liste des couches et de cliquer sur le bouton "Imagerie Orientée". Le principe de fonctionnement et d'interaction avec la carte est alors identique à celui d'ArcGIS Pro.
-
22:03
Fernando Quadro: Interpolação de dados usando GDAL
sur Planet OSGeoInterpolação espacial é uma técnica para estimar valores desconhecidos em locais com base em valores conhecidos em pontos próximos, criando uma superfície contínua a partir de dados discretos.
Como pode ser útil?
? Prevê valores em locais não amostrados.
? Preenche lacunas de dados para cobertura de área completa.
? Cria superfícies contínuas a partir de dados de pontos.
? Suporta tomada de decisão em vários campos.
? Permite mapeamento temático e visualização de padrões.A interpolação espacial com GDAL aprimora seus dados GIS
A interpolação espacial é uma técnica crucial de engenharia de recursos em GIS que estima valores desconhecidos entre pontos de dados conhecidos.
GDAL (Geospatial Data Abstraction Library) oferece ferramentas poderosas para implementar vários métodos de interpolação. Aqui está uma visão geral das principais técnicas:
Ponderação de distância inversa (IDW)
? Método simples e rápido
? Assume que pontos próximos têm mais influência
? Ideal para estimativas rápidasKrigagem
? Método geoestatístico
? Considera a autocorrelação espacial
? Fornece estimativas de incertezaVizinho Natural
? Adapta-se a dados irregularmente espaçados
? Interpolação suave, sem efeito de alvo
? Bom para modelagem de terrenoSpline
? Cria uma superfície suave
? Útil para fenômenos gradualmente variáveis
? Suporta parâmetros de tensão e regularizaçãoA escolha do método de interpolação correto depende das características dos seus dados e dos requisitos do seu projeto.
Gostou desse post? Conte nos comentários
Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]]
-
15:50
L'API Python d'ArcGIS passe en version 2.4
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierL'API Python ArcGIS permet aux administrateurs de portails, d'utilisateurs ou de contenus ArcGIS, à l'aide de scripts Python, d'automatiser leurs tâches quotidiennes et de mettre en place des workflows métiers potentiellement très avancés. Cette API évolue régulièrement pour suivre l'ajout des nouvelles capacités du système ArcGIS et pour améliorer l'exploitation de données spatiales dans des environnement de scripting comme ArcGIS Notebooks.
Ainsi, la version 2.4.0 vient d'être mise en ligne avec de nombreuses évolutions comme l'arrivée d'un nouveau widget d'affichage de carte, une nouvelle classe "Service" pour accéder de manière générique aux différents services web ArcGIS, la prise en charge des nouveaux types d'utilisateurs, ou encore le support de nouveaux algorithmes de Deep Learning comme ClimaX. Pour découvrir tout cela en détails, je vous recommande la lecture de cet article sur le blog CodeTheMap
-
14:00
QChat
sur GeotribuTchatter en direct avec ses confrères et consœurs, à l'intérieur même de QGIS avec QChat
-
12:00
La discrétisation “Head/tail” produit des cartes mieux hiérarchisées
sur Icem7Deux exigences opposées tiraillent le cartographe : schématiser pour mieux imprimer les messages essentiels, ou délivrer le maximum de détails, tant que l’image le permet. Ces exigences ne sont pas forcément contradictoires.
En cartographie thématique, l’art de la coloration repose d’abord sur le découpage en classes, ce que l’on appelle discrétiser. Les bons logiciels proposent plusieurs méthodes automatiques : quantiles, intervalles égaux et Jenks (ou seuils naturels) sont les plus fréquentes.
La discrétisation Head/tail, proposée en 2013 par le géographe Bin Jiang, et récemment mise en lumière en France par Thomas Ansart dessine fort bien les données hiérarchisées, dont la distribution dissymétrique comprend typiquement beaucoup de petites valeurs et quelques valeurs élevées. C’est le cas par exemple de la population des communes, des revenus moyens, ou des loyers.
Voici une première illustration, avec le coût par m² du loyer mensuel des appartements par commune et arrondissement en France, en 2023.
Source : ministère de la Transition écologique – Cliquez pour zoomerHead/tail à gauche prend la moyenne comme premier seuil, considère les données supérieures (head), puis calcule de façon itérative des moyennes emboitées.
La méthode de Jenks est également itérative. Elle délimite x groupes les plus homogènes possibles, et en même temps les plus distincts les uns des autres. Elle est proche dans l’esprit de la méthode des K-moyennes.
Ces différentes méthodes aspirent à déterminer des « seuils naturels », des ruptures inhérentes aux données plutôt qu’imposées de l’extérieur par des intervalles égaux ou des effectifs égaux (quantiles). Elles sont puissantes et complémentaires.
Head/tail assume de simplifier drastiquement la représentation en neutralisant la première partie de la distribution, celle sous la moyenne (le tail). Ce qui permet de mieux dégager la hiérarchie des valeurs supérieures à la moyenne (head).
J’aime beaucoup ce rendu plus doux, moins agressif, tout en nuances, en particulier pour les loyers dans le bassin parisien. La structure hiérarchique que cette carte dessine, avec une belle séparation de l’avant-plan et de l’arrière-plan, s’imprimera plus durablement dans mon esprit.
Comparons aussi avec cette version (je suppose par quantile), palette divergente, de Boris Mericskay, avec des données de même origine. L’opposition vert/violet a le mérite de simplifier fortement l’information, divisant la France en deux ou trois, autour d’une classe centrale, d’une moyenne supposée faire sens.
Mais quand la distribution est déséquilibrée comme celle des loyers, une représentation symétrique est moins pertinente. Par exemple, une très faible variation du 1er seuil, intervenant dans la pente abrupte du début de la distribution, fera basculer beaucoup de communes d’une classe verte à l’autre, avec un effet violent sur la répartition colorée des deux premières classes. Et le vert foncé n’est pas le symétrique du violet foncé, il ne traduit pas le même écart à la moyenne.
Distribution du loyer des appartements en France (en € par m²) en 2023Voici 3 autres illustrations statistiques et cartographiques de l’intérêt de la méthode Head/tail, appliquée toujours à des distributions dissymétriques, avec beaucoup de petites valeurs et peu de grandes valeurs.
1 – La densité de population (2021) – source Insee
Avec Head/tail, Paris, puis Lyon, sont distinguées du groupe des autres villes moyennes (Toulouse, Bordeaux, Nantes, Nice, etc.).
2 – La médiane du niveau de vie (2021) – source Insee
La frontière suisse, une partie de la frontière luxembourgeoise, l’ouest de l’Île-de-France et le sud de l’Oise sautent davantage aux yeux, du fait d’un meilleur contraste.
3 – La part des diplômés d’un BAC+5 ou plus dans la pop. non scolarisée de 15 ans ou plus (2021)
Pour un plus large usage de Head/tail
– source InseeBin Jiang rappelle que dans la nature, le monde du vivant, les organisations humaines, les phénomènes observés se présentent rarement sous forme d’une distribution symétrique autour d’une « moyenne ». Il y a en général plus de petites valeurs que de grandes.
Mais la hiérarchie déroulée à partir des grandes valeurs est ce qui frappe tout d’abord l’esprit, ce qui donne une première idée d’une structure d’ensemble : hiérarchie des villes, des longueurs de rues dans une ville, des entreprises dans un secteur donné, des intensités de tremblements de terre, de répartition des richesses, de popularité des sites web, de fréquence des mots dans un texte, etc.
Ou les niveaux successifs d’organisation d’une feuille, de ses nervures :
Une feuille (a) décomposée en 5 niveaux d'organisation, jusqu'au réseau le plus fin de ses nervures - Source : Jiang, 2020Pour employer un langage plus technique, les phénomènes naturels ou géographiques sont peu souvent gaussiens (symétriques), plus souvent « paretiens » (de Pareto et sa fameuse loi des 80/20 – 20 % des causes expliquent 80 % des effets), ou « log-normaux » (leur logarithme est gaussien).
Pour Jiang, le nombre de seuils calculés par la méthode Head/tail (dénommé ht index) est un indicateur de la profondeur organisationnelle du phénomène étudié (il le rapproche même du concept de dimension fractale, posé par Benoît Mandelbrot).
Pour une distribution symétrique, idéale, quasi-gaussienne, le ht index sera souvent faible, 2 par exemple. À l’inverse, un ht-index > 5 caractérisera un phénomène étagé, où parfois même, d’un niveau à l’autre, l’on retrouve les mêmes rapports d’échelle.
Description de l'algorithme Head/TailPour découvrir l’algorithme en action (JavaScript et SQL/DuckDB), rendez-vous sur ce classeur Observable.
Considérons par exemple 10 nombres [1, 1/2, 1/3…1/10] (ou [1, 0.5, 0.333…0.1]) qui suivent cette règle de proposer plus de petites valeurs que de grandes.
La somme de cette série fait 2,93, la moyenne 0,293. 1, 1/2 et 1/3 lui sont supérieurs.
Si l’on divise la série en deux morceaux autour de la moyenne (« Head » au-dessus, « Tail » en dessous), on obtient donc l’itération 1 de cette figure :
Source : Bin Jiang - A new approach to detecting and designing living structure of urban environmentsL’algorithme Head/tail itère jusqu’à ce que cette division par la moyenne s’arrête, par exemple parce que le dernier « head » n’a plus qu’un élément ; ou que le dernier « head » a un effectif supérieur à son « tail », signe que la division n’est plus pertinente.
Head/tail fournit une alternative à la méthode de discrétisation de Jenks, bien plus rapide à calculer et, pour son concepteur, mieux apte à rendre compte d’une hiérarchie, d’une structure fractale, caractéristique fréquemment rencontrée dans la nature et le « vivant ».
Pour rappel, la méthode de Jenks – dite aussi des « seuils naturels » – conduit à délimiter x groupes les plus homogènes possibles, et en même temps les plus distincts les uns des autres. x est un paramètre fourni à l’algorithme de Jenks. Cet algorithme est de complexité O(n2), c’est-à-dire que son coût est proportionnel au carré de l’effectif de la distribution à classifier ; il devient difficile à calculer en JavaScript quand n dépasse 10 000 observations.
À l’inverse, la méthode Head/tail est de complexité O(n), et s’exécute en moins d’une seconde avec plusieurs millions d’observations. De plus, elle détermine – intelligemment – son propre nombre de classes, indicateur de la profondeur de la hiérarchie détectée (nombre que l’on peut toutefois réduire en ne retenant que les x premiers seuils).
Pour aller plus loin- Page Wikipedia avec une liste d’implémentations dans divers langages (R, Python…)
- Jiang, B. (2013). « Head/tail breaks: A new classification scheme for data with a heavy-tailed distribution », The Professional Geographer, 65 (3), 482 – 494.
- Jiang, B. (2019). « A recursive definition of goodness of space for bridging the concepts of space and place for sustainability ». Sustainability, 11(15), 4091.
- Jiang, B. (2013) Geospatial Analysis Requires a Different Way of Thinking: The Problem of Spatial Heterogeneity
- Denise Pumain, Hierarchy in Natural and Social Sciences, Springer, 2006
- Thomas Ansart, Atelier de cartographie de Sciences-Po. Head/Tail breaks
- Éric Mauvière, classeur Observable Head/tail breaks
- L’outil Magrit et la librairie JS statsbreaks supportent Head/Tail
- Jean de La Fontaine, La tête et la queue du Serpent
L’article La discrétisation « Head/tail » produit des cartes mieux hiérarchisées est apparu en premier sur Icem7.
-
11:00
Mappery: The World with Chandeliers
sur Planet OSGeoPièce jointe: [télécharger]
Berl sent me this, he said “Seen on one of the walls of the ‘Leyton Engineer’ pub in East London in what used to be Leyton Town Hall. I was on my way to see a Leyton Orient game and popped in to have a bite to eat and a tipple and meet my son.”
Glad to see that Leyton Council had such a global view.
For those of our readers who don’t know of Leyton Orient, they are a football club based in East London. The name apparently came about as a suggestion from one of their players, Jack R Dearing, who had worked on the Orient Stream Navigation Company (otherwise known as the Orient Line).
-
10:54
The A-Z Music Map
sur Google Maps ManiaStep into the heart of Swinging London and let its iconic music lead you through the streets of a city alive with creativity, rebellion, and freedom. The 'London A to Z 1962-1973' interactive map will take you on a sonic journey through the London locations that helped shape one of the most exciting periods in music history. LONDON A to Z 1962-1973 is an interactive map of songs about
-
7:30
Quand la productivité est sous stéroïdes, les problèmes le sont aussi
sur Dans les algorithmesQuels sont les impacts réels de l’IA sur la productivité des programmeurs ? Selon une étude randomisée auprès d’environ 5000 codeurs des grandes entreprises américaines, les développeurs qui utilisent Github Copilot terminent 26% de tâches de plus que les développeurs qui ne l’utilisent pas. Mais terminer les tâches ne fait pas tout ! La génération de code sous IA est loin d’être parfaite (le code sans bugs, selon les outils d’IA, varie passablement, entre 60 et 30%) et nécessite de fastidieuses révisions qui semblent pour l’instant peu adaptées à la vitesse d’adoption de l’IA, explique TechRepublic. D’autant que les programmeurs semblent être plus laxistes dans la révision du code produit par les IA qu’ils ne le sont pour le leur.
MAJ du 17/10/2014 : une étude montre que l’activité sur Stack Overflow, le grand forum pour développeur, a baissé de 25% dans les 6 mois suivant la sortie de ChatGPT.
-
4:15
Sean Gillies: Mastodon #20albums
sur Planet OSGeoThere was this trend a few weeks ago on Mastodon where once a day, for 20 days, you posted the cover of an album that was, for whatever reason, a big deal in your life. I really got into it, thanks to Ed Summers.
20 albums are threaded in the link below. They are in an order that is kind of chronological, enough that you can see me evolve from teenage headbanger to aging hipster.
Post by @sgillies@mastodon.social View on Mastodon
-
11:35
What is Your Neighborhood Scare Score?
sur Google Maps ManiaThe Spookiest ZIP Codes in the U.S.As Halloween approaches, many of us are stocking up on candy, preparing costumes, and decking our homes with spooky décor. But did you know that how much candy, costumes, and Halloween decorations you buy might reveal just how into Halloween your neighborhood is? That’s the concept behind Instacart’s brand-new interactive map, Explore America’s Haunts, which
-
11:30
De la adaptación urbana a la escasez del agua en Phoenix y Tucson (Arizona): una aproximación desde la ecología política
sur CybergeoEn el contexto del cambio climático, las sequias aumentan y los territorios sufren un grave estrés hídrico. Este artículo examina la gestión del desequilibrio entre la disponibilidad de agua y la creciente demande en Phoenix y Tucson, en el árido oeste de Estados Unidos. A partir de un estudio de caso que pone de relieve las cuestiones socioecologicas de la escasez, esta investigación propone considerar las ciudades de Phoenix y Tucson como laboratorios de adaptación urbana al cambio climático para explorar diferentes modalidades de adaptación. El análisis moviliza los conceptos de la ecología política urbana para examinar las relaciones de poder entre los actores de la gestión del agua en un contexto en el que se cuestiona cada vez más el sistema de infraestructuras hídricas que sustenta el crecimiento urbano. Por un lado, el artículo muestra que los actores dominantes aplican estrategias de adaptación para mantener la trayectoria de crecimiento de ciudades especialmente atractivas...
-
11:30
Katja Schicht, 2023, Alexander von Humboldts Klimatologie in der Zirkulation von Wissen. Historisch-kritische Edition der Berliner Briefe (1830-1859) und ihre Kontexte, Hildesheim, Zürich, New York, Olms, 577 p.
sur CybergeoAlexander von Humboldt (1769-1859) était l'un des naturalistes les plus productifs de son époque. L'explorateur a notamment contribué dans les domaines de la géologie et du magnétisme terrestre, ainsi que dans ceux de la connaissance de la biodiversité et de la géographie de l'Amérique du Sud. Ses travaux sur le climat ont récemment reçu une attention accrue. Le naturaliste lui-même n'a en effet jamais rassemblé ses thèses météorologiques et climatologiques dans une publication intégrale. Il est donc d'autant plus appréciable que soient parus presque simultanément plusieurs volumes contenant une sélection d'écrits de Humboldt sur la climatologie ainsi qu'une présentation des débuts de la recherche climatique moderne à l'aide de documents choisis dans le fonds (Nachlass) de Humboldt à la Bibliothèque d'État de Berlin (Erdmann, Brönnimann, 2023 ; Humboldt, 2023a ; Humboldt 2023b). Cette édition critique de trois correspondances d'Alexander von Humboldt datant des années 1830 à 1859 es...
-
11:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
11:30
Pierre Laconte, Jean Remy (Coord.), 2020, Louvain-la-Neuve à la croisée des chemins, Louvain-la-Neuve, Belgique, Academia-L’Harmattan, 294 p.
sur CybergeoCet ouvrage livre les coulisses de la conception de Louvain-la-Neuve, une ville nouvelle belge à vocation universitaire, non loin de Bruxelles, à partir des années 1960. Conséquence de la querelle linguistique en Belgique qui a interdit tout enseignement en français en Flandre, les sections francophones de la célèbre université de Leuven ont dû déménager en Wallonie et créer l’université de Louvain-la-Neuve. Mais, contrairement à la tendance lourde à l’époque et aujourd’hui encore, le choix a été fait de créer une ville nouvelle universitaire, et non une "université-campus".
La première lecture de cet ouvrage montre des pensées et des courants d’architecture et d’urbanisme différents, qui ont confronté leurs points de vue et leurs perspectives dans ce projet. Il a fallu une coordination exceptionnelle entre les acteurs (pouvoirs publics et privés, université et associations) qui ont fait Louvain-la-Neuve (LLN) pour qu’elle devienne la ville qu’elle est aujourd’hui. Les auteurs sont l...
-
11:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
11:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
11:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...
-
11:30
Cartographier les pressions qui s’exercent sur la biodiversité : éléments de réflexion autour des pratiques utilisées
sur CybergeoPour mieux orienter les politiques de conservation, il est crucial de comprendre les mécanismes responsables de la perte de biodiversité. Les cartes illustrant les pressions anthropiques sur la biodiversité représentent une solution technique en plein développement face à cet enjeu. Cet article, fondé sur une revue bibliographique, éclaire les diverses étapes de leur élaboration et interroge la pertinence des choix méthodologiques envisageables. La définition des notions mobilisées pour élaborer ces cartes, en particulier celle de la pression, représente un premier défi. La pression se trouve précisément à la jonction entre les facteurs de détérioration et leurs répercussions. Cependant, les indicateurs à notre disposition pour la localiser géographiquement sont généralement axés soit sur les causes, soit sur les conséquences de la dégradation. Cet écueil peut être surmonté si la nature des indicateurs utilisés est bien définie. À cet effet, nous proposons une catégorisation des ind...
-
11:30
Exploring human appreciation and perception of spontaneous urban fauna in Paris, France
sur CybergeoCity-dwellers are often confronted with the presence of many spontaneous animal species which they either like or dislike. Using a questionnaire, we assessed the appreciation and perception of the pigeon (Columba livia), the rat (Rattus norvegicus), and the hedgehog (Erinaceus europaeus) by people in parks, train stations, tourist sites, community gardens, and cemeteries in Paris, France. Two hundred individuals were interviewed between May 2017 and March 2018. While factors such as age, gender, level of education or place or location of the survey did not appear to be decisive in analyzing the differential appreciation of these species by individuals, there was a clear difference in appreciation based on the species and the perceived usefulness of the animal, which is often poorly understood. The rat was disliked (with an average appreciation score of 2.2/10), and the hedgehog was liked (with an average appreciation score of 7.7/10). The case of the pigeon is more complex, with som...
-
11:30
From "Bioeconomy Strategy" to the "Long-term Vision" of European Commission: which sustainability for rural areas?
sur CybergeoThe aim of this paper is to analyze the current and long-term effects of the European Commission Bioeconomy Strategy in order to outline possible scenarios for rural areas and evaluate their sustainability. The focus is on the main economic sectors, with particular reference to employment and turnover, in order to understand what kind of economy and jobs are intended for rural areas, as well as their territorial impacts. For this purpose, we have analyzed the main European Commission documents and datasets concerning the bioeconomy and long-term planning for rural areas, as well as the recent scientific data to verify the impact on forests. The result is that European rural areas are intended to be converted initially into large-scale biomass producers for energy and bio-based industry, according to the digitization process, and subsequently into biorefinery sites, with severe damage to landscape, environment, biodiversity, land use and local economy. Scenarios for rural areas don’t...
-
11:00
Mappery: Chart of Knowledge
sur Planet OSGeoPièce jointe: [télécharger]
Monsieur LeCartograhe, now also on BlueSky, shared this Chart of Knowledge, 1931 – Bocholtz, S.G.
-
10:30
Appropriations de l’espace et répression du mouvement des Gilets jaunes à Caen
sur MappemondeEn mobilisant différentes méthodologies de recherche issues principalement de la géographie sociale et de la sociologie politique, le présent article souhaite esquisser quelques pistes d’analyse et répondre à la question suivante : comment rendre compte par la cartographie des espaces de lutte du mouvement des Gilets jaunes dans l’agglomération caennaise ? En explorant ainsi sa dimension spatiale, nous désirons contribuer aux débats méthodologiques et analytiques qui ont accompagné ce mouvement qui s’est distingué par ses revendications et sa durée, mais aussi par sa géographie.
-
10:30
Les cartes dans l’analyse politique de l’espace : de l’outil à l’objet de recherche
sur MappemondeLa publication de la carte répertoriant les trajets d’utilisateurs de l’application de sport Strava, en 2017, a rendu identifiables des bases militaires dont les membres utilisaient Strava lors de leurs entraînements (Six, 2018). Cet exemple souligne à la fois l’omniprésence de l’outil cartographique dans nos vies et sa dimension stratégique. Aucune carte n’est anodine, quand bien même son objet semble l’être. Nos sociétés sont aujourd’hui confrontées à de nouveaux enjeux, liés à l’abondance des cartes sur Internet, dans les médias, au travail, que celles-ci soient réalisées de manière artisanale ou par le traitement automatisé de données géolocalisées. L’usage de la cartographie, y compris produite en temps réel, s’est généralisé à de nombreux secteurs d’activités, sans que l’ensemble des nouveaux usagers ne soit véritablement formé à la lecture de ce type de représentation, ni à leur remise en question. Dans ce cadre, le rôle du géographe ne se limite pas à la production de cartes...
-
10:30
Les stratégies cartographiques des membres de la plateforme Technopolice.fr
sur MappemondeConséquence de la transformation des cadres institutionnels du contrôle et de la sécurité, le déploiement de la vidéosurveillance dans l’espace public est aujourd’hui contesté par plusieurs collectifs militants qui s’organisent à travers des modes d’action cartographiques. Leurs pratiques entendent dénoncer, en la visibilisant, une nouvelle dimension techno-sécuritaire des rapports de pouvoir qui structurent l’espace. Grâce aux résultats d’une enquête de terrain menée auprès des membres de la plateforme Technopolice, nous montrons que le rôle stratégique de la cartographie collaborative dans leurs actions politiques réside dans ses fonctions agrégatives et multiscalaires. La diffusion de cartes et leur production apparaissent alors comme des moyens complémentaires, analytiques et symboliques, utilisés par les militants pour mieux appréhender et sensibiliser le public au phénomène auquel ils s’opposent.
-
10:30
La végétalisation de Paris vue au travers d’une carte : une capitale verte ?
sur MappemondeCet article s’intéresse à un dispositif cartographique en ligne proposant de visualiser les projets de végétalisation urbaine entrant dans la politique municipale parisienne. Avec une approche de cartographie critique, nous montrons comment la construction de la carte, et en particulier le choix des figurés et la récolte des données, participe à donner à la capitale française une image de ville verte. Le mélange de données institutionnelles et de données contributives composant la carte du site web Végétalisons Paris traduit l’ambiguïté de la politique de végétalisation parisienne, entre participation citoyenne et instrumentalisation politique.
-
10:30
Géopolitique de l’intégration régionale gazière en Europe centrale et orientale : l’impact du Nord Stream 2
sur MappemondeDépendante des importations de gaz russe, l’Union européenne tente de diversifier ses approvisionnements depuis la crise gazière russo-ukrainienne de 2009. En Europe centrale et orientale, cette politique se traduit par un processus d’intégration régionale des réseaux gaziers. Planifié depuis 2013, ce processus n’a pas connu le développement prévu à cause des divisions engendrées par le lancement du projet de gazoduc Nord Stream 2 porté par Gazprom et plusieurs entreprises énergétiques européennes. Ainsi la dimension externe de la politique énergétique des États membres a un impact sur la dimension interne de la politique énergétique européenne.
-
10:30
Les Petites Cartes du web
sur MappemondeLes Petites Cartes du web est un ouvrage de 70 pages de Matthieu Noucher, chargé de recherche au laboratoire Passages (Bordeaux). Il s’adresse à un public universitaire ainsi qu’à toute personne intéressée par la cartographie. Son objet est l’analyse des « petites cartes du web », ces cartes diffusées sur internet et réalisées ou réutilisées par des non-professionnel?les. Elles sont définies de trois manières :
-
historique, comme des cartes en rupture avec les « grands récits » de la discipline ;
-
politique, comme des cartes « mineures », produites hors des sphères étatiques et dominantes ;
-
technique, en référence aux « petites formes du web » d’É. Candel, V. Jeanne-Perrier et E. Souchier (2012), participant à un « renouvellement des formes d’écriture géographique ».
Ce bref ouvrage, préfacé par Gilles Palsky, comprend trois chapitres. Les deux premiers, théoriques, portent l’un sur la « profusion des “petites cartes” » et l’autre sur l’actualisation de la critique de la cartographie. L...
-
-
10:30
L’Amérique latine
sur MappemondeEn choisissant de commencer son ouvrage par la définition du terme « latine », Sébastien Velut donne le ton d’une approche culturelle et géopolitique de cette région centrale et méridionale du continent américain. Grâce à une riche expérience, il présente ce « grand ensemble flou » (p. 11), ce continent imprévu qui s’est forgé depuis cinq siècles par une constante ouverture au Monde. L’ouvrage, destiné à la préparation des concours de l’enseignement, offre une riche analyse géographique, nourrie de travaux récents en géographie et en sciences sociales, soutenue par une bibliographie essentielle en fin de chaque partie. L’exercice est difficile mais le propos est clair, explicite et pédagogique pour documenter l’organisation des territoires de l’Amérique latine. En ouverture de chaque partie et chapitre, l’auteur pose de précieuses définitions et mises en contexte des concepts utilisés pour décrire les processus en œuvre dans les relations entre environnement et sociétés.
En presque 3...
-
10:30
Les cartes de l’action publique. Pouvoirs, territoires, résistances
sur MappemondeLes cartes de l’action publique, ouvrage issu du colloque du même nom qui s’est déroulé en avril 2018 à Paris, se présente comme une recension de cas d’étude provenant de plusieurs disciplines des sciences sociales. Sociologues, politistes et géographes proposent au cours des 14 chapitres de l’ouvrage (scindé en quatre parties) une série d’analyses critiques de cartes dont il est résolument admis, notamment depuis J. B. Harley (1989), qu’elles ne sont pas neutres et dénuées d’intentionnalités. Cette position, assumée dès l’introduction, sert de postulat général pour une exploration de « l’usage politique des cartes, dans l’action publique et dans l’action collective » (p. 12).
Les auteurs de la première partie, intitulée « Représenter et instituer », approchent tout d’abord les cartes de l’action publique par leur capacité à instituer et à administrer des territoires.
Dans un premier chapitre, Antoine Courmont traite des systèmes d’information géographique (SIG) sous l’angle des scien...
-
10:30
Vulnérabilités à l’érosion littorale : cartographie de quatre cas antillais et métropolitains
sur MappemondeL’érosion littorale est un phénomène naturel tangible dont la préoccupation croissante, compte tenu du changement climatique, nous a menées à travailler sur la problématique de la cartographie de certaines composantes du risque d’érosion comprenant l’étude de l’aléa et de la vulnérabilité. Les terrains guadeloupéens (Capesterre-Belle-Eau et Deshaies) et métropolitains (Lacanau et Biarritz) ont été choisis, présentant une grande diversité d’enjeux. À partir d’un assortiment de facteurs, puis de variables associées à ces notions, la spatialisation d’indices à partir de données dédiées permettrait d’aider les décideurs locaux dans leurs choix de priorisation des enjeux et de mener une réflexion plus globale sur la gestion des risques.
-
10:30
La construction d’une exception territoriale : L’éducation à la nature par les classes de mer finistériennes
sur MappemondeLes classes de mer, inventées en 1964 dans le Finistère, restent encore aujourd’hui très implantées localement. Dépassant la seule sphère éducative, ce dispositif est soutenu par des acteurs touristiques et politiques qui ont participé à positionner le territoire comme pionnier puis modèle de référence en la matière à l’échelle nationale. Tout en continuant à répondre aux injonctions institutionnelles, poussant à la construction d’un rapport normalisé à la nature (développement durable, éco-citoyenneté), cette territorialisation du dispositif singularise la nature à laquelle les élèves sont éduqués.
-
8:42
GeoSolutions: FREE Webinar: GeoServer 2.26.0 and Beyond
sur Planet OSGeoYou must be logged into the site to view this content.
-
8:36
Rituel Responsable
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueCup2Go est un projet lancé par la ville de Luxembourg, il vise à réduire l’usage des gobelets jetables pour le rituel du café matinal. Cette initiative ambitionne de promouvoir une consommation plus respectueuse de l’environnement et une alternative au jetable. L’idée est de référencer les entreprises participantes, c’est-à-dire celles qui proposent une récompense à l’achat d’une boisson chaude à emporter avec un gobelet réutilisable. Cup2Go peut permettre une réduction des déchets. Pour l’heure, 58 commerces sont référencés sur une carte interactive, avec leurs adresses et le type de récompense proposée. Cela va du point fidélité à la réduction de prix sur la boisson de 20 ou 30 centimes. Les établissements sont identifiables par un autocollant « Cup2GO » sur leur vitrine. Les personnes actives peuvent désormais être motivées à commencer leur journée par une BA.
+ d'infos :
vdl.lu
-
7:35
« J’ai postulé à 2483 postes en 3 mois »
sur Dans les algorithmesVous vous souvenez ? En conclusion de notre dossier sur le recrutement automatisé, on évoquait la possibilité prochaine qu’à l’automatisation des recrutements répondent l’automatisation des candidatures. Eh bien nous y sommes, explique 404media en évoquant AIHawk, un assistant de recherche d’emploi déposé sur Github, qui permet de postuler à des emplois sur Linked-in à grande échelle. Il permet de générer des lettres de motivation et CV basés sur une série de détails biographiques que l’utilisateur encode et que le logiciel modifie en fonction de la description de poste et d’autres informations que l’entreprise a mise sur Linked-in. Le programme semble être devenu populaire et des clones sont déjà disponible (une application dédiée se prépare : « Job Magic : candidatez pendant que vous dormez »).
Dans la communauté Telegram d’AIHawk, des candidats expliquent avoir déjà obtenus des entretiens d’embauches aux dizaines ou centaines de candidatures que le logiciel a envoyé en leur nom ! Nous sommes entrés dans la boucle de l’étrange où « des gens utilisent des CV et des lettres de motivation générés par l’IA pour postuler automatiquement à des emplois examinés par des logiciels d’IA automatisés ». Le développeur italien d’AIHawk, Federico Elia, a déclaré que son projet était né pour « rééquilibrer l’utilisation de l’intelligence artificielle dans le processus de recrutement ». On ne saurait être plus en accord.
Linked-in a déjà réagit en informant que les outils automatisés ne sont pas autorisés sur la plateforme… enfin, pour les candidats ! On espère que le régulateur va vite réagir… pour rappeler qu’il n’y aucune raison que l’automatisation soit réservée aux employeurs !
-
7:30
Les 700 risques de l’IA
sur Dans les algorithmes
-
6:44
QMapOD opensourced !
sur OslandiaPièce jointe: [télécharger]
QMapOD est la version 2 de l’application MapOD, initialement développée sous Access et ArcGis / MapInfo.
Elle se présente comme une extension (plugin) du système d’information géographique et s’appuie sur une base de données spatiale SQLite / SpatiaLite. La version 2 de QMapOD apporte la compatibilité avec QGIS 3.x.
Elle permet de cartographier les résultats d’enquêtes origine / destination réalisées sur un réseau de transport en commun, en réalisant des filtrages multicritères sur un jeu de données d’enquêtes, puis en élaborant des analyses cartographiques à partir des données filtrées.Initialement développée par SIGéal, QMapOD est désormais maintenue par Oslandia, et financée par Test-SA et Oslandia.
QGIS et QMapOD sont diffusés sous licence opensource (GNU General Public License).
La publication par Oslandia de QMapOD sur le portail officiel des plugins QGIS a pour objectif d’attirer de nouveaux contributeurs et/ou de nouveaux financeurs pour accélérer le développement de nouvelles fonctionnalités et améliorer la fiabilité de l’extension.
Cette publication a d’ores et déjà permis d’industrialiser le code de l’extension en l’alignant sur les normes habituellement utilisées par les développeurs Oslandiens, et en ajoutant au dépôt gitlab des fonctionnalités de CI/CD qui contribuent à fiabiliser le code produit.
-
12:47
Open Places Map
sur Google Maps ManiaWelcome to OpenPlacesMap! Are you bored of living in Plainville, USA? Don't you wish your hometown had a more exciting name? Now you can make it happen! OpenPlacesMap is an interactive map that empowers you to redefine your neighborhood. Simply click on any country, state, city, or neighborhood label and change its name to anything you want! Now you can live in Gotham City, Hogwarts, or
-
11:00
Mappery: A Street Guide that is not Mobile
sur Planet OSGeoPièce jointe: [télécharger]
Scott Simmons found this street guide in his hotel, “Just got into my room in Taichung, Taiwan and found the wall to be a handy guide. Problem is, I cannot easily carry the wall into the streets, so the picture will have to do. This hotel is just a few blocks from GIS.FCU (GIS Research Center at Feng Chia University), a huge contributor to international standardization ( [https:]] ).”
I wonder what the thinking was to use this street map as decoration?
-
1:51
Sean Gillies: Running again
sur Planet OSGeoAfter I gave up on The Bear 100 and Black Squirrel in August, I stopped running for 6 weeks to let my Achilles tendonitis subside. I quit using the stair stepper and elliptical machines at the gym, too. My only activities were bike commuting, yoga, weight lifting, and a weekly "HIIT the water" class. I've joked about aquasizing, but have really been getting into this class. The instructor is gung ho, the regulars are friendly, and it's a good, low impact, workout. I'm going to keep doing it this fall and winter, for sure.
On the 20th of September I went for a flat 2 mile run at Pineridge Open Space. It felt great to run outdoors on dirt, and I didn't feel any worse afterwards. I did another easy, flat trail run 4 days later. This week I did two 3.5 mile runs on trails and another session on an elliptical trainer. 2 hours in all. I'm going to try to increase to 3 hours a week by the end of the year.
I'm grateful to be able to run again. With some luck, 2025 could be a good year.
-
11:00
Mappery: Spot the Map
sur Planet OSGeoPièce jointe: [télécharger]
Reinder sent this pic of a shop window in Mafra in Portugal. He said there is quite a lot of Mappery in there. I found 6 and maybe 7, how about you?
-
5:46
Cartes et illustrations de villes historiques rassemblées sur Papertowns
sur Cartographies numériquesLe site /r/papertowns propose une collection de plus de 360 ??cartes et illustrations de villes historiques, représentant de nombreuses villes du monde, de l'Antiquité jusqu'à nos jours.
Papertowns est dédié aux cartes illustrées, aux paysages urbains, aux larges vues aériennes ou panoramiques, aux vues à vol d'oiseau, voire aux reconstructions 3D de villes, villages et citadelles.
Ce subreddit privilégie les documents en haute résolution. Le moteur de recherche interne permet de chercher par nom de lieu, par genre, par date ou par pays.Tokyo, Japon 1680 (source : /r/papertowns)
Pour information, les paper towns ou villes de papier, sont des villes qui apparaissent sur les cartes mais qui n'existent pas réellement. Il s'agit d'erreurs involontaires ou au contraire de détails ajoutés volontairement pour attester d'une sorte de droit d'auteur. Parmi les exemples notables, on peut citer Argleton dans le Lancashire au Royaume-Uni, Beatosu et Goblu aux États-Unis. Agloe, dans l'état de New York, a été inventé sur une carte des années 1930 comme un leurre. En 1950, un magasin général y a été construit et nommé Agloe General Store, car c'était le nom vu sur la carte. Ainsi, le lieu fictif est devenu un lieu réel.
Voici quelques autres subreddits similaires qui pourraient vous intéresser :- /r/Map_Porn et /r/MapPorn so vous aimez les cartes en général
- /r/ImaginaryMaps si vous êtes intéressé par les cartes de royaumes fictifs
- /r/ImaginaryCityscapes si vous aimez l'art mettant en scène des paysages urbains
- /r/CityPorn pour des photos de villes du monde entier
- /r/oldmaps pour des cartes des siècles passés
Les plans historiques de Paris de 1728 à nos jours (APUR - Cassini Grand Paris)
Articles connexes
Vues panoramiques des villes américaines au XIXe siècle
L'histoire par les cartes : cartes historiques de New York
Comparer la skyline des grandes villes à partir de la modélisation 3D de leur bâtiments
City-roads, un outil efficace pour générer des plans urbains (un mariage réussi entre art et géographie)
Utiliser des générateurs automatiques de territoires imaginaires
Cartes et atlas historiques
-
3:35
Sean Gillies: Rasterio 1.4.0
sur Planet OSGeoA month ago I wrote a long-ish post about Fiona 1.10.0. I'll try to keep this one shorter. Rasterio 1.4.0 has three main changes: Python openers, detailed error chaining, and a new statistics API.
Python openers can connect filesystems implemented in Python, like fsspec or tiledb.vfs, to GDAL's own virtual filesystem machinery. In most cases, you should reply on GDAL's built-in virtual filesystem handlers. On the other hand, if you have unique or proprietary data access protocols, then Rasterio's new openers may be useful.
Often enough, I want more visibility into the errors that occur during GDAL I/O functions. I'd like to see all the errors, not just the last one. So, I've implemented Python-like chaining of GDAL errors. It's not perfectly analogous, because we don't have frames for GDAL code like we do for Python, but look at the kind of details you can get now:
>>> src.read() rasterio._err.CPLE_AppDefinedError: TIFFFillTile:Read error at row 512, col 0, tile 3; got 38232 bytes, expected 47086 The above exception was the direct cause of the following exception: rasterio._err.CPLE_AppDefinedError: TIFFReadEncodedTile() failed. The above exception was the direct cause of the following exception: Traceback (most recent call last): File "rasterio/_io.pyx", line 968, in rasterio._io.DatasetReaderBase._read io_multi_band(self._hds, 0, xoff, yoff, width, height, out, indexes_arr, resampling=resampling) File "rasterio/_io.pyx", line 207, in rasterio._io.io_multi_band with stack_errors() as checker: File "rasterio/_io.pyx", line 213, in rasterio._io.io_multi_band return checker.exc_wrap_int(retval) File "rasterio/_err.pyx", line 307, in rasterio._err.StackChecker.exc_wrap_int raise last rasterio._err.CPLE_AppDefinedError: /app/tests/data/corrupt.tif, band 1: IReadBlock failed at X offset 1, Y offset 1: TIFFReadEncodedTile() failed. The above exception was the direct cause of the following exception: Traceback (most recent call last): File "<console>", line 1, in <module> File "rasterio/_io.pyx", line 650, in rasterio._io.DatasetReaderBase.read out = self._read(indexes, out, window, dtype, resampling=resampling) File "rasterio/_io.pyx", line 971, in rasterio._io.DatasetReaderBase._read raise RasterioIOError("Read or write failed. See context for details.") from cplerr rasterio.errors.RasterioIOError: Read or write failed. See context for details.
Lastly, the flawed, multimodal
statistics()
method of datasets has been deprecated and is replaced by new, simplerstats()
,clear_stats()
, andupdate_stats()
methods.Rasterio 1.4.0 remains limited to "classical" rasters, those with a handful of bands or channels all of the same type. For hyperspectral data cubes and the like, you should use h5py, xarray, or other emerging software. I'm quite interested in working on new software in that area, but I'd like to do so without any classical raster legacy.
-
11:00
Mappery: Arctic Circle
sur Planet OSGeoPièce jointe: [télécharger]
Matthew Edney sent us this, he said “My father in law at the Arctic Circle, in Dalton, Alaska, the dot for the location is right by his head”
Pretty Cool
-
10:00
WhereGroup: Treffen der QGIS-Gemeinschaft in Bratislava
sur Planet OSGeoUnser Kollege Johannes Kröger besuchte auch dieses Jahr die QGIS User Conference und fasst hier voller Enthusiasmus seine Highlights zusammen.
-
9:43
Florida's Waffle House Index Score
sur Google Maps ManiaIn the wake of Hurricane Milton, which made landfall on Florida’s Gulf Coast with devastating winds and flooding, emergency responders are working to assess the damage. One unconventional but, some argue, effective tool for gauging the situation is the "Waffle House Index," a metric used by the Federal Emergency Management Agency (FEMA) to evaluate the severity of storms and guide disaster
-
8:59
Trafic animalier
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueUne nouvelle base de données nationale pour accompagner le suivi des déplacements de la faune sur les passages à faune a vu le jour, la SIPAF. Cette ressource est un projet piloté par le Ministère de la Transition écologique et développé par les parcs nationaux des Cévennes et des Écrins en partenariat avec le Cerema. Elle est accompagnée d’une cartographie et devrait permettre de vérifier l’efficacité de ces passages, d’en améliorer les connaissances et de renforcer la transparence écologique des infrastructures de transport. Les données des infrastructures linéaires de transports sont recensées, comme les routes nationales et les autoroutes, gérées par l’État ou par des sociétés, les voies gérées par les conseils départementaux, voies ferrées et voies navigables nationales, c’est-à-dire les canaux. Cet ensemble est alimenté par les gestionnaires d’infrastructures, les associations naturalistes et les bureaux d’études réalisant des suivis. Cette base représente un outil qui peut être ajouté aux documents d’urbanisme et dans les étudesportant sur les continuités écologiques des collectivités.
+ d'infos :
passagesfaune.fr
-
7:30
Arbitraire managérial : une lutte à géométrie variable
sur Dans les algorithmesAmazon a récemment décidé que tous ses employés devaient revenir au bureau. Elle n’est pas la seule. Derrière ce symbole de l’arbitraire managérial, aucune loi n’exige qu’Amazon fournisse la preuve que le travail à distance nuit à sa productivité. Le législateur est bien timide, défendent les chercheurs Nicola Contouris et Valerio De Stafano, alors qu’il a bien souvent accompagné l’encadrement du télétravail. Le législateur ne remet en cause l’arbitraire managérial que dans les cas de harcèlement, de licenciement déguisé ou de faute grave de la direction, comme si le caractère raisonnable de toutes les autres politiques sur les lieux de travail n’avaient pas à être discutées – et ce alors que mettre fin unilatéralement au télétravail demeure bien souvent un moyen de contourner les obligations légales qui incombent aux entreprises, comme ici, en provoquant des démissions pour s’éviter des licenciements.
L’acteur public devrait avoir à redire des décisions capricieuses des entreprises… Mais à force de les considérer comme des décisions uniquement contractuelles et privées, le législateur oublie qu’il sait aussi parfaitement leur imposer des normes publiques, par exemple la proportionnalité. Si l’acteur public voit des avantages sociétaux au travail à distance (meilleur équilibre vie professionnelle et vie privée, réduction des coûts environnementaux…), pourquoi alors ne l’impose-t-il pas plus fortement ? « Lorsque l’action collective est insuffisante ou que les représentants des travailleurs ne sont pas présents, comme c’est le cas dans un nombre croissant de lieux de travail, les législateurs et les tribunaux doivent faire leur part, en évitant de se cacher derrière le vernis de nature privée qui recouvre l’autorité de l’employeur et en limitant les décisions managériales à des normes plus strictes de raisonnabilité et de proportionnalité ».
-
5:21
Cartes et données sur les parcs nationaux aux Etats-Unis
sur Cartographies numériques
Le premier parc naturel créé aux Etats-Unis est le parc de Yellostowne en 1876. Le National Park Service (NPS) a été fondé en 1916 pour gérer les espaces protégés, qui comptaient alors 35 parcs. Au cours du XXe siècle, le NPS a vu son champ d'action s'étendre à 63 parcs nationaux et à plus de 400 autres sites historiques à travers les 50 États des Etats-Unis. Parmi les sites protégés, on compte notamment des rives de lacs, des rivières et des sentiers, des champs de bataille, des monuments et des mémoriaux.
Le service SIG et cartographie permet d'accéder à toutes les cartes du National Park Service. Ces cartes produites par le Harpers Ferry Center sont gratuites et disponibles au format JPEG, PDF et AI (fichiers de production Adobe). Le catalogue, qui comporte plus de 1 000 cartes, est interrogeable à partir d'un téléphone pour organiser une randonnée ou un ordinateur pour télécharger les cartes, les intégrer dans une application ou les imprimer.
Trouver une carte du National Park Service (source : National Park Service)
Les cartes du National Park Service sont produites par le gouvernement et sont dans le domaine public. Toute personne peut, sans restriction en vertu des lois américaines sur le droit d'auteur : reproduire l'œuvre sous forme imprimée ou numérique ; créer des œuvres dérivées ; exécuter l'œuvre en public ; afficher l'œuvre ; distribuer des copies ou transférer numériquement l'œuvre au public par vente ou autre transfert de propriété, ou par location, bail ou prêt. A noter : un utilisateur qui modifie et/ou réédite les cartes du National Park Service est responsable de tout problème rencontré avec les cartes, en raison de leur changement ou de leur modification.
Le portail des applications de gestion intégrée des ressources (IRMA) fournit des données sur :- la limite des parcs
- la fréquentation des parcs
- l'inventaire des ressources
- les rapports scientifiques
- les rapports d'enquête
- les effets du changement climatique
Quelques belles cartes à télécharger en jpg ou en pdf :- Carte des sentiers du National Park Service
- Carte des régions unifiées du National Park Service
- Brochure du système des parcs nationaux
- Carte murale du système des parcs nationaux
- Carte des parcs nationaux les plus visités (statistiques 2023)
En complément
Comment le National Park Service parvient à créer des cartes réalistes
Shade Relief, le site de Thomas Patterson consacré aux cartes en relief
Le parc national le plus proche en fonction des régions des Etats-Unis
Cartes narratives (storymaps) sur les parcs nationaux
Cartographie des incendies en Californie
Articles connexes
Incendies en Amazonie : les cartes et les images auraient-elles le pouvoir d'attiser la polémique ?
Cartes et données sur la canicule et les incendies de forêt en France et en Europe
Des sécheresses répétées en France depuis 2018 : analyse en cartes et en images satellitaires
Cartes et données sur les forêts en France et dans le monde
Le rôle des arbres urbains dans la réduction de la température de surface des villes européennes
Une carte de l'INPN pour analyser et discuter la répartition de la biodiversité en France
MPAtlas, un atlas de la protection marine pour évaluer les aires marines réellement protégées
-
20:22
TorchGeo: v0.6.1
sur Planet OSGeoTorchGeo 0.6.1 Release NotesThis is a bugfix release. There are no new features or API changes with respect to the 0.6.0 release.
This release fixes an important security vulnerability and properly documents a lack of support for rasterio 1.4. All users are recommended to update to TorchGeo 0.6.1 if they are using
Dependenciestorchgeo.models.get_weight
.- rasterio: 1.4 not yet supported (#2327)
- Datamodule: use persistent workers for parallel data loading (#2291)
- OSCD: update normalization statistics (#2282)
- Datasets: add support for
os.PathLike
(#2273) - GeoDataset: allow a mix of
str
andpathlib
paths (#2270)
- API: avoid use of
eval
inget_weight
(#2323)
- CD: set up continuous deployment to PyPI (#2342)
- CI: install tensorboard to speed up notebooks (#2315)
- CI: install TorchGeo from checked out repo (#2306)
- dependabot: only update npm lockfile (#2277)
- prettier: ignore cache directories (#2278)
- prettier: prefer single quotes (#2280)
- pytest: set default
--cov
and--cov-report
(#2275) - pytest: set matplotlib backend locally too (#2326)
- pytest: silence numpy 2 warnings in PyTorch (#2302)
- ruff: remove NPY tests now that we test numpy 2 in CI (#2287)
- Alternatives: add scikit-eo to list of TorchGeo alternatives (#2340)
- Contributing: installation-agnostic prettier usage (#2279)
- Datasets: move dataset CSV to subdirectory (#2281, #2304)
- Datasets: update NAIP resolution (#2325)
- Tutorials: fix NAIP downloads by signing URL (#2343)
- Tutorials: update recommended strategy for raster datasets containing images and masks (#2293)
This release is thanks to the following contributors:
@adamjstewart
@calebrob6
@MathiasBaumgartinger
@Nowosad
@sfalkena -
11:00
Mappery: Samsonite is a Global Brand
sur Planet OSGeoPièce jointe: [télécharger]
Spotted by Reinder ” in a street with many shops in The Hague, it’s Wednesday throwing away cardboard boxes day”
-
10:34
Real-Time Animated Wind Maps
sur Google Maps ManiaIn recent weeks, ferocious winds have dominated the headlines. The devastating impact of Hurricane Milton, arriving so soon after Hurricane Helene rampaged through Florida, has left many communities reeling from the destructive power of these tropical storm-force winds. In the last fortnight, I've often found myself drawn to Earth Nullschool's real-time map of global wind conditions.
-
7:30
Comprendre ce que l’IA sait faire et ce qu’elle ne peut pas faire
sur Dans les algorithmesQuand on parle d’Intelligence artificielle on mobilise un terme qui qualifie un ensemble de technologies vaguement reliées, expliquent les chercheurs Arvind Narayanan et Sayash Kapoor dans le livre qu’ils viennent de faire paraître, AI Snake Oil (Princeton University Press, 2024, non traduit).
Il y a peu de liens entre l’IA générative dont on entend tant parler et l’IA prédictive, certainement bien plus utilisée encore, mais où se concentrent les systèmes les plus défaillants qui soient. C’est là surtout que se concentre cette « huile de serpent » à laquelle font référence les deux chercheurs. Sous ce terme, qui qualifie des remèdes miraculeux mais inefficaces, comme tant de charlatans en vendaient dans tout l’Ouest américain, les deux chercheurs désignent une technologie qui ne fonctionne pas et ne peut pas fonctionner comme attendu, et qui ne fonctionnera probablement jamais. Toute la difficulté aujourd’hui, pour le grand public, consiste à être capable de distinguer l’IA qui ne fonctionne pas de celle qui fonctionne. C’est tout l’enjeu de leur livre.
IA générative vs. IA prédictiveL’IA est désormais devenue un produit de consommation grand public. Le problème, c’est que son utilisation abusive s’est également généralisée. Les deux ingénieurs restent pourtant très confiants. L’IA générative est un outil amusant et utile défendent-ils. Elle peut même être un outil d’apprentissage passionnant, expliquent-ils un peu légèrement. Certes, l’IA générative comporte des risques et peut avoir un coût social élevé. Mais ce n’est rien comparé à l’IA prédictive. Dans leur livre, les deux chercheurs accumulent les exemples pour montrer que dès que nous tentons d’utiliser l’IA pour des prédictions, notamment dans le domaine du social, elle produit des discriminations. De l’emploi à la santé, en passant par le crime… partout ces modèles restent englués dans leurs biais. Mais surtout, leurs résultats ne sont bien souvent pas meilleurs qu’un résultat aléatoire. C’est, il me semble, la grande force de leur démonstration et le point le plus original du livre. Pour les chercheurs, l’une des raisons d’une si faible performance tient beaucoup au fait que très souvent, la donnée n’est ni disponible ni décisive. Le problème c’est que l’IA prédictive est très attirante parce qu’elle promet des décisions plus efficaces… Mais l’efficacité est bien plus relative qu’annoncée et surtout bien moins responsable.
L’IA n’a pas vraiment de définition fixe. Les deux chercheurs s’en amusent d’ailleurs et remarquent que ce qu’on qualifie comme IA correspond souvent à ce qui n’a pas été fait. Dès qu’une application fonctionne avec fiabilité, on ne parle plus d’IA, comme c’est le cas avec les aspirateurs autonomes, l’autopilote des avions, les filtres à Spam, ou l’autocomplétion. Autant d’exemples qui nous montrent d’ailleurs des formes d’IA qu’on souhaiterait plus souvent. Ces exemples doivent nous rappeler qu’elle n’est pas toujours problématique, loin de là. L’IA sait résoudre des problèmes difficiles. Mais elle ne sait pas prédire les comportements sociaux des gens et la prédiction du social n’est pas un problème technologique soluble.
Il y a aussi certains domaines du social où l’IA peut-être très forte, très précise et très efficace, mais qui posent des problèmes de société majeurs. C’est le cas notamment de la reconnaissance faciale. Le taux d’erreur de la reconnaissance faciale est devenu minuscule (0,08% selon le Nist). Cela n’enlève rien au fait que ces erreurs soient très problématiques, notamment quand elles conduisent à des arrestations qui ne devraient pas avoir lieu. Mais dans le domaine de la reconnaissance faciale, le problème, désormais, n’est plus que la technologie soit défaillante. Ce sont les pratiques, les erreurs humaines, les échecs policiers et d’encadrement de son usage qui posent problèmes. « L’IA de reconnaissance faciale, si elle est utilisée correctement, a tendance à être précise car il y a peu d’incertitude ou d’ambiguïté dans la tâche à accomplir ». Identifier si une personne sur une photo correspond à une autre personne sur une autre photo est assez simple, pour autant que les systèmes aient suffisamment d’images pour s’y entraîner et de moyens pour trouver les éléments qui permettent de distinguer un visage d’un autre. Cela ne signifie pas que l’analyse faciale puisse tout faire, précisent les deux chercheurs : identifier le genre où l’émotion depuis un visage n’est pas possible, car ni l’un ni l’autre n’est inscrit dans l’image. Désormais, « le plus grand danger de la reconnaissance faciale vient du fait qu’elle fonctionne très bien ». Ce ne sont plus ses défaillances techniques qui posent un problème de société, comme c’est le cas des systèmes de prédiction de risques. C’est l’usage qui peut en être fait… comme de pouvoir identifier n’importe qui n’importe où et pour n’importe quelle raison. Attention cependant, préviennent les chercheurs : la reconnaissance faciale peut-être très performante quand elle est utilisée correctement, mais peut très facilement échouer en pratique, comme le montre l’identification depuis des images de mauvaise qualité qui a tendance à produire de nombreux faux positifs. Elle n’est donc ni parfaite ni magique. Et surtout, elle pose un enjeu de société qui nécessite de cadrer son usage, pour trouver les moyens afin qu’elle ne soit pas utilisée de manière inappropriée – et ce n’est pas si simple – et pour que la société se dote de garde-fous et de garanties pour prévenir des abus ou d’utilisations inappropriées.
Nombre d’usages de l’IA demeurent problématiques avertissent les chercheurs. Nombre de ses utilisations relèvent ni plus ni moins de l’imposture. L’IA échoue d’abord et très souvent dès qu’on l’utilise pour produire des prédictions, comme l’a montré Google Flu, l’outil pour prédire la grippe de Google qui se basait sur l’évolution des recherches de symptômes sur le moteur de recherche et dont la précision a fini par s’effondrer sous les requêtes. Non seulement la prédiction est difficile, mais bien souvent son efficacité s’effondre dans le temps.
Les deux chercheurs nous invitent à intégrer une sirène d’alerte aux projets d’IA. Dès qu’ils abordent le social, dès qu’ils souhaitent prédire quelque chose, dès qu’ils utilisent une variable pour une autre (comme de vouloir reconnaître le genre depuis des images de visages), nous devons être vigilants.
Couverture du livre AI Snake Oil d’Arvind Narayanan et Sayash Kapoor. Les défaillances de l’IA prédictiveMais il y a d’autres motifs d’inquiétudes auxquels prêter attention. Le battage médiatique autour de l’IA fait que bien souvent ses qualités sont exagérées. Les capacités de prédiction de nouveaux services ou outils sont très souvent survendues. L’une des erreurs les plus courantes consiste à annoncer un taux de réussite particulièrement élevé, alors que très souvent, l’outil est évalué sur les mêmes données que celles sur lesquelles il a été entraîné. C’est un peu comme réviser les questions qui seront posées à un examen avant l’examen. L’étude des résultats de recherche dans nombre de secteurs de la recherche en machine learning a montré partout des résultats problématiques. Ce n’est pas nécessairement intentionnel ou malveillant, excusent un peu facilement les deux ingénieurs, le machine learning est une discipline délicate et il est facile de s’embrouiller. En tout cas, la qualité s’effondre très souvent avec le battage médiatique. Ainsi, des centaines d’études ont proclamé pouvoir détecter le Covid depuis des radiographies des poumons : une revue systématique de plus de 400 articles de recherche a montré qu’AUCUNE n’était fiable. Tant et si bien qu’une équipe de chercheurs a mis au point une chek-list pour aider les développeurs et les chercheurs à minimiser les erreurs. Dans une étude sur l’usage de l’IA prédictive dans l’industrie et l’administration, Narayanan et Kapoor ont fait les mêmes constats et ont listé les principaux défauts de la prédiction :
- Un outil qui fait de bonnes prédictions ne signifie pas qu’il mènera à de bonnes décisions, notamment du fait de la rétroaction des décisions sur les prédictions (??par exemple un montant de caution plus élevé basé sur une prédiction de récidive peut augmenter le taux de récidive… et d’ailleurs, les peines sévères ont tendance à augmenter la récidive) ;
- Pour prédire, on fait souvent appel à une variable-cible qui ne correspond pas exactement à ce que l’on souhaite prédire, comme d’utiliser la moyenne générale d’un étudiant pour prédire sa réussite l’année suivante.
- Lorsque la distribution des données sur lesquelles un modèle est formé n’est pas représentative de la distribution sur laquelle il sera déployé, les performances du modèle seront problématiques.
- Il y a toujours des limites à la prédiction. Les résultats sociaux ne sont pas prévisibles avec précision, même avec l’apprentissage.
- Les différences de performances entre différents groupes sociaux ne peuvent pas toujours être corrigées.
- Bien souvent les systèmes manquent de possibilité pour en contester les résultats alors que cette contestabilité est un levier important pour se rendre compte de ses erreurs.
- La prédiction oublie souvent de prendre en compte le comportement stratégique qui risque de la rendre moins efficace dans le temps.
Au XIXe siècle, dans l’Ouest américain, d’innombrables colporteurs vendaient des médicaments miracles, inefficaces et inoffensifs, pour la plupart… mais pas tous. Certains de ces faux remèdes laisseront des morts derrière eux. En 1906, la Food and Drug Administration (FDA) est imaginée pour remédier au problème et rendre ces colporteurs responsables de leurs produits, comme l’explique le dernier rapport de l’AI Now Institute qui revient en détail sur la naissance de l’agence américaine et comment elle a changé le monde du médicament par la construction de mesures préalables à leur mise sur le marché – l’AI Now Institute invite d’ailleurs à s’inspirer de cette histoire pour rendre l’IA responsable en pointant qu’une « réglementation ex ante solide, adaptée à un marché en évolution et à ses produits, peut créer des avantages significatifs à la fois pour l’industrie et pour le public ».
Si l’AI Snake Oil est une IA qui ne marche pas et qui ne peut pas marcher, souvenons-nous que même une IA qui fonctionne bien peut être nocive. Face aux produits d’IA, il faut pouvoir mesurer à la fois les préjudices qu’ils peuvent provoquer mais également la véracité qu’ils produisent.
Mais si l’IA défaillante est si omniprésente, c’est parce qu’elle offre des solutions rapides à n’importe quels problèmes. Oubliant que les solutions qui ne fonctionnent pas n’en sont pas, rappellent Kapoor et Narayanan. « Dans le sillage de la révolution industrielle, des millions d’emplois furent créés dans les usines et les mines, avec d’horribles conditions de travail. Il a fallu plusieurs décennies pour garantir les droits du travail et améliorer les salaires et la sécurité des travailleurs. » Nous devons imaginer et construire un mouvement similaire pour garantir la dignité humaine face à l’automatisation qui vient. Nous devons trouver les moyens d’éradiquer le déploiement de l’huile de serpent et construire les modalités pour bâtir une technologie responsable comme nous avons réussi à bâtir une médecine et une industrie agro-alimentaire (plutôt) responsable.
Pourquoi les prédictions échouent-elles ?Dans leur livre, les deux auteurs mobilisent d’innombrables exemples de systèmes défaillants. Parmis ceux qu’ils classent comme les pires, il y a bien sûr les outils de prédiction qui prennent des décisions sur la vie des gens, dans le domaine de la santé, des soins ou de l’orientation notamment.
Un algorithme n’est qu’une liste d’étapes ou de règles pour prendre une décision, rappellent-ils. Très souvent, les règles sont manuelles mais sont appliquées automatiquement, comme quand on vous demande de ne pas percevoir au-delà d’un certain revenu pour bénéficier d’un droit. Le problème, c’est que de plus en plus, les règles se complexifient : elles sont désormais souvent apprises des données. Ce type d’algorithme est appelé modèle, c’est-à-dire qu’il découle d’un ensemble de nombres qui spécifient comment le système devrait se comporter. Ces modèles sont très utilisés pour allouer des ressources rares, comme des prêts ou des emplois, ouvrant ou fermant des possibilités. C’est typiquement ce qu’on appelle l’IA prédictive. C’est par exemple ainsi que fonctionne Compas, le système de calcul de risque de récidive utilisé par la justice américaine, entraîné depuis le comportement passé des justiciables. L’hypothèse de ces systèmes et de nombre de systèmes prédictifs consiste à dire que des gens avec les mêmes caractéristiques se comporteront de la même manière dans le futur. Ces systèmes prédictifs sont déployés dans de nombreux secteurs : la santé, l’emploi, l’assurance… Le problème, c’est que de petits changements dans la vie des gens peuvent avoir de grands effets. La plupart des entreprises qui développent des systèmes prédictifs assurent que ceux-ci sont performants et équitables. Pourtant, on ne peut pas garantir que les décisions qu’ils prennent soient sans biais ou équitables.
Une bonne prédiction ne signifie pas une bonne décision. L’IA peut faire de bonne prédictions… si rien ne change, c’est-à-dire si elles ne sont pas utilisées pour modifier les comportements, expliquent les chercheurs en prenant l’exemple d’un système prédictif de la pneumonie qui montrait que les gens atteints d’asthme étaient à moindre risque, parce qu’ils recevaient des soins adaptés pour éviter les complications. Déployer un tel modèle, en fait, aurait signifié renvoyer les patients asthmatiques chez eux, sans soins. Corrélation n’est pas causalité, dit l’adage.
Ces erreurs de prédictions ont souvent pour origine le fait que les chercheurs s’appuient sur des données existantes plutôt que des données collectées spécifiquement pour leur produit. Trop souvent, parce que créer des données spécifiques ou faire des contrôles aléatoires est coûteux, les entreprises s’en abstiennent. Comprendre l’impact des outils de décision est également important et nécessite aussi de collecter des données et de faire des contrôles d’autant plus coûteux que ces vérifications, élémentaires, viennent souvent remettre en question l’efficacité proclamée. Techniquement, cela signifie qu’il faut toujours s’assurer de savoir si le système a évalué ses impacts sur de nouvelles données et pas seulement sur les données utilisées pour la modélisation.Ces effets sont d’autant plus fréquents que le développement de systèmes conduit souvent les gens à y réagir, à se comporter stratégiquement. C’est le cas quand des candidats à l’embauche répondent aux outils d’analyse des CV en inondant leurs CV de mots clefs pour contourner leurs limites. Une étude a même montré que changer le format de son CV d’un PDF en texte brut, changeait les scores de personnalité que les systèmes produisent sur les candidatures. Quand les entreprises assurent que leurs outils fonctionnent, elles oublient souvent de tenir compte du comportement stratégique des individus. Or, « quand les résultats du modèle peuvent être facilement manipulés en utilisant des changements superficiels, on ne peut pas dire qu’ils sont efficaces ». C’est toute la limite de trop de modèles opaques que dénoncent les deux chercheurs avec constance.
Le risque, c’est que ces systèmes nous poussent à une sur-automatisation. La sur-automatisation, pour les chercheurs, c’est quand le système de prise de décision ne permet aucune voie de recours, comme l’ont connu les individus suspectés de fraude par l’algorithme de contrôle des aides sociales de Rotterdam. Pour éviter cela, les bonnes pratiques invitent à « conserver une supervision humaine ». Problème : tous les développeurs de systèmes assurent que c’est le cas, même si cette supervision ne conduit à aucune modification des décisions prises. En réalité, les développeurs d’IA vendent des IA prédictives « avec la promesse d’une automatisation complète. La suppression d’emplois et les économies d’argent constituent une grande partie de leur argumentaire ». La supervision n’a donc la plupart du temps pas lieu. Même quand elle existe, elle est bien souvent inappropriée. Et surtout, les résultats et suggestions génèrent une sur-confiance particulièrement pervasive, qui affecte tous les utilisateurs dans tous les secteurs. Dans des simulateurs de vol, quand les pilotes reçoivent un signal d’alarme incorrect, 75% d’entre eux suivent les recommandations défaillantes. Quand ils ont recours à une checklist, ils ne sont plus que 25% à se tromper.
Mais surtout, insistent les deux chercheurs, les prédictions sur les gens sont bien plus fluctuantes qu’on le pense. Un outil similaire à Compas développé en Ohio et utilisé en Illinois a produit des aberrations car les taux de criminalité n’étaient pas les mêmes entre les deux Etats. Trop souvent les prédictions se font sur les mauvaises personnes. C’était le cas de l’outil de calcul de risque de maltraitance des enfants de Pennsylvanie étudié par Virginia Eubanks, qui n’avait aucune donnée sur les familles qui avaient recours à des assurances privées et donc qui visait disproportionnellement les plus pauvres. « Les outils d’IA regardent ce qui est sous le lampadaire. Et très souvent, le lampadaire pointe les plus pauvres ». L’IA prédictive exacerbe les inégalités existantes. « Le coût d’une IA défectueuse n’est pas supporté de manière égale par tous. L’utilisation de l’IA prédictive nuit de manière disproportionnée à des groupes qui ont été systématiquement exclus et défavorisés par le passé. » Les outils de prédiction de risque de santé, déployés pour réduire les dépenses d’hospitalisation, ont surtout montré leurs biais à l’encontre des minorités. L’un de ces outils, Optum’s Impact Pro par exemple, écartait systématiquement les personnes noires, parce que le système ne prédisait pas tant le besoin de soins, que combien l’assurance allait dépenser en remboursement des soins de santé. L’entreprise a continué d’ailleurs à utiliser son outil défaillant, même après qu’il ait montré son inéquité. « Les intérêts des entreprises sont l’une des nombreuses raisons pour lesquelles l’IA prédictive augmente les inégalités. L’autre est la trop grande confiance des développeurs dans les données passées. »
Trop souvent, on utilise des proxies, des variables substitutives qui nous font croire qu’on peut mesurer une chose par une autre, comme les coûts de la santé plutôt que les soins. C’est le même problème pour Compas. Compas utilise des données sur qui a été arrêté pas sur les crimes. Compas dit prédire le crime alors qu’en fait il ne prédit que les gens qui ont été arrêtés. Ces confusions sur les données expliquent beaucoup pourquoi les systèmes d’IA prédictive nuisent d’abord aux minorités et aux plus démunis.
S’ils sont défaillants, alors peut-être faudrait-il faire le deuil des outils prédictifs, suggèrent les chercheurs. Ce serait effectivement dans bien des cas nécessaires, mais nos sociétés sont mal à l’aise avec l’imprévisibilité, rappellent-ils. Pourtant, trop souvent nous pensons que les choses sont plus prévisibles qu’elles ne sont. Nous avons tendance à voir des régularités là où elles n’existent pas et nous pensons bien souvent être en contrôle sur des choses qui sont en fait aléatoires. Rien n’est plus difficile pour nous que d’accepter que nous n’avons pas le contrôle. Cela explique certainement notre engouement pour l’IA prédictive malgré ses défaillances. Pourtant, expliquent les chercheurs, embaucher ou promouvoir des employés aléatoirement, plutôt que sur de mauvais critères de performances, pourrait peut-être être plus bénéfique qu’on le pense, par exemple en favorisant une plus grande diversité ou en favorisant un taux de promotion fixe. Accepter l’aléatoire et l’incertitude pourrait nous conduire à de meilleures décisions et de meilleures institutions. « Au lieu de considérer les gens comme des êtres déterminés, nous devons travailler à la construction d’institutions qui sont véritablement ouvertes au fait que le passé ne prédit pas l’avenir. »
Pourquoi l’IA ne peut pas prédire le futur ?La météorologie est l’un des secteurs où la prédiction est la plus avancée. Pourtant, la météo est un système particulièrement chaotique. Des petits changements conduisent à de grandes erreurs. Plus la prédiction est éloignée dans le temps, plus l’erreur est grande. Les données, les équations, les ordinateurs ont pourtant permis d’incroyables progrès dans le domaine. Nos capacités de prédiction météo se sont améliorées d’un jour par décade : une prévision sur 5 jours d’il y a 10 ans est aussi précise qu’une prévision sur 6 jours aujourd’hui ! Ces améliorations ne viennent pas d’une révolution des méthodes, mais de petites améliorations constantes.
La prévision météo repose beaucoup sur la simulation. Les succès de prévision des phénomènes géophysiques a conduit beaucoup de chercheurs à penser qu’avec les bonnes données et la puissance de calcul, on pourrait prédire n’importe quel type d’évènements. Mais cela n’est pas toujours très bien marché. Le temps est bien plus observable que le social, certainement parce que les conditions géophysiques, contrairement à ce que l’on pourrait penser, sont plus limitées. La prévision météo repose sur des lois physiques calculables. Ce n’est pas le cas des calculs du social. « Cela n’a pas restreint pour autant le développement de prédictions dans le contexte social, même si bien souvent, nous avons assez peu de preuves de leur efficacité ». Le score de risque de défaillance de crédit, Fico, est né dans les années 50 et se déploie à la fin des années 80, en même temps que naissent les premiers scores de risque criminels… Mais c’est avec le développement du machine learning dans les années 2010 que les systèmes prédictifs vont exploser dans d’innombrables systèmes.
Toutes les prédictions ne sont pas difficiles. Le trafic, l’évolution de certaines maladies… sont assez faciles. Les prédictions individuelles, elles, sont toujours plus difficiles. Et cela pose la question de savoir ce qui définit une bonne prédiction. Est-ce qu’une prédiction météo est bonne si elle est au degré près ou si elle prédit bien la pluie indépendamment de la température ? Notre capacité à prédire les tremblements de terre est excellente, notamment les lieux où ils auront lieu, mais notre capacité à prédire la nécessité d’une évacuation est nulle, car prédire quand ils auront lieu avec suffisamment de précision est bien plus difficile. Bien souvent, la précision de la prédiction s’améliore quand on ajoute plus de données et de meilleurs modèles. Mais ce n’est pas nécessairement vrai. On ne peut prédire le résultat d’un jet de dé quel que soit le volume de données que l’on collecte !
Quand les choses sont difficiles à prédire, on a recours à d’autres critères, comme l’utilité, la légitimité morale ou l’irréductibilité des erreurs pour apprécier si la prédiction est possible. Et tout ce qui a rapport à l’individu est bien souvent difficile à prédire, ce qui n’empêche pas beaucoup d’acteurs de le faire, non pas tant pour prédire quelque chose que pour exercer un contrôle sur les individus.
Kapoor et Narayanan reviennent alors sur le Fragile Families Challenge qui a montré que les modèles d’IA prédictibles développés n’amélioraient pas notablement la prédiction par rapport à un simple modèle statistique. Pour les chercheurs, le défi a surtout montré les limites fondamentales à la prédiction du social. Dans le social, « on ne peut pas prédire très bien le futur, et nous ne connaissons pas les limites fondamentales de nos prédictions ». Les données du passé ne suffisent pas à construire ce type de prédictions, comme les données d’une précédente élection ne peuvent pas prédire la suivante. Améliorer la précision des prédictions du social relève du problème à 8 milliards de Matt Salganik : il n’y a pas assez de gens sur terre pour découvrir les modèles de leurs existences ! Cela n’empêche pas qu’il existe d’innombrables outils qui affirment pouvoir faire des prédictions à un niveau individuel.
En vérité, bien souvent, ces outils ne font guère mieux qu’une prédiction aléatoire. Compas par exemple ne fait que prédire la partialité de la police à l’encontre des minorités (et dans le cas de Compas, l’amélioration par rapport à un résultat aléatoire est assez marginale… et dans nombre d’autres exemples, l’amélioration du calcul se révèle bien souvent plus mauvaise qu’un résultat aléatoire). Utiliser seulement 2 données, l’âge et le nombre d’infractions antérieures, permet d’avoir un résultat aussi précis que celui que propose Compas en mobilisant plus d’une centaine de données. Dans le cas de la récidive, le modèle est assez simple : plus l’âge est bas et plus le nombre d’infractions antérieures est élevé, plus la personne sera à nouveau arrêtée. On pourrait d’ailleurs n’utiliser que le nombre d’infractions antérieures pour faire la prédiction sans que les résultats ne se dégradent vraiment (qui serait moralement plus acceptable car en tant que société, on pourrait vouloir traiter les plus jeunes avec plus d’indulgence qu’ils ne le sont). L’avantage d’une telle règle, c’est qu’elle serait aussi très compréhensible et transparente, bien plus que l’algorithme opaque de Compas.
Avec ces exemples, les deux chercheurs nous rappellent que la grande disponibilité des données et des possibilités de calculs nous font oublier que l’opacité et la complexité qu’ils génèrent produisent des améliorations marginales par rapport au problème démocratique que posent cette opacité et cette complexité. Nous n’avons pas besoin de meilleurs calculs – que leur complexification ne produit pas toujours –, que de calculs capables d’être redevables. C’est je pense le meilleur apport de leur essai.
Nous sommes obnubilés à l’idée de prédire un monde imprévisiblePrédire le succès est aussi difficile que prédire l’échec, rappellent-ils. Certainement parce que contrairement à ce que l’on pense, le premier ne repose pas tant sur les qualités des gens que le second ne repose sur les circonstances. Les deux reposent sur l’aléatoire. Et en fait, le succès repose plus encore sur l’aléatoire que l’échec ! Le succès est encore moins prévisible que l’échec, tant la chance, c’est-à-dire l’imprévisible, joue un rôle primordial, rappellent-ils. Le succès dans les études, le succès de produits… rien n’est plus difficile à prédire, rappellent les chercheurs en évoquant les nombreux rejets du manuscrit de Harry Potter. Matt Salganik avait ainsi créé une application de musique et recruté 14 000 participants pour évaluer des musiques de groupes inconnus avec des indicateurs sociaux qui variaient entre groupes de participants. Des chansons médiocres étaient appréciées et de très bonnes musiques négligées. Une même chanson pouvait performer dans un endroit où les métriques sociales étaient indisponibles et sous performer là où elles étaient disponibles. Mais l’expérience a surtout montré que le succès allait au succès. Dans l’environnement où personne ne voyait de métriques : il y avait bien moins d’inégalités entre les musiques.
Les médias sociaux reposent sur des principes d’accélération de la viralité d’une petite fraction des contenus. Mais la popularité est très variable, d’un contenu l’autre. Ce que font les plateformes, ce n’est pas tant de prédire l’imprévisible que de tenter d’amplifier les phénomènes. Sur YouTube, Charlie Bit My Finger fut l’une des premières vidéos virales de la plateforme. Malgré ses qualités, son succès n’avait rien d’évident. En fait, les médias sociaux sont « une loterie à mèmes géante ». Plus un mème est partagé, plus il a de la valeur et plus les gens vont avoir tendance à le partager. Mais il est impossible de prédire le succès d’une vidéo ou d’un tweet. Même la qualité ne suffit pas, même si les contenus de meilleure qualité ont plus de chance que les contenus médiocres. Par contre l’on sait que les contenus plus partisans, plus négatifs reçoivent plus d’engagements. Reste que la polarisation perçue est plus forte que la polarisation réelle – et il est probable que cette mauvaise perception la renforce.
D’une manière assez surprenante, nous prédisons très bien des effets agrégés et très mal ces mêmes effets individuellement. Les ordres de grandeur aident à prédire des effets, mais les experts eux-mêmes échouent bien souvent à prédire l’évidence. Aucun n’a prévu l’effondrement de l’URSS, rappelait Philip Tetlock. Et ce n’est pas une question de données ou de capacité d’analyse. Les limitations à la prédictions sont dues aux données indisponibles et au fait qu’elles sont parfois impossibles à obtenir. Mais la prédiction est également difficile à cause d’événements imprévisibles, mais plus encore à cause de boucles d’amplification complexes. Dans de nombreux cas, la prédiction ne peut pas s’améliorer, comme dans le cas de la prédiction du succès de produits culturels. Dans certains cas, on peut espérer des améliorations, mais pas de changements majeurs de notre capacité à prédire l’avenir. Pour Narayanan et Kapoor, notre obnubilation pour la prédiction est certainement le pire poison de l’IA.
L’IA générative, ce formidable bullshiter
Bien moins intéressants sont les 2 chapitres dédiés à l’IA générative, où les propos des deux chercheurs se révèlent assez convenus. S’il est difficile de prédire l’impact qu’elle va avoir sur l’économie et la culture, la technologie est puissante et les avancées réelles. Pour Narayanan et Kapoor, l’IA générative est déjà utile, expliquent-ils en évoquant par exemple Be My Eyes, une application qui connectait des aveugles à des volontaires voyants pour qu’ils les aident à décrire le monde auquel ils étaient confrontés en temps réel. L’application s’est greffée sur ChatGPT pour décrire les images avec un réel succès, permettant de remplacer les descriptions du monde réel des humains par celles des machines.Si l’IA générative fonctionne plutôt très bien, ce n’est pas pour autant qu’elle ne peut pas porter préjudices aux gens qui l’utilisent. Ses biais et ses erreurs sont nombreuses et problématiques. Sa capacité à nous convaincre est certainement plus problématique encore.
Les deux chercheurs bien sûr retracent l’histoire des améliorations de la discipline qui a surtout reposé sur des améliorations progressives, la disponibilité des données et l’amélioration des capacités de calcul. Tout l’enjeu de la technologie a été d’apprendre à classer les images ou les mots depuis les connexions entre eux en appliquant des poids sur les critères.
En 2011, à l’occasion d’une compétition ImageNet, visant à classifier les images, Hinton, Krizhevsky et Sutskever proposent un outil d’apprentissage profond qui se distingue par le fait qu’il ait bien plus de couches de traitements que les outils précédents : ce sera AlexNet. Tout l’enjeu ensuite, consistera à augmenter le nombre de couches de traitements en démultipliant les données… À mesure que les données deviennent plus massives, les contenus vont aussi avoir tendance à devenir plus problématiques, malgré les innombrables mesures de filtrages. Les problèmes vont y être enfouis plus que résolus, comme l’étiquetage de personnes noires sous le terme de Gorille. On va se mettre alors à mieux observer les données, mais la plupart des critères de référence ne mesurent pas dans quelle mesure les modèles reflètent les préjugés et les stéréotypes culturels. Le problème, c’est que dans le domaine de l’IA, les ingénieurs sont convaincus que découvrir les connaissances dans les données surpasse l’expertise, minimisant son importance.
« Alors que l’IA prédictive est dangereuse parce qu’elle ne fonctionne pas. L’IA pour la classification des images est dangereuse parce qu’elle fonctionne trop bien. »
Les systèmes de génération de texte fonctionnent sur le même principe que les systèmes de génération d’image. Jusqu’aux années 2010, il était difficile que les systèmes de traduction automatique gardent en tête le contexte. Ils fonctionnaient bien sur les courts extraits, mais avaient des problèmes avec des textes plus longs. En 2017, Google a trouvé la solution en proposant une matrice plus grande permettant de mieux relier les mots entre eux. C’est la technologie Transformer. L’IA générative textuelle n’est rien d’autre qu’un système d’autocomplétion qui fait de la prédiction du mot suivant.
La puissance de ces machines est à la fois leur force et leur faiblesse. « Pour générer un simple token – un bout de mot – ChatGPT doit accomplir environ un milliard de milliard d’opérations. Si vous demandez à générer un poème d’une centaine de tokens (une centaine de mots) cela nécessitera un quadrillion de calculs. Pour apprécier la magnitude de ce nombre, si tous les individus au monde participaient à ce calcul au taux d’un calcul par minute, 8 heures par jour, un quadrillon de calcul prendrait environ une année. Tout cela pour générer une simple réponse. » La capacité générative de ces outils repose sur une puissance sans limite. Une puissance dont les coûts énergétiques, matériels et économiques finissent par poser question. Avons-nous besoin d’une telle débauche de puissance ?
Pour que ces modèles répondent mieux et plus exactement, encore faut-il adapter les modèles à certaines tâches. Cette adaptation, le fine-tuning ou pré-entraînement, permet d’améliorer les résultats. Reste que ces adaptations, ces filtrages, peuvent finir par sembler être une cuillère pour écoper les problèmes de l’océan génératif…
Les chatbots peuvent avoir d’innombrables apports en interagissant avec l’utilisateur, mais le fait qu’ils dépendent profondément des statistiques et le manque de conscience de leurs propres limites, émousse leur utilité, soulignent les deux chercheurs. Jouer à Pierre-papier-ciseaux avec eux par exemple rappellent qu’ils ne comprennent pas l’enjeu de simultanéité.
Le problème de ces outils, c’est que la compréhension, n’est pas tout ou rien. Les chatbots ne comprennent rien, et leur regard sur un sujet est limité par leurs données. Mais ils sont configurés pour répondre avec confiance, comme un expert, alors qu’ils sont capables d’erreurs basiques qu’un enfant ne ferait pas. Cela signifie que ces outils ne sont pas sans écueils, rappellent les chercheurs. Ils produisent très facilement de la désinformation, des deepfakes, et permettent à ceux qui les déploient de concentrer un pouvoir très important. Les chatbots sont des bullshiters de première, des menteurs. « Ils sont entraînés pour produire des textes plausibles, pas des vérités ». Ils peuvent sembler très convaincants alors qu‘ »il n’y a aucune source vérifiée durant leur entraînement ». Même si on était capable de ne leur fournir que des affirmations vraies, le modèle ne les mémoriserait pas, mais les remixerait pour générer du texte. Ils répondent souvent correctement, mais sont capables parfois de produire des choses sans aucun sens. Cela tient certainement au fait que « les affirmations vraies sont plus plausibles que les fausses ». Les erreurs, les plagiats sont consubstantiels à la technologie.
Les usages problématiques de ces technologies sont nombreux, notamment les deepfakes et toutes les tentatives pour tromper les gens que ces outils rendent possibles. Pour l’instant, les réponses à ces enjeux ne sont pas à la hauteur. Les chercheurs ne proposent que de mieux éduquer les utilisateurs aux contenus trompeurs et aux sources fiables. Pas sûr que ce soit une réponse suffisante.
Les chercheurs rappellent que la grande difficulté à venir va être d’améliorer l’IA générative, alors que ses limites sont au cœur de son modèle, puisqu’elle ne peut qu’imiter et amplifier les stéréotypes des données qui l’ont entraîné. Pour y parvenir, il faudrait parvenir à bien mieux labelliser les données, mais l’effort devient herculéen à mesure que les moissons sont plus massives. Pour l’instant, cette labellisation repose surtout sur des travailleurs du clic mal payés, chargés de faire une labellisation à minima. Pas sûr que cela suffise à améliorer les choses…
Malgré ces constats inquiétants, cela n’empêche pas les deux chercheurs de rester confiants. Pour eux, l’IA générative reste une technologie utile, notamment aux développeurs. Ils rappellent que ces dernières années, la question des biais a connu des progrès, grâce au fine-tuning. L’atténuation des bias est un secteur de recherche fructueux. Les chatbots progressent et deviennent aussi fiables que la recherche en ligne, notamment en étant capable de citer leurs sources. Pour les chercheurs, le plus gros problème demeure l’exploitation du travail d’autrui. Nous devons opter pour les entreprises qui ont des pratiques les plus éthiques, concluent-ils, et faire pression sur les autres pour qu’ils les améliorent. Oubliant qu’il n’est pas simple de connaître l’éthique des pratiques des entreprises…
Les deux ingénieurs terminent leur livre par un chapitre qui se demande si l’IA pose une menace existentielle. Un sujet sans grand intérêt face aux menaces déjà bien réelles que fait peser l’IA. Ils le balayent d’ailleurs d’un revers de main et rappellent que l’IA générale est encore bien loin. « La plupart des connaissances humaines sont tacites et ne peuvent pas être codifiées ». C’est comme apprendre à nager ou à faire du vélo à quelqu’un simplement en lui expliquant verbalement comment faire. Ça ne marche pas très bien. Le risque à venir n’est pas que l’IA devienne intelligente, nous en sommes bien loin. Le risque à venir repose bien plus sur les mauvais usages de l’IA, et ceux-ci sont déjà très largement parmi nous. Pour améliorer notre protection contre les menaces, contre la désinformation ou les deepfakes, nous devons renforcer nos institutions démocratiques avancent les auteurs. On ne saurait être plus en accord, surtout au moment où les avancées de l’IA construisent des empires techniques qui n’ont pas grand chose de démocratique.
*
Malgré ses qualités et la richesse de ses exemples, le livre des deux chercheurs peine à rendre accessible ce qu’ils voudraient partager. Parvenir à distinguer ce que l’IA sait faire et ce qu’elle ne peut pas faire n’est pas évident pour ceux qui sont amenés à l’utiliser sans toujours comprendre sa complexité. Distinguer la bonne IA de la mauvaise n’est pas si simple. Le livre permet de comprendre que la prédiction fonctionne mal, mais sans nous aider à saisir où elle peut progresser et où elle est durablement coincée.
On a bien constaté que dès que ces outils agissent sur le social où l’individu, ils défaillent. On a bien compris que l’IA générative était puissante, mais les deux ingénieurs peinent à nous montrer là où elle va continuer à l’être et là où elle risque de produire ses méfaits. Les deux spécialistes, eux, savent très bien identifier les pièges que l’IA nous tend et que l’IA tend surtout aux ingénieurs eux-mêmes, et c’est en cela que la lecture d’AI Snake Oil est précieuse. Leur livre n’est pourtant pas le manuel qui permet de distinguer le poison du remède. Certainement parce que derrière les techniques de l’IA, le poison se distingue du remède d’abord et avant tout en regardant les domaines d’applications où elle agit. Un outil publicitaire défaillant n’a rien à voir avec un outil d’orientation défaillant.. Gardons les bons côtés. Les ingénieurs ont enfin un livre critique sur leurs méthodes avec un regard qui leur parlera. Ce n’est pas un petit gain. Si le livre se révèle au final un peu décevant, cela n’empêche pas qu’Arvind Narayanan et Sayash Kapoor demeurent les chercheurs les plus pertinents du milieu. Leur grande force est d’être bien peu perméables au bullshit de la tech, comme le montre leur livre et leur excellente newsletter. Leur défense de la science sur l’ingénierie par exemple – « les essais contrôlés randomisés devraient être un standard dans tous les domaines de la prise de décision automatisée » – demeure une boussole que l’ingénierie devrait plus souvent écouter.
-
6:35
Classifications et intensités de nuages de points dans Giro3D
sur OslandiaPièce jointe: [télécharger]
Cet article concerne des fonctionnalités publiées avec la version 0.37 de Giro3D.
Giro3D 0.37 a introduit le support des classifications et intensités pour les nuages de points.
Les classifications de nuages de pointsAprès acquisitions par un capteur LIDAR, chaque point peut se voir attribuer une classe (ou classification) déterminant sa nature: sol, végétation, bâtiment, etc.
Les points peuvent ensuite être manipulées indépendamment lors de traitement (filtrage, colorisation, etc) selon leur classe.
Quels formats supportent les classifications ?De nombreux formats supportent cette fonctionnalités. Sur le Web Open-Source, les principaux formats utilisés sont les suivants:
Afficher les classifications dans Giro3DVoir l’exemple détaillé sur le site de Giro3D.
Actuellement, Giro3D supporte les classifications via l’entité Tiles3D, permettant d’afficher des nuages de points après conversion au format 3D Tiles.
Le support du format COPC est en cours de développement et supportera également les classifications. Il également prévu d’ajouter le support du format Potree 2.0.
Sélection de la couleur et de la visibilitéChaque classification est composée d’une couleur et d’une visibilité. Par défaut, toutes les classifications sont visibles. Les classifications 0 à 18 ont des couleurs pré-définies dans Giro3D (mais modifiables).
Dans l’exemple classification">[https:] , il est ainsi possible de modifier les couleurs et visibilité de chaque classification dynamiquement.
Nuages de points classifiés
Les intensitésVoir l’exemple complet sur le site Giro3D.
L’intensité d’un point est une valeur numérique décrivant la quantité d’énergie réfléchie par la surface (et donc la quantité absorbée). Dans une scène lidar typique, les arbres absorbent plus d’énergie laser que les champs agricoles par exemple, ce qui leur donnera une intensité moindre.
L’intensité des champs est plus importante que celle des arbres
Dans Giro3D, l’interprétation des valeurs d’intensité passe par une rampe de couleurs (ColorMap).
Le même nuage de point avec une rampe de couleur différente
Les opacités variablesLes rampes de couleurs Giro3D supportent des opacités variables. Chaque couleur de la rampe de couleur peut également être associé à un valeur d’opacité (de 0 à 1), indiquant le degré de transparence de cette couleur.
Cela permet par exemple de rendre semi-transparente ou invisibles certaines valeur d’intensité, comme les arbres:
Le nuage de point par défaut.
Les intensités inférieure à un seuil sont masquées, masquant les arbres.
-
18:13
Les territoires de l’extrême droite en France et en Europe
sur Les cafés géographiquesLa forte poussée de l’extrême droite en Europe conduit à s’interroger sur les ressorts communs à la montée de ces partis.
C’est devant une assistance nombreuse que Béatrice Giblin (BG), une habituée de nos cafés, a inauguré la nouvelle saison 2024-25 ce 24 septembre. Professeure émérite des Universités, géographe et géopolitologue, BG a fondé l’Institut francais de géopolitique (IFG). Elle dirige depuis 2006 la revue Hérodote, succédant à son maître Y.Lacoste avec qui elle s’est intéressée dès 1986 au Front National (FN) devenu en 2018 Rassemblement National (RN) non pas du point de vue sociologique ou politique mais du point de vue de son implantation géographique, en s’efforçant de faire varier le niveau d’analyse par différentes échelles. Le premier canton à élire un candidat du Front national (FN) était dans les environs de Marseille en 1982.
Résultats des élections européennes du 9 juin 2024.Ils ne font que confirmer les progrès des partis d’extrême droite en Europe tels qu’ils ont été cartographiés le 7 juin 2024, avant les élections, à partir des résultats des dernières élections législatives dans les différents pays de l’Union européenne. La réalisation de cette carte par le journal Le Monde, publiée avant les élections représente un travail considérable très intéressant car il permet une analyse plus fine par le fait que la collecte des résultats des votes s’est faite à une grande échelle sur de petits territoires (districts, communes).
Les votes de l’extrême droite en Europe, 7 juin 2024
(Avec la gracieuse autorisation du journal Le Monde)
La forte poussée de l’extrême droite est évidente le 9 juin : elle obtient 196 sièges sur 720 (soit 18,47% des sièges contre 9,7% en 2019). C’est la France qui a le plus de députés d’extrême droite en Europe avec le RN qui obtient 30 députés (32% des voix) et est arrivé en tête dans toutes les communes sauf deux (une en région parisienne et une en Bretagne). Suit l ’Autriche avec un FPÖ (Parti de la liberté d’Autriche) bien ancré qui a déjà participé à une coalition avec le parti conservateur en 1999 (ce qui avait été alors très décrié en Europe). Puis viennent l’Italie où la liste de G. Meloni obtient 24 députés (10 en 2019), les Pays-Bas avec le parti de Geert Wilders qui obtient 6 sièges (1 en 2019). A noter aussi, le très bon score (45% des voix) du Fidesz (Union civique hongroise), parti du Premier ministre V. Orban en Hongrie, et la percée de l’AFD, Alternative pour l’Allemagne (15 sièges) en Allemagne surtout dans les Länder de l’Est. En Pologne, le PIS fait un assez bon score (20 sièges) mais est en retrait par rapport à 2019.
Grande division de ces partis répartis en plusieurs groupes au parlement.
Il n’existe pas un parti d’extrême droite homogène au niveau européen mais des groupes différents traduisant l’extrême division des extrêmes droites dans l’UE. Au moins trois groupes sont importants. Les patriotes pour l’Europe (anciennement Identité démocrate nationaliste) regroupent 84 sièges avec le RN associé au Fidesz. Les Conservateurs et réformistes européens (CRE) compte 78 sièges (essentiellement Méloni et Marion Maréchal). L’ENS (Europe des nations souveraines) est une sorte de groupe de non-inscrits où on retrouve l’AFD associé à quelques députés polonais non PiS.Pourquoi une telle division ?
Le clivage majeur actuel est à rechercher dans l’attitude face à la guerre en Ukraine entre ceux qui veulent la soutenir comme la Pologne, les pays baltes et scandinaves et ceux qui penchent du côté de Poutine (Hongrie) où qui affichent un soutien de façade à l’Ukraine pour des raisons de politique intérieure (RN).L’ancienneté de l’implantation de ces partis et les systèmes électoraux expliquent aussi leur diversité. Si l’AFD est relativement récente en Allemagne, ce pays est travaillé depuis une trentaine d’années par des groupuscules d’extrême droite et l’AFD y a trouvé un terreau fertile pour développer ses thématiques. Le FPÖ est aussi très anciennement implanté : il a été créé en 1955 par d’anciens nazis dans une Autriche pas dénazifiée et sans travail de mémoire. En France le FN a été créé plus tardivement (1971) mais n’a fait que croitre dans les années 1980 pour en arriver à l’élimination de L. Jospin aux élections présidentielles par J.M. Le Pen en 2002.
Certains systèmes électoraux avec la proportionnelle notamment, permettent aux partis d’extrême droite d’être associés au gouvernement dans des coalitions gouvernementales comme en Suède, Pays-Bas, Finlande. Cela pourrait peut-être être un jour le cas en Allemagne. Notre système uninominal à deux tours a été moins favorable au RN mais on a vu récemment qu’aucun système n’empêche un parti qui bénéficie d’une forte dynamique de progresser et d’arriver aux portes du pouvoir.
Certains dénominateurs communs constituent les ressorts du vote d’extrême droite :
- L’immigration et le sentiment de ne plus être chez soi avec la crainte d’une perte d’ identité ethnique, religieuse ou culturelle sont des ressorts importants voire majeurs du vote d’extrême droite. L’Europe qui a longtemps été un continent d’émigration est devenue une zone d’immigration. Depuis les années 1970, sur une population européenne de 450M° d’habitants, on compte environ 40 M° d’étrangers et 55 M° (naturalisés ou pas) nés dans un pays étranger ce qui représente globalement 12% de la population européenne. La France se situe dans cette moyenne avec 10%. En Allemagne, la proportion est plus forte car il y a moins de naturalisés : la loi du sol y est plus récente (en janvier 2000 avec A. Merckel) et la nouvelle loi ne date que de juin 2024. A noter cependant que des pays comme la Hongrie, la Pologne, la Roumanie, la Tchéquie, Slovaquie, la Bulgarie à très faible population immigrée (environ 2%) votent largement pour l’extrême droite, prouvant ainsi que la concordance entre le nombre d’immigrés et le vote d’extrême droite n’est ni parfaite ni systématique.
- les facteurs géographique et historique. La proximité ou pas de la Russie, la taille des territoires joue un rôle important. L’histoire et ses traumatismes comptent aussi beaucoup : la représentation que les populations se font de la situation géopolitique actuelle de leur pays est essentielle. Ainsi la Hongrie est devenue un petit pays après la Première Guerre mondiale mais les Hongrois ont toujours en mémoire l’idée d’avoir participé d’un grand empire et demeurent frustrés des pertes de territoires et de population hongrois notamment au profit de la Roumanie. L’histoire de la Pologne, rayée de la carte par deux fois, partagée à plusieurs reprises, envahie, explique que la population ressent toujours une menace sur sa nation.
- la démographie est aussi une clé de compréhension. L’accroissement naturel, quand il est négatif et entraine une chute démographique sur un territoire, favorise le vote d’extrême droite dans la mesure où les populations se sentent fragilisées : on le voit dans les Länder de l’ex RDA, dans les pays baltes, en Bulgarie, Italie, en France aussi dans certaines régions (le Centre). Le taux de migration (différence entre le nombre d’entrées et de sorties) quand il est important nourrit le discours du grand remplacement surtout s’il se conjugue à un taux d’accroissement naturel négatif comme en Allemagne de l’Est (Thuringe, Brandebourg), d’où ce sentiment d’abandon dans une population vieillissante avec le départ des jeunes générations. En Pologne le vote du PiS (Droit et Justice) se décalque sur les territoires de faibles densités, en France en partie aussi (la diagonale du vide). Les densités faibles (inférieures à 50) ne permettent pas de maintenir des services publics d’où le sentiment d’abandon dans des sociétés sont bouleversées.
La taille des villes mérite considération aussi : plus elles sont petites et proches des milieux ruraux, plus le vote d’extrême droite a tendance à y être élevé. Inversement les grandes métropoles sont plus réfractaires. - Le risque de pauvreté, le sentiment d’insécurité physique et culturelle, lié à tort ou à raison à l’immigration de populations musulmanes ainsi que le niveau de diplôme sont aussi à prendre en compte avec des effets inégaux suivant les pays et la conjoncture.
(Avec la gracieuse autorisation du journal Le Monde)
Dialogue avec le publicPrésence et poussée du national-populisme à l’échelle mondiale. Elle s’observe en Inde avec Modi dans un pays pluriel avec plusieurs langues, religions, au Brésil de Bolsonaro, en Argentine avec Javier Milei, aux Etats-Unis avec Trump, en Turquie avec Erdogan, en Egypte avec Sisi…. Il s’agit d’une réalité qui menace le modèle démocratique libéral occidental qui n’a plus vocation à devenir universel.
La division des partis d’extrême droite d’Europe ne peut-elle pas finir dans une union à l’image de l’alliance entre fascisme et nazisme dans les années trente ?
Pour B.G la conjoncture actuelle n’est pas favorable à ce type de rapprochement. Elle rappelle que c’est dans le cadre de la Seconde Guerre mondiale que s’est fait ce rapprochement de seulement deux partenaires, alors que l’U.E actuellement pour le moment en paix rassemble 27 pays. De plus les divisions existent dans la cadre même des trois groupes au parlement européen. Les positions géographiques et le passé historique de chaque pays ne poussent pas à l’union même si certaines données, démographiques surtout, sont des dénominateurs communs.Rôle des facteurs économiques (chômage, crise) dans la poussée de l’extrême droite ?
Pour B.G le chômage à lui seul n’est pas un facteur déterminant (surtout qu’il existe maintenant un système de protection sociale) même s’il peut y contribuer et engendrer de la xénophobie. Les études faites sur Roubaix-Tourcoing * où le F.N s’est implanté très tôt dans les quartiers populaires ont montré le poids du mal-être quotidien en liaison avec des représentations liées au rôle de l’histoire de la guerre d’Algérie dans ces milieux ouvriers.Le R.N dans les territoires d’Outre-Mer ? C’est une situation très compliquée aux Antilles où le vote peut être extrêmement variable et volatil d’un scrutin à l’autre. A Mayotte la situation est plus claire : c’est l’arrivée massive des Comoriens qui génère de multiples problèmes et qui induit le vote R.N.
* Voir Bernard Alidières, Géopolitique de l’insécurité et du Front national, ed. A. Colin, 2006
Compte-rendu de Micheline Huvet-Martinet, octobre 2024
-
16:46
OTB Team: OTB User Days 2024
sur Planet OSGeoDear all, The OTB User Days 2024 will be held from November 21th to November 22th in Toulouse, France. The event will be held at Artilect Fablab On November 21th, presentations will be held in the morning, and brainstorming in the afternoon : On November 22th : Please register here if you plan to come and you […]
-
15:00
Sortie de QField 3.4 « Ebo »
sur OslandiaOslandia est le partenaire principal d’OPENGIS.ch pour QField. Nous sommes fiers aujourd’hui de relayer l’annonce de la nouvelle version 3.4 « Ebo » de QField. Cette version introduit le « Geofencing » et le support d’algorithmes de traitements.
GeofencingUn nouveau framework pour le « Geofencing » est arrivé, qui permet aux utilisateurs de configurer le comportement de QField avec des zones-barrières. En fonction de la géolocalisation de l’utilisateur et des zones-barrières définies, QField va pouvoir afficher des alertes ou autoriser l’édition. Les zones-barrières sont définies au niveau du projet, par l’intermédiaire de polygones d’une couche vectorielle. Il existe trois options de comportement de geofencing dans cette version de QField :
- Alerter l’utilisateur lorsqu’il est à l’intérieur d’une zone définie
- Alerter l’utilisateur lorsqu’il est à l’extérieur de toutes les zones définies
- Informer l’utilisateur lorsqu’il entre ou sort d’une zone polygonale donnée
En plus de l’alerte ou l’information, les utilisateurs peuvent aussi configurer QField pour que l’édition soit désactivée lorsqu’ils sont à l’intérieur d’une zone ou à l’extérieur des zones définies. La configuration de cette fonctionnalité se fait dans QGIS par le plugin QFieldSync.
Traitement des objetsQField offre également dans cette version un accès aux algorithmes de traitements géométriques. Une « processing toolbox » qui contient plus d’une dizaine d’algorithmes est accessible directement dans QField, et permet de manipuler les géométries numérisées sur le terrain. Cette fonctionnalité repose sur le cœur de QGIS, plus particulièrement sur le framework Processing de QGIS et les nombreux algorithmes disponibles dans ce module.
La disponibilité de ces algorithmes dans QField ouvre la porte à de nombreuses nouvelles possibilités pour la modification des géométries : orthogonalisation, lissage, tampon, rotation, transformation affine, etc. Lorsque l’utilisateur configure les paramètres d’un algorithme, une prévisualisation en grisé de la sortie est visible en surimpression du canevas de carte.
Pour accéder à la boîte de traitement de QField, sélectionnez un ou plusieurs objets avec une pression longue dans la liste des objets de la carte, ouvrez le menu à 3 points et cliquez sur l’action « Traiter les objets sélectionnés ».
Si cette fonctionnalité vous plaît, vous pouvez remercier le National Land Survey of Finland, qui a financé ces développements.
Améliorations de la caméraLa caméra de QField a de nouvelles fonctionnalités : les ratios et dimensions des photos sont personnalisables. Elle permet également d’incruster dans la photo capturée les éléments de date de captation, et de localisation. Les dernières versions de QField ont largement amélioré la fonctionnalité de caméra QField, de telle sorte que c’est désormais la solution par défaut dans QField pour la prise de vue. Les utilisateurs peuvent toujours désactiver cette caméra pour utiliser la caméra native de leur système.
.. et toujours plusDe nombreux autres développements ont vu le jour pour cette version, tel que l’édition des variables projet par un éditeur, l’intégration de la documentation dans la barre de recherche, ou la possibilité de rechercher dans la liste des projets cloud. Toutes ces fonctionnalités sont détaillées dans le Changelog complet de la 3.4.
À votre tour !Vous avez des questions sur QField ? Intéressés par sa mise en œuvre, n’hésitez pas à contacter Oslandia !
-
14:24
Makina Corpus Territoires participe au Meet'Up Greentech 2024 et aux Data Challenges Adapt'Action
sur Makina CorpusLes 15 et 16 octobre à Paris, retrouvez l’équipe Makina Corpus Territoires au Meet’Up Greentech 2024. Nos solutions GeoRivière et Récolt’Ô participent aux Data Challenges Adapt’Action.
-
11:32
Incident en cours Géoplateforme
sur Toute l’actualité des Geoservices de l'IGNIncident en cours Géoplateforme
-
11:04
Oslandia: (Fr) Du nouveau pour [CityBuilder] CityForge
sur Planet OSGeoSorry, this entry is only available in French.
-
11:00
Mappery: Gordon the Globe
sur Planet OSGeoPièce jointe: [télécharger]
Elizabeth spotted this advert on the London Underground. Is Gordon smiling or shocked or ..?
-
9:47
Neutralisme
sur Dans les algorithmesEn 2017, Mark Zuckerberg semblait se préparer à la candidature suprême. 7 ans plus tard, cela ne semble absolument plus le cas, rapporte le New York Times. L’activisme politique de Meta, c’est terminé ! Alors qu’une large part de la Valley semble faire allégeance conservatrice, d’autres, comme Zuckerberg, ont opté pour une prudente « neutralité » qui reste tout de même très libérale. Le temps où Zuckerberg promettait d’éliminer la pauvreté et la faim, semble bien loin. Mais il n’y a pas que Zuck qui prend ses distances avec la politique : les algorithmes de ses entreprises également, explique un second article du New York Times. Depuis l’assaut du capitole en janvier 2021, Meta n’a cessé de réduire la portée des contenus politiques sur ses plateformes. Cela ne signifie pas que la désinformation a disparu, mais que l’entreprise oeuvre activement à la rendre peu visible. A croire que Meta est à la recherche d’une « neutralité » qui, comme toute neutralité, n’existe pas.
-
9:34
Animal Migration Tracking
sur Google Maps ManiaThe Atlas of Ungulate MigrationUngulates, large herbivorous mammals with hooves, are a vital part of many ecosystems across the globe. These animals, including species like wildebeest, caribou, elk, and zebra, often migrate seasonally over vast distances. These migrations play a crucial role in maintaining the resilience of ecosystems, supporting biodiversity, and even sustaining local economies
-
20:24
Israël-Hamas. Cartographie des massacres du 7 octobre 2023
sur Cartographies numériquesLe site oct7map.com documente avec précision les massacres commis par le Hamas le 7 octobre 2023, lors d’attaques contre des communautés civiles et des postes militaires israéliens. L’attaque a commencé dès l’aube lorsque le Hamas a lancé plus de 5 000 roquettes depuis Gaza vers Israël, puis a utilisé ces barrages stratégiques comme couverture pour franchir la frontière. Dans cette attaque surprise contre le sud d’Israël, les terroristes du Hamas ont commis des atrocités, qui ont eu un fort impact sur l'opinion publique.
Au delà du retentissement mondial de l'événement, il importe de pouvoir documenter, carte à l'appui, le déroulement des faits. Cette carte interactive se veut « un outil de réflexion et d'éducation, favorisant la prise de conscience de la gravité des horreurs ». Le site à pour but de fournir « une représentation accessible des événements tragiques du 7 octobre, en honorant la mémoire et les expériences des victimes ».
Mapping The October 7th Massacres (source : oct7map.com)
Le festival de musique Supernova, organisé en plein air près du kibboutz Re'im, situé à 5 km de la frontière de Gaza, a constitué l'une des premières cibles des terroristes du Hamas. Mais d'autres massacres ont eu lieu dans les kibboutz voisins à Be'eri, à Nahal Oz ou Kfar Aza. Chaque victime est recensée avec son identité. En rouge apparaissent les victimes décédées, en bleu les personnes kidnappées. Les données, qui peuvent être incomplètes, sont mises à jour au fur et à mesure. Il est possible d'y apporter des contributions (appel à témoignages).
Les attaques ont coûté la vie à plus de 1 188 personnes, dont 800 corps ont été confirmés comme étant des civils. Elles ont fait plus de 4 834 blessés et plus de 251 prises en otage. En outre, certains corps sont restés non identifiés en raison de mutilations importantes. Depuis le 7 octobre, au moins 21 otages ont été assassinés par le Hamas ou le Jihad islamique palestinien, tandis que quelques corps d’otages assassinés en captivité ont pu être sauvés. Au total, 8 otages ont été libérés par l'armée israélienne et 111 autres ont été libérés dans le cadre de négociations. Parmi les survivants, 30 femmes ont été victimes d'abus sexuels de la part de leurs ravisseurs. 101 personnes sont toujours retenues en otage ; environ 40 d'entre elles sont mortes et leurs corps sont toujours en captivité.
En réaction aux massacres perpétrés par le Hamas, Tsahal a envahi et détruit une bonne partie du territoire de Gaza, avant de commencer à accentuer ses frappes sur le Liban. Les événements du 7 Octobre ont connu un grand retentissement dans le monde avec des manifestations pro-palestiniennes ou pro-israéliennes. Depuis octobre 2023, on observe une escalade de la violence au Proche-Orient.
One year since the tragic October 7th attack.
— oct7map (@oct7map) October 7, 2024
? 1200 Lives Lost
?? 101 Still Held In Gaza
We honor the victims and pray for the hostages' return. Supported by authorities and volunteers, we've enhanced [https:]] . Share their stories to preserve their memories pic.twitter.com/jYvD3Ln7QAPour compléter
Israël-Hamas : un an après l’attaque du 7 octobre, que retenir de la médiatisation du conflit ? (La revue des médias).
Parce que l’Histoire ne commence pas le 7 octobre. Palestine-Israël, une histoire visuelle (Visionscarto).
Carte animée des alertes de roquettes en Israël depuis le 23 octobre 2023 par @LittleMoiz (MapPorn). Une manière (indirecte) de recenser les frappes aériennes à travers les sirènes.
Carte des frappes israéliennes à partir d'images satellites enregistrant les incendies liés aux explosions (FIRMS).
Carte des frappes sur la période 7 octobre 2023-20 septembre 2024 par Al Jazzeera, à partir des données de l'ACLED.
L'OCHA (ONU) fournit des données sur l'intensité du conflit au Liban du point de vue humanitaire.
Articles connexes
Décrypter le conflit Israël-Hamas à partir de cartes
Une cartographie du génocide à Gaza (Forensic Architecture)
Palestine Open Maps, un site pour obtenir des cartes et des données spatiales sur la Palestine
La carte, objet éminemment politique : la cartographie du Moyen-Orient entre représentation et manipulation
La carte, objet éminemment politique. Les manifestations pro-palestiniennes aux États-Unis et dans le monde
La carte, objet éminemment politique : Nétanyahou menace d'annexer un tiers de la Cisjordanie
La carte, objet éminemment politique : la montée des tensions entre l'Iran et les Etats-Unis
La carte, objet éminemment politique : la question kurde
La carte, objet éminemment politique : les formes du soulèvement en Iran
Le Moyen-Orient, une construction instable et récente : la preuve en cartes et en schémas
Quand Israël et la Palestine « disparaissent » des cartes scolaires. Le cas de l'Arabie saoudite
-
17:46
Oslandia: New release for QField : 3.4 “Ebo”
sur Planet OSGeoOslandia is the main partner of OPENGIS.ch around QField. We are proud today to forward the announcement of the new QField release 3.4 “Ebo”.
Main highlightsA new geofencing framework has landed, enabling users to configure QField behaviors in relation to geofenced areas and user positioning. Geofenced areas are defined at the project-level and shaped by polygons from a chosen vector layer. The three available geofencing behaviours in this new release are:
- Alert user when inside an area polygon;
- Alert user when outside all defined area polygons and
- Inform the user when entering and leaving an area polygons.
In addition to being alerted or informed, users can also prevent digitizing of features when being alerted by the first or second behaviour. The configuration of this functionality is done in QGIS using QFieldSync.
Pro tip: geofencing settings are embedded within projects, which means it is easy to deploy these constraints to a team of field workers through QFieldCloud. Thanks Terrex Seismic for sponsoring this functionality.
QField now offers users access to a brand new processing toolbox containing over a dozen algorithms for manipulating digitized geometries directly in the field. As with many parts of QField, this feature relies on QGIS’ core library, namely its processing framework and the numerous, well-maintained algorithms it comes with.
The algorithms exposed in QField unlock many useful functionalities for refining geometries, including orthogonalization, smoothing, buffering, rotation, affine transformation, etc. As users configure algorithms’ parameters, a grey preview of the output will be visible as an overlay on top of the map canvas.
To reach the processing toolbox in QField, select one or more features by long-pressing on them in the features list, open the 3-dot menu and click on the process selected feature(s) action. Are you excited about this one? Send your thanks to the National Land Survey of Finland, who’s support made this a reality.
QField’s camera has gained support for customized ratio and resolution of photos, as well as the ability to stamp details – date and time as well as location details – onto captured photos. In fact, QField’s own camera has received so much attention in the last few releases that it was decided to make it the default one. On supported platforms, users can switch to their OS camera by disabling the native camera option found at the bottom of the QField settings’ general tab.
Wait, there’s moreThere are plenty more improvements packed into this release from project variables editing using a revamped variables editor through to integration of QField documentation help in the search bar and the ability to search cloud project lists. Read the full 3.4 changelog to know more, and enjoy the release!
A question concerning QField ? Interested in QField deployment ? Do not hesitate to contact Oslandia to discuss your project !
-
12:20
The American Election & the Rest of the World
sur Google Maps ManiaWith the world closely watching the U.S. 2024 election, what could a Trump or Harris presidency mean for international stability? From rising tensions in Eastern Europe to critical climate action, the global implications of the U.S. election stretch far beyond American borders.The European Union Institute for Security Studies (EUISS) has been exploring "how a Trump or a Harris presidency
-
11:50
Is Antarctica greening?
sur Séries temporelles (CESBIO)In a recent study, Roland and Bartlett et al. (2024) showed that the Antarctic Peninsula is « greening », i.e. the area covered by vegetation is growing. This article published in Nature Geoscience was featured in many media outlets. The authors drew this conclusion from the analysis of 35 years of Landsat images. More specifically, they computed a composite image of the maximum NDVI observed in March of every year since 1986. They used this annual time series to study the evolution of the area exceeding an NDVI threshold of 0.2. I was skeptical about the results because we showed recently that greening trends derived from annual maximum NDVI can be overestimated because the number of available Landsat observations increases over time (Bayle et al. 2024).
In temperate and sub-polar regions, the NDVI time series at a Landsat pixel is expected to look like this if there is a « greening ».
Such time series can be easily generated in Google Earth Engine from images acquired by Landsat 5, 7 and 8. A single line of code creates a global collection of Landsat images spanning the past 40 years!
var Landsat = ee.ImageCollection('LANDSAT/LC08/C02/T2_TOA').merge(ee.ImageCollection('LANDSAT/LE07/C02/T2_TOA')).merge(ee.ImageCollection('LANDSAT/LT05/C02/T2_TOA'))
However, the effective revisit frequency of Landsat has substantially increased over this period, which means that more clear-sky observations are generally available in the end of the study period. As a result, it is more likely to observe an NDVI value that is close to the actual maximum in the end of the study period. This statistical artefact can lead to the false conclusion that a pixel is « greening ». It can also lead to overestimate the actual NDVI increase in greening areas. For example, Bayle et al. (2024) showed that up to 50% of the greening trend in high-elevation alpine grasslands computed by Rumpf et al. (2022) can be explained by this effect.
It is possible to check if the magnitude of the greening was also overestimated in this Antarctic Peninsula study, because the authors have shared their code. I could reproduce their calculations using the mean instead of the maximum to create the annual composite from March NDVI images. Unlike the maximum, the sample mean is an unbiased estimator of the actual mean of the data. Therefore, it should not lead to a systematic under- or overestimation of the mean NDVI depending on the number of samples.
The average number of observations and the areal extent of « green » areas over the Antarctic peninsula in March from Landsat (blue curve in the bottom panel reproduces Fig. 2 in Sustained greening of the Antarctic Peninsula observed from satellites)I found that their results are robust and mostly insensitive to the changes in revisit. The main conclusion of the paper, « a clear but nonlinear trend towards a greater area of vegetation cover » remains unquestionable. The Mann-Kendall tests yield similar results with both approaches (mean vs. max.). The main differences are related to the area changes by period (cf. supplement Tab. 5.1 in R24). The change from 1986 to 2021 is 2.30 km² per decade using the mean NDVI whereas it is 3.13 km² per decade using the max NDVI (the value quoted the paper is 3.17 km² per decade*). The low impact of the revisit in this case is probably due to the fact that the authors restricted their analysis to a very short period of time (1 month), therefore on average there is only one available observation to create the annual NDVI composite even in the end of the study period. The magnitude of the area change might be somewhat overestimated but it is difficult to give a more accurate estimate given the available data.
Area change in km2/decade
method maxNDVI meanNDVI 1986-2021 3.13 2.30 1986-2004 2.77 2.32 2004-2016 2.94 3.61 2016-2021 4.91 -0.93 More details about my analysis and how to reproduce it in this repository: [https:]] .
* I could not find the exact same values as the authors in most of the cases, a possible explanation is given by the authors « Due to changes applied to imagery in the compilation of LANDSAT collection 2, this code cannot gaurantee exact reproduction of identical results to the paper, though the overall trends observed are highly comparable. »
Deception Island, Antarctica in February 2018References
Roland, T. P., Bartlett, O. T., Charman, D. J., Anderson, K., Hodgson, D. A., Amesbury, M. J., Maclean, I., Fretwell, P. T., & Fleming, A. (2024). Sustained greening of the Antarctic Peninsula observed from satellites. Nature Geoscience, 1–6. [https:]] Rumpf, S. B., Gravey, M., Brönnimann, O., Luoto, M., Cianfrani, C., Mariethoz, G., & Guisan, A. (2022). From white to green: Snow cover loss and increased vegetation productivity in the European Alps. Science, 376(6597), 1119–1122. [https:]] Bayle, A., Gascoin, S., Berner, L. T., & Choler, P. (2024). Landsat-based greening trends in alpine ecosystems are inflated by multidecadal increases in summer observations. In Ecography. [https:]]
-
11:32
Incident en cours Géoplateforme
sur Toute l’actualité des Geoservices de l'IGNIncident en cours Géoplateforme -
11:32
Incident en cours Géoplateforme (Résolu)
sur Toute l’actualité des Geoservices de l'IGNIncident en cours Géoplateforme (Résolu)
-
11:00
Mappery: The Map Shop
sur Planet OSGeoPièce jointe: [télécharger]
Reinder spotted this selection of maps for sale in a souvenir shop at Wawel Castle, Cracow, Poland. They like a map there!
-
9:22
Explorez l'Auvergne-Rhône-Alpes à vélo
sur Makina CorpusUne application web autour du véloSi vous êtes un passionné de vélo, vous allez adorer la nouvelle application web laregionduvelo.fr.
-
7:30
Est-ce que la complexité des calculs les améliore ?
sur Dans les algorithmesMalgré leurs promesses, les calculs, notamment quand ils s’appliquent au social, sont très souvent défaillants. Pour remédier à leurs limites, l’enjeu est d’accéder à toujours plus de données pour les affiner. La promesse est répétée ad nauseam : c’est en accédant à toujours plus de données que nous améliorerons les calculs ! Un mantra dont il est toujours très difficile de démontrer les limites.
En 2017, le programme d’études conjoint de Princeton et de Columbia sur l’avenir des familles et le bien être des enfants a donné accès à un immense jeu de données de grande qualité sur des centaines d’enfants et leurs familles, invitant plus de 450 chercheurs et 160 équipes de recherches à les utiliser dans le cadre d’un défi de data science visant à améliorer la prévisibilité des trajectoires de vies. Le jeu de données portait sur plus de 4000 familles avec plus de 12 000 variables par familles centrées sur des enfants de la naissance à leurs 9 ans, expliquent les chercheurs (par exemple des données démographiques, des données sur le territoire, sur la santé ou l’évolution professionnelle des parents, sur le comportement, avec des tests cognitifs et de vocabulaire réalisés à intervalles réguliers…).
Pour la moitié des familles, les chercheurs ont également donné accès aux données relatives à ces enfants et familles à l’âge de 15 ans afin que les chercheurs puissent prédire des résultats sur l’évolution sociale de l’autre moitié des familles. Un jeu d’entraînement rare et particulièrement riche qui avait pour ambition de permettre d’améliorer l’exactitude des prédictions sociales. Le défi consistait à prédire les résultats scolaires des enfants, évaluer leurs capacités psychologiques à la persévérance dans l’effort, prédire les difficultés matérielles des familles comme les risques de licenciement ou d’expulsion ainsi que le niveau de formation professionnelle des parents.
Pourtant, aucun des 160 résultats proposés par quelques-uns des meilleurs laboratoires de recherche du monde n’a été particulièrement performant. Aucune solution?malgré la diversité des techniques de machine learning utilisées ? n’a permis de produire des prédictions fiables, rapportent les organisateurs dans le bilan de ce défi.
Les scientifiques ont également comparé les modèles issus du machine learning et les modèles prédictifs traditionnels qui n’utilisent que 4 variables pour produire des prédictions (à savoir en utilisant seulement l’origine éthnique de la mère, le statut marital des parents à la naissance, leur niveau d’éducation et un résultat de l’enfant à 9 ans). Les chercheurs ont montré que les modèles prédictifs traditionnels faisaient d’aussi bonnes prédictions voire de meilleures que les modèles plus élaborés reposant sur le machine learning?même si, les uns comme les autres se révèlent très mauvais à prédire le futur.
Image : De la difficulté à prédire. En bleu, les résultats de prédiction des meilleures méthodes de machine learning sur les différents éléments à prédire depuis les 12 000 variables disponibles dans le cadre du défi des familles fragiles. En vert, les résultats obtenus depuis de simples et traditionnelles régressions linéaires depuis seulement 4 variables, dans les mêmes domaines, à savoir (de gauche à droite) celle des difficultés matérielles, la moyenne scolaire (GPA, Grade point average), la persévérance (Grit), le risque d’expulsion (eviction), la formation professionnelle et le risque de licenciement. Via la présentation d’Arvind Narayanan. Le graphique montre que les prédictions du social sont difficiles et que les meilleures techniques de machine learning ne les améliorent pas vraiment puisqu’elles ne font pas significativement mieux que des calculs plus simples.Ces résultats devraient nous interroger profondément. A l’heure où les data scientists ne cessent d’exiger plus de données pour toujours améliorer leurs prédictions, cette étude nous rappelle que plus de données n’est pas toujours utile. Que l’amélioration est trop souvent marginale pour ne pas dire anecdotique. Pire, la complexité qu’introduit l’IA dans les calculs rend les résultats très difficiles à expliquer, à reproduire, à vérifier… alors que les méthodes traditionnelles?comme la régression statistique qui permet d’identifier les variables qui ont un impact ?, elles, n’utilisent que peu de données, sont compréhensibles, vérifiables et opposables… sans compter qu’elles permettent d’éviter d’accumuler des données problématiques dans les calculs. Collecter peu de données cause moins de problèmes de vie privée, moins de problèmes légaux comme éthiques… et moins de discriminations, explique le chercheur Arvind Narayanan dans une de ses excellentes présentations, où il dénonce les défaillances majeures et durables de l’IA à prédire le social.
Dans le livre que le chercheur signe avec son collègue Sayash Kapoor, AI Snake Oil (Princeton University Press, 2024, non traduit), ils montrent à plusieurs reprises que la complexification des calculs ne les améliore pas toujours ou alors de manière bien trop marginale par rapport à la chape d’opacité que la complexité introduit. Nous n’avons pas besoin de meilleurs calculs (pour autant que leur complexification les améliore) que de calculs qui puissent être redevables, opposables et compréhensibles, rappellent-ils.
Le problème, c’est que le marketing de la technique nous invite massivement à croire le contraire. Trop souvent, nous privilégions une débauche de calculs, là où des calculs simples fonctionnent aussi bien, simplement parce qu’il y a un fort intérêt commercial à vendre des produits de calculs complexes. A l’ère du calcul, tout l’enjeu est de vendre plus de calculs et de nous faire croire qu’ils fonctionnent mieux.
Qu’est-ce que la complexité améliore ? Est-ce que cette amélioration est suffisante ou signifiante pour en valoir le coup ? A l’avantage de qui et au détriment de qui ? Est-ce que cette complexité est nécessaire ?… sont d’autres formes de cette même question que nous ne posons pas suffisamment. Ajouter de la complexité crée de l’opacité et renforce l’asymétrie de pouvoir. Et nous fait oublier que la simplicité des calculs les améliore certainement bien plus que leur complexification.
Hubert Guillaud
PS : 4 ans plus tard, le sociologue Ian Lundberg, responsable du défi de data science sur les trajectoires de vie des enfants, publie une étude pour comprendre pourquoi l’avenir des enfants est si imprévisible, rapporte Nautilus. Les lacunes de la prédiction ne résulteraient pas d’un manque de données mais plutôt de limites fondamentales de notre capacité à prédire les complexités de la vie, du fait notamment d’événements inattendus ainsi que d’erreurs d’apprentissages : quand il y a trop de variables, les algorithmes ont du mal à déceler le bon modèle. C’est là un problème irréductible de la complexité ! Enfin, soulignent les chercheurs, la recherche qualitative fournit des informations qu’il reste très difficile de traduire en chiffres. Les résultats ne s’amélioreront pas avec plus de données ou de calcul : « Les résultats sociaux sont imprévisibles et complexes. Et nous devons simplement faire la paix avec cette imprévisibilité ».
-
6:45
OPENGIS.ch: QField 3.4 “Ebo”: Geofencing and processing out of the box
sur Planet OSGeoQField 3.4 is out, and it won’t disappoint. It has tons of new features that continue to push the limits of what users can do in the field.
Main highlights
A new geofencing framework has landed, enabling users to configure QField behaviors in relation to geofenced areas and user positioning. Geofenced areas are defined at the project-level and shaped by polygons from a chosen vector layer. The three available geofencing behaviours in this new release are:- Alert user when inside an area polygon;
- Alert user when outside all defined area polygons and
- Inform the user when entering and leaving an area polygons.
In addition to being alerted or informed, users can also prevent digitizing of features when being alerted by the first or second behaviour. The configuration of this functionality is done in QGIS using QFieldSync.
Pro tip: geofencing settings are embedded within projects, which means it is easy to deploy these constraints to a team of field workers through QFieldCloud. Thanks Terrex Seismic for sponsoring this functionality.
QField now offers users access to a brand new processing toolbox containing over a dozen algorithms for manipulating digitized geometries directly in the field. As with many parts of QField, this feature relies on QGIS’ core library, namely its processing framework and the numerous, well-maintained algorithms it comes with.
The algorithms exposed in QField unlock many useful functionalities for refining geometries, including orthogonalization, smoothing, buffering, rotation, affine transformation, etc. As users configure algorithms’ parameters, a grey preview of the output will be visible as an overlay on top of the map canvas.
To reach the processing toolbox in QField, select one or more features by long-pressing on them in the features list, open the 3-dot menu and click on the process selected feature(s) action. Are you excited about this one? Send your thanks to the National Land Survey of Finland, who’s support made this a reality.
QField’s camera has gained support for customized ratio and resolution of photos, as well as the ability to stamp details – date and time as well as location details – onto captured photos. In fact, QField’s own camera has received so much attention in the last few releases that we have decided to make it the default one. On supported platforms, users can switch to their OS camera by disabling the native camera option found at the bottom of the QField settings’ general tab.
Wait, there’s moreThere are plenty more improvements packed into this release from project variables editing using a revamped variables editor through to integration of QField documentation help in the search bar and the ability to search cloud project lists. Read the full 3.4 changelog to know more, and enjoy the release!
-
18:49
QGIS Blog: Plugin Update – September, 2024
sur Planet OSGeoIn September a total of 20 new plugins were published in the QGIS plugin repository.
HighlightIn the last month some AI-related plugins became available for users, namely IntelliGeo and TreeEyed, which in addition to the increasing number of tools, greatly contribute for the adaptation of QGIS to current and future needs, showcasing it as one of the best options for beginners and experts alike to conduct a number of geospatial analyses.
As stated by their authors, with IntelliGeo there’s a chat interface where users can detail their requests, and the output is either a PyQGIS code or a graphical processing model, which can in turn be executed directly in QGIS.
As for the TreeEyed plugin, its main objective is the monitoring of trees by generating vector and raster datasets from high resolution RGB imagery.
OverviewHere follows the quick overview in reverse chronological order. If any of the names or short descriptions catches your attention, you can find the direct link to the plugin page in the table below:
Project Setup Sets up a QGIS project to my personal specs. Continuous Network Analysis (Processing) Processing plugin that adds several scripts to assist in decision making and validation of line-type vector networks by generating inconsistencies, further expanding the “Network Analysis” tool. Oslandia Official plugin for Oslandia customers. Reach Enables the use of real transit time as a spatial predicate for selects and joins. Data Clock Polar plot of seasonal data. QGIS Light QGIS made simple – a light user interface for core GIS functions. Attribute Searcher A minimalistic plugin to search for values in attributes quick and easy. Topo Maps ????????Generate Topographic Maps. IntelliGeo IntelliGeo is QGIS plugin that facilitates interaction with Large Language Models in QGIS environment. CartAGen Cartographic generalization. RiverBankErosionAndAccretion This plugin calculates the erosion and accretion along a river’s course. VectorStats Plugin for descriptive and statistical analysis of vectors, with chart generation. Jilin1Info(2023) 2023???50cm???????????? Historique Parcelle Historique des parcelles (cadastre français). String Writer Writes QGIS layers to Surpac string file format. TreeEyed TreeEyed is a QGIS plugin for tree monitoring using AI. SHP Buddy Quickly create shapefiles for breeding experiments. TEKSI Wastewater TEKSI Wastewater plugin to manage wastewater networks. KGR Finder By simply drawing polygons or clicking on existing polygons, this extension makes it possible to download data from OpenStreetMap (OSM) or the iDAI.gazetteer and display it on the map, including all existing attributes. The plugin is designed so that other services can also be easily integrated in the future. layer_style_master This QGIS plugin copies symbology, labels, and rendering settings from one layer to multiple other layers.
-
17:54
Publication de la première étude économique de l'écosystème géonumérique en France
sur Conseil national de l'information géolocaliséePublication de la première étude économique de l'écosystème géonumérique en France
-
16:21
Rapport 2024 sur la paix dans le monde (Institut pour l’économie et la paix)
sur Cartographies numériquesSource : Rapport 2024 sur la paix dans le monde (Institut pour l’économie et la paix)
L’Indice mondial de la paix 2024 révèle que le monde se trouve à la croisée des chemins. Sans effort concerté, le risque d’une recrudescence des conflits majeurs est réel. On compte actuellement 56 conflits, soit le nombre le plus élevé depuis la Seconde Guerre mondiale. Ils sont devenus plus internationaux, 92 pays étant impliqués dans des conflits hors de leurs frontières, soit le nombre le plus élevé depuis la création de l’Indice mondial de la paix en 2008. Le nombre croissant de conflits mineurs accroît la probabilité d’autres conflits majeurs à l’avenir. Par exemple, en 2019, l’Éthiopie, l’Ukraine et Gaza étaient identifiés comme des conflits mineurs, alors qu'ils sont devenus aujourd'hui des foyers de conflits majeurs. Comme en témoigne un autre rapport publié également en 2024, la tendance actuelle est plutôt à la militarisation.
- 97 pays ont vu leur niveau de paix se détériorer, soit plus que n’importe quelle année depuis la création de l’Indice mondial de la paix en 2008.
- Les conflits à Gaza et en Ukraine ont été les principaux facteurs de la baisse mondiale du niveau de paix, le nombre de morts au combat ayant atteint 162 000 en 2023.
- 92 pays sont actuellement impliqués dans des conflits au-delà de leurs frontières, soit plus qu’à n’importe quel moment depuis la création de l’IPG.
- Le premier système de notation militaire en son genre suggère que les capacités militaires des États-Unis sont jusqu’à trois fois supérieures à celles de la Chine.
- L’impact économique mondial de la violence a augmenté pour atteindre 19 100 milliards de dollars en 2023, ce qui représente 13,5 % du PIB mondial. L’exposition aux conflits représente un risque important pour la chaîne d’approvisionnement des gouvernements et des entreprises.
- La militarisation a enregistré sa plus forte détérioration annuelle depuis la création de l’IPG, 108 pays devenant plus militarisés.
- 110 millions de personnes sont soit des réfugiés, soit des déplacés internes en raison de conflits violents, 16 pays accueillant désormais plus d’un demi-million de réfugiés.
- L’Amérique du Nord a connu la plus forte détérioration régionale, provoquée par une augmentation des crimes violents et de la peur de la violence.
Indice de la paix globale en 2024 (source : Global Peace Index 2024)
Créé en 2007, l’Institut pour l’économie et la paix (IEP) vise à influencer les discours mondiaux sur les questions de sécurité, de défense, de terrorisme et de développement. Son objectif est d'utiliser la recherche pour montrer que la paix est une mesure positive et réalisable en faveur du bien-être et du développement. Les recherches de l'IEP sont utilisées par des gouvernements, des institutions universitaires, des groupes de réflexion, des organisations non gouvernementales et des institutions intergouvernementales telles que l'OCDE, le Secrétariat du Commonwealth, la Banque mondiale et les Nations Unies.
Ses rapports, notamment sur l’Indice mondial de la paix, l’Indice mondial du terrorisme ou sur les menaces écologiques, sont essentiels pour les parties prenantes du monde entier. Au cœur de cette approche se trouve l'idée que la paix va au-delà de la simple absence de conflit. Le cadre des Piliers de la paix identifie huit facteurs essentiels pour établir une paix durable, sur la base d’une analyse approfondie des données.
Les 8 Piliers de la paix positive (source : Institut pour l’économie et la paix)
L'IEP publié également chaque année un Rapport sur la paix positive. La paix positive repose sur des attitudes, des institutions et des structures qui créent et maintiennent les sociétés pacifiques. En raison de sa nature systémique, les améliorations de la paix positive non seulement renforcent la paix, mais sont également associées à de nombreux autres résultats souhaitables pour la société, tels qu'une croissance plus élevée du PIB, de meilleures mesures du bien-être, des niveaux plus élevés de résilience et des sociétés plus harmonieuses. Il s’agit d’une théorie du changement social qui explique comment les sociétés se transforment et évoluent. La paix positive décrit un environnement optimal dans lequel le potentiel humain peut s’épanouir. L’Institut a élaboré un cadre conceptuel, connu sous le nom de Piliers de la paix, qui décrit un système de huit facteurs qui fonctionnent ensemble pour construire une paix positive. Dérivés d’une analyse statistique de plus de 40 000 ensembles de données, les Piliers de la paix fournissent une feuille de route pour surmonter l’adversité et les conflits et pour construire une paix durable.
L'état de la paix positive en 2024 (source : Positive Peace Report)
Les cartes concernant ces différents indicateurs sont à visualiser sur le site Vision of humanity avec possibilité de faire des comparaisons par pays et par année.
Lien ajouté le 9 octobre 2024
Lien ajouté le 12 octobre 2024[https:]] #guerre #commémoration#EspritDeGenève pic.twitter.com/R7arW7kjD7
— Une année au lycée (@uneanneeaulycee) October 9, 2024
« Les vraies leçons du Prix Nobel de la paix » (Le Temps). Le combat pour un monde débarrassé de la menace nucléaire mérite un immense respect. Mais est-ce vraiment cela qu’il fallait souligner en 2024 ?
Articles connexesL'Indice de paix mondiale est en baisse depuis plusieurs années
Cartes et données sur les conflits et violences dans le monde (ACLED)Violences envers les enfants et violations de leurs droits à travers le monde
Cartes et données sur le terrorisme dans le monde (de 1970 à nos jours)
Les dépenses militaires dans le monde à partir des données du SIPRI
Analyser et discuter les cartes des "pays à éviter" pour les voyageurs
Etudier les conflits maritimes en Asie en utilisant le site AMTIUtiliser les cartes du CSIS pour étudier les grandes questions géopolitiques du monde contemporain
La carte, objet éminemment politique : la Société des Nations en 1927
-
14:36
Vidéo de présentation du CNIG
sur Conseil national de l'information géolocaliséeVidéo de présentation du CNIG
-
14:29
Le numérique est le problème, pas la solution
sur Dans les algorithmes« Nous n’allons pas résoudre nos problèmes avec plus de technique : c’est précisément l’excès de technique le problème ». Arnaud Levy, promoteur d’un numérique d’intérêt général.
-
11:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
11:30
Pierre Laconte, Jean Remy (Coord.), 2020, Louvain-la-Neuve à la croisée des chemins, Louvain-la-Neuve, Belgique, Academia-L’Harmattan, 294 p.
sur CybergeoCet ouvrage livre les coulisses de la conception de Louvain-la-Neuve, une ville nouvelle belge à vocation universitaire, non loin de Bruxelles, à partir des années 1960. Conséquence de la querelle linguistique en Belgique qui a interdit tout enseignement en français en Flandre, les sections francophones de la célèbre université de Leuven ont dû déménager en Wallonie et créer l’université de Louvain-la-Neuve. Mais, contrairement à la tendance lourde à l’époque et aujourd’hui encore, le choix a été fait de créer une ville nouvelle universitaire, et non une "université-campus".
La première lecture de cet ouvrage montre des pensées et des courants d’architecture et d’urbanisme différents, qui ont confronté leurs points de vue et leurs perspectives dans ce projet. Il a fallu une coordination exceptionnelle entre les acteurs (pouvoirs publics et privés, université et associations) qui ont fait Louvain-la-Neuve (LLN) pour qu’elle devienne la ville qu’elle est aujourd’hui. Les auteurs sont l...
-
11:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
11:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
11:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...
-
11:30
Cartographier les pressions qui s’exercent sur la biodiversité : éléments de réflexion autour des pratiques utilisées
sur CybergeoPour mieux orienter les politiques de conservation, il est crucial de comprendre les mécanismes responsables de la perte de biodiversité. Les cartes illustrant les pressions anthropiques sur la biodiversité représentent une solution technique en plein développement face à cet enjeu. Cet article, fondé sur une revue bibliographique, éclaire les diverses étapes de leur élaboration et interroge la pertinence des choix méthodologiques envisageables. La définition des notions mobilisées pour élaborer ces cartes, en particulier celle de la pression, représente un premier défi. La pression se trouve précisément à la jonction entre les facteurs de détérioration et leurs répercussions. Cependant, les indicateurs à notre disposition pour la localiser géographiquement sont généralement axés soit sur les causes, soit sur les conséquences de la dégradation. Cet écueil peut être surmonté si la nature des indicateurs utilisés est bien définie. À cet effet, nous proposons une catégorisation des ind...
-
11:30
Exploring human appreciation and perception of spontaneous urban fauna in Paris, France
sur CybergeoCity-dwellers are often confronted with the presence of many spontaneous animal species which they either like or dislike. Using a questionnaire, we assessed the appreciation and perception of the pigeon (Columba livia), the rat (Rattus norvegicus), and the hedgehog (Erinaceus europaeus) by people in parks, train stations, tourist sites, community gardens, and cemeteries in Paris, France. Two hundred individuals were interviewed between May 2017 and March 2018. While factors such as age, gender, level of education or place or location of the survey did not appear to be decisive in analyzing the differential appreciation of these species by individuals, there was a clear difference in appreciation based on the species and the perceived usefulness of the animal, which is often poorly understood. The rat was disliked (with an average appreciation score of 2.2/10), and the hedgehog was liked (with an average appreciation score of 7.7/10). The case of the pigeon is more complex, with som...
-
11:30
From "Bioeconomy Strategy" to the "Long-term Vision" of European Commission: which sustainability for rural areas?
sur CybergeoThe aim of this paper is to analyze the current and long-term effects of the European Commission Bioeconomy Strategy in order to outline possible scenarios for rural areas and evaluate their sustainability. The focus is on the main economic sectors, with particular reference to employment and turnover, in order to understand what kind of economy and jobs are intended for rural areas, as well as their territorial impacts. For this purpose, we have analyzed the main European Commission documents and datasets concerning the bioeconomy and long-term planning for rural areas, as well as the recent scientific data to verify the impact on forests. The result is that European rural areas are intended to be converted initially into large-scale biomass producers for energy and bio-based industry, according to the digitization process, and subsequently into biorefinery sites, with severe damage to landscape, environment, biodiversity, land use and local economy. Scenarios for rural areas don’t...
-
11:30
Impact du numérique sur la relation entre les systèmes de gestion de crise et les citoyens, analyse empirique en Île-de-France et en Région de Bruxelles-Capitale
sur CybergeoDepuis une dizaine d’année, les systèmes de gestion de crise utilisent les canaux de communication apportés par le numérique. D'un côté, le recours aux plateformes numériques et aux applications smartphones permet une plus grande visibilité des connaissances sur le risque. De l’autre, les réseaux sociaux numériques apparaissent comme un levier idéal pour combler le manque d'implication citoyenne dans la gestion de crise. Pourtant, jusqu'à la crise sanitaire qui a débuté en 2020, rien ne semble avoir été fait pour impliquer les citoyens au cours du processus de gestion de crise. Dans cet article, nous posons la question de l'apport du numérique dans la transformation de la communication sur les risques et dans l'implication citoyenne dans la gestion de crise. En 2018, nous avons diffusé un questionnaire en Île-de-France et dans la région de Bruxelles-Capitale afin de comprendre les attentes des citoyens et les effets des stratégies de communication territoriale sur la perception des ...
-
11:30
La fabrique publique/privée des données de planification urbaine en France : entre logique gestionnaire et approche territorialisée de la règle
sur CybergeoLa question des données territoriales revêt une importance croissante pour l’État, qui entend orienter leur production, leur circulation et leur condition d’usage. Cet article examine les modalités du repositionnement de l’État vis-à-vis des collectivités locales en matière d’urbanisme règlementaire dans le cadre de la standardisation et de la numérisation des données des Plans Locaux d’Urbanisme. Il explore également l’intégration de ces données dans une géoplateforme unique. Nous montrons que ce projet de construction d’un outil commun à l’échelle nationale s’inscrit dans le cadre d’une reprise en main par le pouvoir central des données de planification urbaine à travers l’intégration partielle de méthodes privées, développées par des sociétés commerciales au cours des années 2010 grâce au processus d’open data. L’étude de la fabrique publique/privée des données de l’urbanisme règlementaire permet de mettre en exergue deux points clés de la reconfiguration de l’action de l’État pa...
-
11:00
Mappery: Hannoverian Bumper Sticker
sur Planet OSGeoPièce jointe: [télécharger]
Marc-Tobias shared this. I like that Hannover becomes the centre of the world.
-
10:30
Du 18 au 20 mars 2025 à Aix'en-Provence : formation "savoir utiliser les Fichiers Fonciers"
sur Datafoncier, données pour les territoires (Cerema)Publié le 07 octobre 2024Une session de formation "savoir utiliser les Fichiers Fonciers" se tiendra du 18 au 20 mars 2025 dans les locaux du Cerema à Aix-en-Provence.Cette session est à destination des bénéficiaires des Données Foncières (Fichiers fonciers et DV3F) et des bureaux d'études.Vous trouverez le contenu et le coût de la formation dans la rubrique AccompagnementInscription jusqu'au 18 février (…)
Lire la suite