Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
4770 éléments (3 non lus) dans 55 canaux
- Cybergeo
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique
- Mappemonde
- Dans les algorithmes
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier (1 non lus)
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée
- Geotribu (1 non lus)
- Les cafés géographiques
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (1 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques
- Veille cartographie
- Makina Corpus
- Oslandia
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Éléments récents
-
16:08
Cartographier l'anthropocène à l'ère de l'intelligence artificielle (IGN, 2024)
sur Cartographies numériques
L’IGN publie une nouvelle édition de son Atlas « Cartographier l’anthropocène » sur la thématique de l’intelligence artificielle au service de la transition écologique.Lorsqu’en 1950 Alan Turing pose la question « les machines peuvent-elles penser ? », se doute-t-il que l’intelligence artificielle (IA), dont il sera l’un des pères fondateurs, nous permettra de remonter le temps en retraçant l’évolution de l’occupation des sols ? Imagine-t-il que l’IA permettra de suivre le changement climatique, de modéliser les risques et donc de mieux les anticiper ?
Si l’IA est depuis longtemps intégrée dans les méthodes d’observation et de modélisation du territoire, l’arrivée des technologies de Machine Learning, Deep Learning et d’IA générative permet d’accélérer sa cartographie à partir de données de télédétection. Pour le Directeur général adjoint de l’IGN, Nicolas Paparoditis, cette accélération est indispensable pour éclairer les politiques publiques dans un contexte de transition écologique et de transformation rapide des territoires. Il nous explique comment l’IA est aujourd’hui centrale dans les projets de l’institut cartographe, acteur technologique innovant.
Cartographier l'anthropocène à l'ère de l'intelligence artificielle
- Connaissance et suivi de l'environnement
- Gestion des risques
- Forêt
- Agriculture
- Urbanisme
- Énergie
Articles connexes
Cartographier l'anthropocène. Atlas 2023 de l'occupation du sol (IGN)
Atlas IGN des cartes de l'anthropocène (2022)
Paul Crutzen et la cartographie de l'Anthropocène
Les territoires de l'anthropocène (cartes thématiques par le CGET)
Cartes et données sur l'occupation des sols en France (à télécharger sur le site Theia)
Dynamic World : vers des données d'occupation du sol quasi en temps réel ?
Copernicus : accès libre et ouvert aux cartes concernant la couverture des sols (2015-2019)
L'histoire par les cartes : 30 cartes qui racontent l'histoire de la cartographie (sélection de l'IGN)
Lidar HD : vers une nouvelle cartographie 3D du territoire français (IGN)
-
15:31
Progrès en matière d'eau potable, d'assainissement et d'hygiène dans les écoles (2015-2023)
sur Cartographies numériquesL’insalubrité des installations sanitaires est responsable de centaines de milliers de décès chaque année. Elle accroît le risque de nombreuses maladies mortelles, notamment le choléra, la diarrhée, la dysenterie, l’hépatite A, la typhoïde et la polio. Malheureusement, plus de 40 % de la population mondiale n'a pas accès à des installations sanitaires sûres, selon les estimations du Programme conjoint de surveillance de l'approvisionnement en eau, de l'assainissement et de l'hygiène de l'OMS et de l'UNICEF. Un meilleur accès à des installations d’assainissement permettrait de sauver de nombreuses vies de maladies infectieuses. Le rapport JMP 2024 WASH présente des estimations nationales, régionales et mondiales actualisées sur l'Eau, l'Assainissement et l'Hygiène (EAH) dans les écoles.
Extrait du rapport JMP 2024 WASH
Le rapport évalue les progrès réalisés en matière d’EAH dans les écoles entre 2015 et 2023, soit à moitié du terme fixé pour les objectifs ODD 2030. Il montre que le monde n’est pas sur la bonne voie pour parvenir à un accès universel aux services EAH de base dans les écoles d’ici 2030. Pour parvenir à une couverture universelle, il faudrait doubler le rythme actuel des progrès en matière d’eau potable et d’assainissement et quadrupler les progrès en matière d’hygiène. Sur la base des trajectoires actuelles, seulement 86 % des écoles disposeront d’un service d’eau de base, 87 % d’un service d’assainissement de base et 74 % d’un service d’hygiène de base en 2030.
Seulement 75 % des écoles disposent d'un service d'assainissement de base dans 106 pays sur 144
selon les estimations de 2023
Ce rapport met également l'accent sur la santé menstruelle et examine la disponibilité des données nationales correspondant aux indicateurs prioritaires recommandés au niveau international pour la santé et l'hygiène menstruelles des filles. 30 pays et 7 régions sur 8 disposent de données nationales relatives aux indicateurs émergents de santé menstruelle. Les définitions varient considérablement selon les pays et les sources de données, et une harmonisation des indicateurs est nécessaire. Les données les plus courantes concernent les installations, les connaissances et le matériel, mais très peu de pays disposent de données relatives aux impacts, à l'inconfort/aux troubles et à un environnement social favorable. Sur la base des données nationales émergentes, on estime qu'environ 2 écoles sur 5 dispensent une éducation à la santé menstruelle et qu'environ 1 école sur 3 dispose de poubelles pour les déchets menstruels dans les toilettes des filles.Télécharger le rapport complet en anglais.
Pour accéder aux données et graphiques sur le portail JMP (UNICEF-OMS)
Pour compléter
L’éducation est de plus en plus la cible des conflits (Géoconfluences). L’UNESCO cite les conflits armés en cours en Birmanie, au Proche-Orient et en particulier à Gaza, en République démocratique du Congo, au Soudan, en Ukraine et au Yémen. Une étude recense 6 000 cas d’attaques contre les élèves et les communautés éducatives en général en 2022-2023.Articles connexes
La moitié des pays du monde ont des systèmes d'eau douce dégradés (ONU-PNUE)
Rapport mondial des Nations Unies 2019 sur la mise en valeur des ressources en eau
Etudier les risques de pénurie d'eau dans le monde avec l'Atlas Aqueduct du WRI
Conflits liés à l'eau : les prévisions du site Water, Peace and Security
Cartes et données SIG sur les petits et moyens réservoirs d'eau artificiels dans le monde
Impact du changement climatique sur le niveau des nappes d'eau souterraines en 2100
Les barrages vieillissants constituent une menace croissante dans le monde (rapport de l'ONU)
L'évaporation des lacs dans le monde : une tendance à la hausse
-
11:00
Mappery: World Time
sur Planet OSGeoPièce jointe: [télécharger]
Michel Stuyts asks “Am I the only one who sees this kind of clock in a shop and the first thing that comes to mind is: I wonder what kind of projection they used?”
The answer is definitely not! There are thousands of map lovers here who would love to answer you Michel
-
10:59
Create an AI Poster for Your Location
sur Google Maps ManiaThe Global Culture Map is a fun little tool which uses AI to create a poster for any location chosen on an interactive. Simply click on the Global Culture Map and it will use a generative AI to design a poster based on that location.Currently I would say that the Global Culture Map is an interesting fun experiment rather than a completed, fully-realized AI poster creation tool. At the moment the
-
6:06
[Story] Oslandia x QWC : épisode 3 / 8
sur OslandiaNous avons vu précédemment des améliorations réalisées par Oslandia sur l’interface web de QWC, côté utilisateur.
Concernant l’interface d’administration, nous nous sommes concentrés sur le plugin
themes
qui permet facilement d’ajouter des projets QGIS dans l’application. Certains problèmes ont été corrigés, et de petites fonctionnalités ont été ajoutées, notamment la possibilité d’ajouter des fonds de plan de type XYZ, et la prise en compte de certaines options pour les fonds de plan WMS/WMTS.Il y a également possibilité de modifier directement ces fonds de plan dans l’interface d’administration plutôt que de supprimer et recréer un fond en cas d’erreur.
La création de ressources et de permissions pour administrer un projet a été rendue moins fastidieuse : on peut désormais importer toutes les ressources d’un projet en renseignant le type de ressource que l’on veut créer, ainsi que le rôle qui aura la permission sur ces ressources. La fonctionnalité permet par exemple d’importer directement les 15 couches d’un projet en tant que ressource de type
data
au rôlesig_edit
pour permettre l’édition de données de ce projet à certains utilisateurs.La suppression de ressources a également été facilitée en ajoutant des cases à cocher permettant de supprimer plusieurs ressources à la fois.
Pour continuer sur l’interface d’administration, un gros travail a été réalisé par Gwendoline pour permettre la traduction de toutes les pages d’administration. Il est désormais possible d’afficher cette interface en français (ou dans une autre langue !) comme cela est possible également dans l’application.
Ces améliorations ne sont pas visibles directement pour l’utilisateur final, mais elles sont très importantes pour faciliter l’administration d’une plateforme QWC.
Vous aussi vous pouvez contribuer à QWC, directement ou en finançant les évolutions ! N’hésitez pas à nous contacter à infos@oslandia.com
-
14:00
Fernando Quadro: 5 maneiras de usar IA generativa em seus aplicativos geoespaciais
sur Planet OSGeoA IA generativa claramente faz jus ao hype. Onde a localização importa, os LLMs trazem muitas oportunidades para melhorar seus aplicativos GIS e facilitar as interações com os usuários ao introduzir solicitações de linguagem natural.
Aqui estão 5 maneiras de usar IA generativa em seus aplicativos geoespaciais:
Melhore a busca por dados com pesquisa semântica
A pesquisa semântica melhora drasticamente os resultados de uma pesquisa lexica simples porque a IA entende o significado das solicitações, sem prestar atenção às palavras escolhidas.
A pergunta “Quando as lixeiras são recolhidas” encontrará resultados sobre “Política de coleta de lixo”, enquanto a pesquisa lexica não pode corresponder a nenhuma palavra.
Você pode ir além e usar uma abordagem híbrida (mesclando léxico e semântico) para ajustar sua pesquisa.Enriqueça seu conjunto de dados extraindo dados estruturados de texto não estruturado
Os LLMs podem extrair valores estruturados de dados não estruturados, como texto. Quando você tem apenas um título e/ou uma descrição sobre seu conjunto de dados, a IA pode extrair palavras-chave, temas ou qualquer outra informação contextual contida na descrição. Essas informações extraídas podem então ser indexadas para ajustar a pesquisa. Este método pode ser usado para enriquecer registros de metadados e conjuntos de dados.
Por exemplo, extrair pontos de vista de uma descrição de trilhaConduza seu aplicativo geoespacial com ferramentas e chamadas de função
Com a chamada de função, os modelos de IA fornecem uma maneira de especificar diferentes ações que o LLM deve entender de sua solicitação e chamar os métodos apropriados com os argumentos correspondentes diretamente do seu código. Você pode então conduzir seu aplicativo por solicitações naturais (texto ou voz).
Por exemplo: Adicione ciclovias ao mapa, ative o modo escuro etc.Desenvolva habilidades de inteligência de localização com modelos text2sql específicos
Modelos de IA específicos realmente brilham ao transformar uma solicitação do usuário em uma consulta SQL. Isso permite que o usuário solicite qualquer informação complexa oculta em seu banco de dados. O modelo definitivo para aplicações geoespaciais pode ser um modelo text2postgis que permite qualquer consulta espacial para sua aplicação, como junções espaciais, buffers, agrupamento, distribuições h3 e muito mais possibilidades.
Por exemplo: encontre todos os restaurantes a 1 km de qualquer hotel em Paris.Crie seu chatbot personalizado com agentes
Com agentes, você pode usar LLMs para escolher uma sequência de ações a serem tomadas. Isso significa que a IA escolherá por conta própria quais métodos chamar, sequencialmente, para responder à sua solicitação. Uma dessas ações pode ser pedir esclarecimentos ao usuário sobre sua solicitação, criando uma conversa com o usuário. Além disso, ajuda a entender como a IA constrói os resultados, pois o agente está lhe dizendo o que ele está realmente fazendo para atender à sua demanda.Por exemplo: encontre todos os restaurantes a 1 km de qualquer hotel em Paris.
Extraindo a geometria de Paris
Colocando todos os hotéis contidos nessa geometria
Construindo um buffer de 1 km ao redor das geometrias de pontos de hotéis
Colocando todos os restaurantes contidos nesses buffersComo você vê, a IA Generativa oferece habilidades inestimáveis ??para impulsionar seus aplicativos geoespaciais para o próximo nível e realmente ajudar seus aplicativos a serem realmente consumidos pelos usuários. Ao combinar todas essas técnicas, você pode acabar construindo um chatbot de inteligência de localização para resolver quaisquer preocupações territoriais e ajudar no processo de tomada de decisão em qualquer escala.
Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]] -
11:00
Mappery: Salt Lake City Woodcarving
sur Planet OSGeoPièce jointe: [télécharger]
Matt Malone shared this, he said “Stumbled upon this excellent woodcarved street map of Salt Lake City recently. Airports should have their own #MapsInTheWild category.” We don’t really do categories on Mappery because I would forget to tag things and Arnaud or Dan would probaly tag them differently and there chaos lies.
Cracking piece of woodwork though!
-
8:49
The EJAtlas: A Map for Environmental Justice
sur Google Maps ManiaAround the world the ever demanding quest for economic growth and profit is having an impact on natural environments. The result is that local communities and groups are often forced into fighting governments and multinational companies in order to try to save their local environments from the eternal forces of 'progress'.The Environmental Justice Atlas has set itself the task of documenting
-
7:38
Pas à pas - Intégrer, préparer et héberger des données externes dans ArcGIS Online avec ArcGIS Data Pipelines
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierDepuis les premiers numéros du magazine SIGMAG, arcOrama collabore chaque trimestre à la rédaction d'un article didactique focalisé sur une fonctionnalité ou une application clé du système ArcGIS. Je reprends ci-dessous l'article publié dans le numéro 40 paru en mars 2024. Celui-ci présente en quelques étapes comment intégrer, préparer et héberger des données issues de source externes (sur le web) dans ArcGIS Online en utilisant les outils d'ArcGIS Data Pipelines.
ArcGIS Data Pipelines est une application Web disponible depuis le portail ArcGIS Online, qui facilite le processus d’intégration de données externes à héberger. Elle offre un moyen rapide et efficace d'ingérer, préparer et conserver des données à des fins de cartographie, d'analyse, de création de rapports, ou autre usage collaboratif. Vous pouvez vous connecter à diverses sources de données, notamment Amazon S3, Google BigQuery, Snowflake, des URL publiques, des fichiers, des couches d'entités, etc. L'application, désormais en disponibilité générale, a été introduite dans ArcGIS Online en juin 2023. Dans ce pas à pas, je vais vous aider dans les trois principales étapes de ce flux de travail : l'accès aux sources de données, l’exploration et la transformation des données et enfin leur intégration dans vos contenus hébergés utilisables ensuite partout dans ArcGIS.
1. Pour accéder à ArcGIS Data Pipelines, vous devez être disposer au minimum d’un type d’utilisateur "Creator" avec le rôle de publication. Après avoir lancé Data Pipelines depuis le lanceur d'applications d'ArcGIS Online, l’écran d’accueil de l’application vous propose de créer un pipeline de données, ou d’accéder aux pipelines de données existants pour les configurer, les exécuter ou gérer la planification de leur exécution automatique. Cliquez ici sur Créer un pipeline de données.
2. L’interface de Data Pipelines se compose de 3 parties : à gauche, une barre d’outils rassemble chacune des étapes du flux de travail, à côté s’affiche un volet de configuration de chacune de ces étapes, puis la zone centrale est dédiée à la visualisation interactive du pipeline de données et à l’aperçu des données connectées en cours de configuration (montrant une table, une carte ou la structure des données). Une fois le pipeline de données configuré, il peut être exécuté via le bouton en haut à droite.
3. Si vous devez vous connecter aux sources de données hébergées dans le Cloud, telles que des bases de données (Big Query ou Snowflake) ou du stockage Cloud (Bucket Amazon S3 ou Blob Microsoft Azure), vous devez créer un data store. Si vous disposez d’autres sources de données de type URL publique, fichier ou couche d’entités hébergée sur votre portail ArcGIS Online, passez directement à l’étape 3. Sinon, cliquez sur "Ajouter un data store", choisissez son type, puis le type de base de données ou d’emplacement de stockage Cloud, et spécifiez les informations de connexion. Le data store créé sera hébergé en tant qu’élément du contenu ArcGIS Online, partageable et utilisable comme source de données en entrée dans plusieurs pipelines de données.
4. Quelle que soit son origine, toute source de donnée nécessaire peut être ajoutée via le bouton Entrées. Il peut s’agir d’une source Cloud déclarée en tant que data store, mais aussi d’un fichier local ou hébergé sur le portail, d’une URL publique pointant vers un fichier GeoJSON, JSON, CSV ou Parquet, ou bien une couche d’entités hébergée. Le pipeline de données peut utiliser une ou plusieurs sources en entrée, permettant d’effectuer des fusions ou des jointures. Ajoutez-en à chaque fois que nécessaire pour avancer dans votre flux d’intégration. Les sources ajoutées en entrée sont visibles au centre de l’écran.
5. Chaque donnée ajoutée en entrée peut être visualisée en Aperçu, sous forme de table, de carte ou de modèle de données. Pour afficher l’aperçu, cliquez sur l’élément dans le modèle central puis sur l’icône de table, ou bien sur le bouton Aperçu depuis le volet de configuration. Changez ensuite de mode entre la table, la carte et le modèle de données. Ce volet d’aperçu est redimensionnable et peut également afficher les messages importants.
6. Vient ensuite l’étape d’utilisation des Outils, s’ajoutant par simple glisser-déposer dans le modèle au centre de l’écran ou via le bouton (+), les éléments ajoutés s’associant en les reliant par des flèches, ou via l’assistant de configuration de gauche. Les outils sont rassemblés autour de quatre types d’opérations de Data Engineering : Nettoyer, Créer, Mettre en forme et Intégrer. Notez que la navigation dans le modèle est facilitée à l’aide des outils en haut à droite (sélection ou déplacement), mais aussi de raccourcis clavier (barre d’espace pour activer temporairement le déplacement depuis la sélection, touche CTRL+molette de la souris pour zoomer/dézoomer dans le modèle. Une fois l’outil ajouté et lié aux autres éléments, la configuration se poursuit jusqu’à l’aperçu du résultat.
7. Chaque nouvel outil peut ainsi se succéder aux précédents et venir enrichir le processus de préparation des données utilisées en entrée, afin de réaliser toutes les opérations nécessaires, de filtrage, de sélection, de généralisation, de suppression des doublons, de calcul, de création de date/heure ou de géométrie, de mise à jour des champs ou de la projection, de fusion, de jointure, etc. À chaque nouvelle étape ajoutée via un outil, un nouvel aperçu des données est disponible et permet de valider les paramètres via la table, la carte ou le modèle de données. Pensez à surveiller le volet messages qui peut alerter parfois sur des avertissements ou des erreurs.
8. Une fois toutes ces étapes de Data Engineering réalisées et qui ont permis la préparation ou la modification des données d’entrée, il est temps de définir les données en sortie en cliquant sur le bouton Sorties. Un point important sur les capacités de génération des données en sortie est qu’il n’est pas forcément obligatoire de Créer systématiquement une nouvelle couche d’entités. En effet, il est également possible de Remplacer complètement les données d’une couche d’entités hébergée sur le portail ArcGIS Online, ou d’Ajouter et mettre à jour les enregistrements d’une couche d’entités existante.
9. Une fois les données en sortie configurées, il reste à exécuter le pipeline de données pour réaliser toutes les opérations liées aux outils utilisés et générer la couche d’entités qui sera hébergée ou mise à jour sur le portail. Le volet Messages affiche les éventuels avertissements ou erreurs, permet de suivre la progression de l’opération et informe lorsque l’exécution est terminée.
10. Tout pipeline de données peut être ainsi exécuté manuellement, mais son exécution peut également être automatisée via la planification. Cliquez sur le bouton Planifier à gauche de l’écran. Créez ensuite une tâche planifié, avec un titre, une date de début, une fréquence de répétition, une fin ou non, puis enregistrez. La tâche planifiée sera ajoutée à une liste consultable depuis l’écran d’accueil de Data Pipelines, via le bouton Gérer le planification.
Notez que l’utilisation de Data Pipelines consomme des crédits en mode interactif (via l’interface utilisateur) ou en exécution automatique (via la planification), pensez donc à considérer ce point selon le temps consacré à sa conception et son exécution en mode interactif, ou selon la fréquence d’exécution automatique planifiée.
11. Les résultats de ce flux de travail dans Data Pipelines sont différents éléments créés et hébergés dans le contenu du portail ArcGIS : la ou les data sources définies au début du flux de travail, le pipeline de données que vous créez et enregistrez, et bien évidemment la couche d’entités hébergée générée en sortie à l’exécution du pipeline de données. Ainsi, vous pouvez en gérer le niveau de partage, les associer à des groupes et bien-sûr les utiliser partout dans ArcGIS.
12. Les couches d’entités hébergées en sortie de l’utilisation de Data Pipelines sont ensuite exploitables dans vos cartes web comme illustré ici, vos scènes web ou vos applications du quotidien. Leur mise à jour automatisable permet ainsi d’exploiter de nombreuses sources externes de données (Cloud, Open Data, depuis votre Système d’Information…) dans tous vos flux de travail, qu’il s’agisse de consultation, d’analyse ou de collaboration.
Remarque :
Depuis la création de ce Pas à Pas, certains éléments de l'interface utilisateur d'ArcGIS Data Pipelines ont légèrement évolué. Les étapes de ce workflow reste néanmoins les mêmes.
-
2:00
GeoServer Team: CVE-2024-36401 Remote Code Execution (RCE) vulnerability in evaluating property name expressions
sur Planet OSGeoThe GeoServer community has been under considerable strain responding to CVE-2024-36401. This vulnerability stems from GeoTools library CVE-2024-36404.
This vulnerability, in the handling of XPath expressions, affords a “remote code execution” attack that is under active exploit. A remote code execution (RCE) attack allows an attacker to run malicious code on your computer or network.
For more information:
- GeoServer 2.25.2 Release (Jun 18, 2024)
- GeoServer 2.24.4 Release (Jun 18, 2024)
- CVE-2024-36401 (July 1, 2024)
- CISA Warns of Actively Exploited RCE Flaw in GeoServer GeoTools Software (The Hacker News, July 18, 2024)
- GeoServer Vulnerability Targeted by Hackers to Deliver Backdoors and Botnet Malware (The Hacker News, September 6, 2024)
You are responsible for running a GeoServer instance that has not been updated.
-
CVE-2024-36401 provides mitigation instructions which you should perform immediately.
Please stop reading and do this now.
-
Update your instance: Upgrading existing versions (User Guide)
The instructions include notes on upgrading specific versions. Please read carefully to see if any manual changes are required.
With such a serious issue several service providers have stepped forward to make fixes available for prior releases.
Full release:
- GeoServer 2.23.6 Release (GeoCat)
Patch provided with CVE-2024-36401 report:
- GeoServer 2.25.1 (GeoSolutions)
- GeoServer 2.24.3 (GeoSolutions)
- GeoServer 2.24.2 (GeoSolutions)
- GeoServer 2.23.2 (GeoSolutions)
- GeoServer 2.22.2 (GeoSolutions)
- GeoServer 2.21.5 (GeoSolutions)
- GeoServer 2.21.4 (GeoSolutions)
- GeoServer 2.20.7 (GeoSolutions)
- GeoServer 2.20.4 (GeoSolutions)
- GeoServer 2.19.2 (GeoSolutions)
- GeoServer 2.18.0 (GeoSolutions)
Free software is a participation sport - to create a patch for a prior release volunteer with community development.
Q: How often should I upgrade GeoServer?GeoServer operates with a time boxed release cycle, maintaining “stable” and “maintenance” releases, over the course of a year.
-
Upgrade GeoServer twice a year as new stable releases are made.
-
Once the release you are using has entered “maintenance” it is a good idea to upgrade (before the release is no longer supported).
-
GeoServer security policy provides one year of support. You may also contact our service providers for extended support beyond this timeframe.
Stay up to date:
-
Please monitor release announcements for the heading “Security Considerations”.
Security Considerations
This release addresses security vulnerabilities and is considered an essential upgrade for production systems.
- CVE-2024-36401 Critical
You can review the release announcement, and in this case with a “Critical” vulnerability decide to update.
-
When everyone has had an opportunity to update the details of the vulnerability are announced.
Security Considerations
This release addresses security vulnerabilities and is considered an essential upgrade for production systems.
- CVE-2024-36401 Remote Code Execution (RCE) vulnerability in evaluating property name expression (Critical)
-
As GeoServer has now adopted use CVEs for publication you may also have success with vulnerability scanning tools.
These tools function when the vulnerability is published, and do not provide any advance notice.
As security reports contain sensitive information they are only shared with representatives of the geoserver-security email list.
Participation in geoserver-security, like commit access, is volunteer based and reflects trust.
Please review GeoServer Security Policy if you are in a position to help out.
-
15:00
Bentley Systems increases investment in OGC and reinforces commitment to Open Standards following Cesium acquisition
sur Open Geospatial Consortium (OGC)The Open Geospatial Consortium (OGC) is pleased to announce that infrastructure engineering software company Bentley Systems is increasing its investment and engagement in OGC—and further strengthening its commitment to growing an open ecosystem.
Bentley recently acquired Cesium, a fellow OGC member and the creator of 3D Tiles, an OGC Community Standard for massive heterogenous 3D geospatial content.
Bentley’s increased investment in OGC, coupled with its acquisition of Cesium, signals their commitment to a future built around open standards, data, and infrastructure. OGC’s trusted community of problem solvers leverages the power of geography, open standards, and interconnected systems to address real-world problems while opening up opportunities for commercial growth.
“We are pleased to see this increased investment in OGC by Bentley, and their support to us as a Principal member,” said Peter Rabley, Chief Executive Officer, OGC. “As a Principal Member of OGC, Bentley will play a significant role serving on OGC’s Executive Planning Committee and participating in final approval decisions for all OGC Standards and nominations to the Board of Directors.”
Patrick Cozzi, Chief Platform Officer, Bentley, and Cesium founder, commented, “The success and impact of 3D Tiles as an open standard reinforces our belief that openness and interoperability are essential to making the best use of location information to benefit society. We look forward to continuing to work within the OGC community as part of Bentley.”
“Bentley is a strong supporter of open data ecosystems,” added Julien Moutte, Chief Technology Officer, Bentley Systems. “As a principal member of OGC, we are committing further resources to accelerate the development and adoption of open standards that benefit applications for the built and natural environment.”
About OGC
The Open Geospatial Consortium (OGC) is a membership organization dedicated to using the power of geography and technology to solve problems faced by people and the planet. OGC unlocks value and opportunity for its members through Standards, Innovation, and Policy & Advocacy. Our membership represents a diverse and active global community drawn from government, industry, academia, international development agencies, research & scientific organizations, civil society, and advocates.
Visit ogc.org for more information about our work.About Bentley Systems
Bentley Systems (Nasdaq: BSY) is the infrastructure engineering software?company. Bentley provides innovative software to advance the world’s infrastructure – sustaining both the global economy and environment. Bentley’s industry-leading software solutions are used by professionals, and organizations of every size, for the design, construction, and operations of roads and bridges, rail and transit, water and wastewater, public works and utilities, buildings and campuses, mining, and industrial facilities. Bentley’s offerings, powered by the iTwin?Platform for infrastructure digital twins, include MicroStation and Bentley Open?applications for modeling and simulation, Seequent’s software for geoprofessionals, and Bentley Infrastructure Cloud encompassing ProjectWise?for project delivery, SYNCHRO?for construction management, and AssetWise?for asset operations. Bentley Systems’ 5,200 colleagues generate annual revenues of more than $1 billion in 194 countries.About Cesium
Cesium is the open platform for 3D Geospatial. Cesium created 3D Tiles, the Open Geospatial Consortium community standard for streaming massive 3D geospatial datasets. Use Cesium ion to optimize, host, and combine your data with curated global 3D content and stream to any device. With unique expertise at the intersection of 3D geospatial and computer graphics, Cesium is deeply committed to openness and interoperability through open standards, open APIs, and open source offerings like CesiumJS, Cesium for Unreal, Cesium for Unity, and Cesium for Omniverse. Originally built for Aerospace, Cesium is now used to power thousands of applications in industries like Defense, Architecture, Engineering, Construction and Operations, Commercial real estate, urban planning, and more.The post Bentley Systems increases investment in OGC and reinforces commitment to Open Standards following Cesium acquisition appeared first on Open Geospatial Consortium.
-
12:02
Développeur(se) Front TS / WebGL / UX
sur Le blog de GeomatysDéveloppeur(se) Front TS / WebGL / UX11/09/2024 Isabelle Pelissier
Venez nous rejoindre…Société en pointe sur le développement de solutions logicielles dans les domaines du Spatial, du Maritime et de la Défense, nous recherchons un(e) développeur(euse) Front (Bac+5 ou Ecole d’ingénieur) avec une appétence prononcée pour le développement de solutions graphiques.
Nous souhaitons que vous soyez capable d’évoluer sur plusieurs framework front-end ou mobile tel qu’Angular et Flutter. Une bonne connaissance du TypeScript et la maîtrise de technologies 3D /WebGL est requise, avec si possible une forte sensibilité pour l’UX Design. Vous pourrez également être amené(e) à développer des modules python pour des applications desktop, en particulier pour des clients SIG tels que QGIS.
Ce que nous cherchons chez vous :
-
Une personne passionnée par le code et la conception logicielle,
-
Une bonne maîtrise de la programmation,
-
De la rigueur. La lisibilité du code/des Api est fondamentale. Les tests font partie intégrante de votre process de développement,
-
Une capacité et un plaisir à travailler en équipe,
-
De la curiosité. En veille sur l’évolution des technologies,
-
Autonomie et pragmatisme dans vos prises de décisions.
Ce que vous trouverez chez nous :
-
Des collègues passionnés par la culture technique
-
Du plaisir à travailler en équipe
-
Des projets à la pointe de l’innovation pour l’industrie et le monde scientifique
-
De l’émulation interne pour atteindre les objectifs
-
Une PME dont le savoir-faire est reconnu par des clients grands comptes dans des secteurs comme le Maritime, la Défense ou le Spatial.
Vous intégrerez une équipe dédiée au développement d’applications à fortes dominante géospatiale, constituée de développeurs fullstack évoluant sur des problématiques diverses telles que l’élaboration de solution cloud-natives pour du traitement massif de données, la réalisation de traitements de données satellitaires et l’élaboration de solution de GeoIntelligence, mais aussi l’intégration de solutions d’Intelligence Artificielle pour l’identification, et le traitement en flux de sources d’information géospatiales (Images satellitaires, données de capteurs et objets connectés) .
Si vous avez déjà de l’expérience significative et une appétence pour les systèmes d’information géographiques, leur application au monde du Spatial et de la Geointelligence, envoyez-nous votre CV (recrutement@geomatys.com).
Poste à pourvoir sur Montpellier en présentiel
Salaire selon expérience
Menu Linkedin Twitter YoutubeThe post Développeur(se) Front TS / WebGL / UX first appeared on Geomatys.
-
-
11:20
The Map to the White House
sur Google Maps ManiaNBC has launched the 2024 edition of its Road to 270 interactive electoral college map. The map visualizes the current likely, possible and fantastical outcomes of the 2024 U.S. Presidential race. Last night Kamala Harris and Donald Trump went head-to-head in their first presidential debate. The Philadelphia debate was a hugely significant opportunity for both Harris and Trump to present their
-
11:00
Mappery: La Tharee
sur Planet OSGeoPièce jointe: [télécharger]
Julien Minet shared this spectacular mappy beer bottle. “Here again an association of cartography and beers, a hand-drawn map of some part of the Ardenne printed on a special edition of the Belgian beer La Tharée”
-
9:30
Combat pour les géodata
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiquePour leur 7e édition, les journées nationales géonumériques GeoDataDays, organisés par l’Afigéo et Décryptagéo, se dérouleront les 19 et 20 septembre. L’évènement aura lieu à la Cité des Congrès à Nantes et devrait accueillir 80 exposants avec leurs produits, services et innovations. 80 experts de la géographie numérique et de secteurs associés seront présents autour du thème « Transition écologique, transformation numérique : même combat pour les géodatas. » Des questions qui seront décortiquées toujours au travers de grands débats ainsi que de grands thèmes axés sur la gestion des risques, le bâti ou le maritime. Les journées seront rythmées par de grands défis autour de l’IA, de l’accessibilité et des ateliers pratiques. Un parcours « spatial et territoires » sera aussi proposé. Le physicien, philosophe et directeur de recherche au CEA, Étienne Klein est le grand témoin de cette édition. Il interviendra le 19 septembre. Les inscriptions sont encore ouvertes.
+ d'infos :
geodatadays.fr
-
6:50
Surveillance Watch, un site pour documenter et dénoncer l'industrie de la surveillance
sur Cartographies numériquesSurveillance Watch est une carte interactive qui documente les connexions cachées au sein de l’industrie opaque de la surveillance. Il s'agit de « retracer le réseau complexe des entreprises qui compromettent notre vie privée en toute impunité ».
Les technologies de surveillance et les logiciels espions sont utilisés partout dans le monde pour cibler et réprimer les journalistes, les dissidents et les défenseurs des droits de l’homme. Fondé par des défenseurs de la vie privée, dont la plupart ont été personnellement lésés par ces technologies de surveillance, le site a pour objectif de mettre en lumière les entreprises qui profitent de cette exploitation et de dénoncer leurs abus. En cartographiant le réseau complexe des sociétés de surveillance, de leurs filiales, de leurs partenaires et de leurs bailleurs de fonds, les auteurs espèrent exposer les personnes qui alimentent les violations massives des droits de l’homme par cette industrie, en veillant à ce qu’ils ne puissent échapper à leur responsabilité. Surveillance Watch est une initiative communautaire et entend aller plus loin dans la collecte de données concernant la surveillance. Le site invite à défendre le droit à la vie privée et à partager cette carte en restant informé.
Il est possible de consulter le site par entreprises de surveillance ou par cibles connues. Certains pays font l'objet de plus de surveillance que d'autres, mais la carte montre globalement que le réseau de surveillance couvre l'ensemble de la planète.
Articles connexes
La carte, objet éminemment politique : la Chine au coeur de la "guerre des cartes"
La carte, objet éminemment politique : la carte de la Technopolice en France
La carte, objet éminemment politique : les cartes de manifestations à l'heure d'Internet et des réseaux sociaux
La carte, objet éminemment politique : les manifestations à Hong Kong
La carte, objet éminemment politique : les camps de rééducation des Ouïghours au Xinjiang
La carte, objet éminemment politique : quel sens accorder à la carte officielle du déconfinement ?
-
3:16
Sean Gillies: Fiona 1.10.0
sur Planet OSGeoI made a software release last Tuesday. One with new features, deprecations, major refactoring, and packaging and dependency changes, not just bug fixes. Fiona 1.10.0 has three main changes: Python openers, CLI filter commands, and new data classes.
Python openers can connect filesystems implemented in Python, like fsspec or tiledb.vfs, to GDAL's own virtual filesystem machinery. In most cases, you should reply on GDAL's built-in virtual filesystem handlers. On the other hand, if you have unique or proprietary data access protocols, then Fiona's new openers may be useful. As far as I know, Fiona (and Rasterio) have the only open source implementations of GDAL's virtual filesystem plugin system. David Hoese had the initial idea, Even Rouault helped a lot, and I got it over the finish line. I think this is right up there with MemoryFile for my favorite feature that didn't exist in Python-GIS software before.
Fiona's CLI has three new commands, filter (strictly speaking, a new mode of this command), map, and reduce. These provide some great features for Unix-style data processing pipelines and are designed to work well with jq and programs of that nature. Think of them as the data processing part of ogr2ogr, split into 3 simpler commands, reading and writing to stdin/stdout by default, with no SQL and no need to know about different SQL dialects. The documentation contains a new tutorial about using filter, map, and reduce. This work began in planetlabs/fio-planet and now lives in the Fiona CLI core. Thank you, Tim Schaub, for stewarding the transition.
Lastly, Fiona now longer represents GIS features (and their geometries and properties) as Python dicts, but as Python classes:
fiona.model.Feature
,fiona.model.Geometry
, andfiona.model.Properties
. These classes provide dict-like access for backwards compatibility, but raise warnings when mutated. These data classes will be immutable in version 2.0.A lot of GIS-Python attention has moved on to columnar data and massive amounts of time series, trajectories, telemetry, etc, using Parquet and Arrow. But, there's still a need to reason about persistent spatial things in our world and their relationships to each other. Classic GIS features, in other words. Watersheds, counties, neighborhoods. That's what Fiona remains concerned about.
-
2:00
Camptocamp: GeoServer 3 Call for Crowdfunding
sur Planet OSGeoPièce jointe: [télécharger]
GeoServer is at a critical turning point and it needs your help to continue its journey as the leading free and Open Source platform for geospatial data. With GeoServer 3 we are transforming the way you interact with geospatial data—making it faster, more intuitive, and more secure. -
21:49
Fernando Quadro: GeoServer 3 – Campanha de Crowdfunding
sur Planet OSGeoO GeoServer precisa da sua ajuda para continuar sua jornada como a principal plataforma gratuita e de código aberto para dados geoespaciais. Com o GeoServer 3, estamos transformando a maneira como você interage com dados geoespaciais, tornando-os mais rápidos, intuitivos e seguros.
Esta grande atualização, liderada pela Camptocamp, GeoSolutions e GeoCat, fornecerá:
- Desempenho futuro: um núcleo modernizado para compatibilidade com as mais recentes tecnologias de gerenciamento e implantação de dados.
- Processamento de imagem aprimorado: manuseio mais rápido e suave de imagens espaciais e conjuntos de dados maiores.
- Segurança e conformidade aprimoradas: atenda aos padrões regulatórios e proteja seus dados com os mais recentes aprimoramentos de segurança.
- Experiência do usuário simplificada: navegação mais fácil, integração de novos serviços e capacitação de usuários em todos os níveis.
O escopo deste trabalho está além de atualizações de rotina ou manutenção, já que a transição para o GeoServer 3 requer um amplo redesenvolvimento dos sistemas principais, bem como a implementação de práticas de segurança modernas e também testes e validação completos em todas as extensões do GeoServer.
Os membros do consórcio – Camptocamp, GeoSolutions e GeoCat – têm uma longa história de suporte e contribuição ao GeoServer e estão totalmente comprometidos com o sucesso desta migração. No entanto, este é um grande esforço que não pode ser concluído sem o suporte da comunidade.
Ao apoiar esta campanha de crowdfunding, você está investindo no futuro do GeoServer e ajudando a sustentar a comunidade geoespacial inovadora e de código aberto.
1. Por que GeoServer 3?
À medida que o cenário digital evolui, manter-se atualizado com as últimas tecnologias não é mais opcional — é essencial. O GeoServer 3 está sendo desenvolvido para enfrentar desafios cruciais e garantir que o GeoServer continue sendo uma plataforma confiável e segura para o futuro. Vários fatores-chave tornam esta atualização crítica agora:
- Conformidade regulatória: Novas regulamentações, incluindo a lista de vulnerabilidades exploradas conhecidas da CISA, exigem que os sistemas sejam totalmente corrigidos para garantir a prontidão operacional. Sem as últimas atualizações, o GeoServer corre o risco de ficar aquém desses padrões, e é por isso que migrar para o Spring 6 é essencial.
- Fim do suporte para o Spring 5: Em janeiro de 2025, o Spring 5 não receberá mais atualizações de segurança, deixando os sistemas vulneráveis. Como o GeoServer opera como middleware entre serviços da web e camadas de dados essenciais, esta atualização para o Spring 6 é crucial para manter conexões seguras e proteger dados de possíveis violações.
- Melhorias de segurança: A atualização para o Spring 6 habilita protocolos OAuth2 para autenticação segura, especialmente crítica para uso em larga escala ou em nível empresarial. Esses avanços ajudarão as organizações a atender aos requisitos de segurança em evolução e proteger dados geoespaciais confidenciais.
- Mudança para o JDK 17: Esta atualização também marca a transição do GeoServer para o JDK 17, que traz melhorias em desempenho, segurança e suporte de longo prazo. Manter o GeoServer alinhado com as versões mais recentes do Java garante compatibilidade com as modernas tecnologias de implantação Tomcat 10 e Jakarta e prepara a plataforma para o futuro.
- Processamento de imagem aprimorado: O GeoServer 3 substituirá a biblioteca Java Advanced Imaging (JAI) desatualizada pelo kit de ferramentas ImageN mais moderno e flexível. Esta mudança aumentará significativamente os recursos de processamento de imagem, permitindo um manuseio mais rápido de grandes conjuntos de dados espaciais e melhorando a compatibilidade com Java.
- Conjunto de tecnologia à prova do futuro: Com a migração para o Spring 6 e a mudança para o JDK 17, o GeoServer 3 garante viabilidade de longo prazo. Abordar toda a pilha do GeoServer, incluindo os componentes corporativos GeoFence e Cloud Native GeoServer, permite que as organizações adotem perfeitamente a infraestrutura moderna e os modelos de implantação sem comprometer o desempenho ou a segurança.
Com este trabalho, o GeoServer está caminhando para um futuro mais seguro e de alto desempenho, pronto para atender às necessidades em evolução da comunidade geoespacial.
2. Sobre a Campanha de Crowdfunding
Embora o consórcio esteja totalmente comprometido com esse esforço, o tamanho da tarefa significa que precisamos de suporte financeiro adicional para que isso aconteça. É aqui que você entra. Ao contribuir para esta campanha de financiamento coletivo, você está apoiando diretamente os desenvolvedores e engenheiros que realizarão a atualização, garantindo o sucesso contínuo do GeoServer.
Seu suporte, seja como indivíduo, instituição pública ou provedor de serviços, é vital. Ao contribuir para esta campanha de financiamento coletivo, você está investindo no futuro da tecnologia geoespacial de código aberto. O financiamento coletivo será estruturado em duas fases para garantir o sucesso:
- Fase de compromisso: patrocinadores e membros da comunidade prometerão seu suporte financeiro durante esta fase, mas nenhum fundo será coletado. O objetivo é atingir uma meta predefinida que cubra todo o escopo de trabalho necessário para a migração.
- Ativação do financiamento: assim que a meta for atingida, o financiamento coletivo será ativado e os patrocinadores serão faturados pelos valores prometidos. Isso garante que haja suporte financeiro suficiente para concluir a migração sem correr o risco de subfinanciamento.
Essa abordagem estruturada garante que o GeoServer 3 seja totalmente financiado antes de qualquer trabalho começar, evitando o risco de uma migração incompleta. Isso garante que o projeto terá os recursos necessários para ser concluído em sua totalidade.
3. Como participar
O GeoServer tem a confiança de milhares de organizações no mundo todo. Agora é a hora de dar um passo à frente e se juntar a essa comunidade de apoiadores.
Ao doar, você ajudará a garantir o futuro do GeoServer como uma plataforma de alto desempenho e código aberto. Cada contribuição conta.
Pronto para dar suporte ao GeoServer 3? Entre em contato pelo e-mail gs3-funding@googlegroups.com para expressar seu interesse ou prometer seu apoio.
Juntos, podemos garantir o futuro do GeoServer nos próximos anos.
-
20:28
Le prochain café de Chambéry
sur Les cafés géographiquesavec Alexandre Schon, professeur d’histoire-géographie
le 25 septembre 2024, 18h30, O’Cardinal’s, place Métropole, Chambéry
Alors que les Jeux Olympiques et Paralympiques (JOP) de Paris 2024 se sont achevés, les impacts à l’échelle locale de ce méga-évènement de rayonnement mondial se révèlent progressivement. À Saint-Denis (93), ils tiennent notamment à un régime d’urbanisme dérogatoire qui a permis la construction accélérée d’équipements sans passer par les concertations citoyennes préalables. Les conséquences sont nombreuses tant en termes urbanistiques et d’accompagnement des processus de métropolisation que de bilan écologique et démocratique.
L’événement aura lieu le 25 septembre 2024 à 18h30 à O’Cardinal’s, place Métropole, Chambéry
-
17:47
Réguler, réguler, réguler
sur Dans les algorithmesLa régulation se présente comme un nouvel art de gouverner, rappelle le politiste Antoine Vauchez dans l’introduction au livre collectif qu’il a dirigé, Le moment régulateur, naissance d’une contre-culture de gouvernement, parue dans l’excellente collection « Gouvernances », des presses de SciencesPo (également disponible sur Cairn). Désormais, on régule plus qu’on ne réglemente, c’est-à-dire qu’on oriente, on met en conformité, on corrige… Le droit s’équilibre de normes, d’outils, d’indicateurs qui s’écrivent à plusieurs, avec des autorités dédiées et plus encore avec les entreprises régulées elles-mêmes. Avec ses sanctions et surtout ses amendes, les bureaucraties gouvernantes semblent avoir trouvé là de nouvelles manières de faire de la politique, de nouvelles formes de puissances.
Le numérique a participé activement à la montée des instruments de régulations. Des regtechs aux outils de la compliance, en passant par la transparence et l’open government, la régulation semble s’armer d’une double modernité, technique et politique.
Mais l’Etat régulateur se construit également en opposition à l’État interventionniste et redistributeur. Il incarne la transformation d’un État providence en État libéral, qui doit désormais composer avec le secteur privé. La régulation semble un art de gouverner néolibéral, qui valorise l’auto-contrôle et qui s’appuie sur un ensemble d’autorités nées de la libéralisation des anciens secteurs des monopoles d’État, qui vont initier des rapports plus collaboratifs avec les régulés, au risque d’endormir bien souvent la régulation elle-même. La régulation va pourtant produire de nouveaux savoirs techniques : amendes, outils déontologiques pour organiser les rapports entre régulateur et régulé, indicateurs de conformité, bac à sable réglementaires et expérimentations permettant de déroger aux règles de droit pour stimuler l’innovation et trouver de nouvelles modalités de réglementations directement avec ceux qu’elles concernent. Pourtant, souligne le directeur de l’entreprise éditoriale, les structures publiques de la régulation restent d’abord des institutions faibles et fragiles, qui tentent de se présenter plus en arbitre qu’en gendarme, sans toujours réussir à être l’un comme l’autre.
L’ouvrage revient par exemple sur l’histoire de nombreux acteurs qui composent ce champ de la régulation qui vont naître avec la fin des entreprises monopolistiques d’État pour permettre à celui-ci de continuer ses contrôles, via de nouvelles contraintes pour régir la corruption, la concurrence, les données, les questions environnementales… L’État semble ouvrir une parenthèse faite de dialogue, de souplesse, de clémence (les amendes records annoncées, très visibles, sont cependant rarement payées et très souvent reportées via des appels en justice souvent suspensifs et des procès qui s’éternisent et qui vident bien souvent les décisions de leurs effets, comme l’explique très bien Yann-Antony Noghès dans son excellent documentaire sur la fabrication du DMA et du DSA européen). C’est le cas par exemple de la CNIL dont Anne Bellon et Pierre France montrent la transformation d’institution militante à une agence d’enregistrement de la conformité qui peine à exercer son pouvoir de contrôle et surtout de sanction.
Image : Les niveaux de plaintes, de contrôles et d’amendes prononcées par la CNIL depuis 2013. France Info.L’ouvrage s’intéresse beaucoup aux personnes de la régulation, à la sociologie des régulateurs, pour montrer la grande porosité des acteurs. Dans un article sur Google, Charles Thibout, montre comment Google va investir le champ de la régulation pour tenter de mieux l’orienter et le subvertir à son profit, lui permettant de transformer et contourner le droit pour le transformer en « norme processuelle fonctionnelle ». L’ouvrage s’intéresse également aux modalités que la régulation met en place et notamment au développement et au déploiement des outils de la régulation avec les régulés. Les chercheurs soulignent que dans cet univers, le niveau de technicité est très élevé, au risque de produire une régulation professionnalisée, très éloignée des citoyens censés en bénéficier. Là encore, le numérique est un moteur fort de la régulation, non seulement parce qu’il en est l’un des principaux objets, mais aussi parce qu’il permet de développer des outils nouveaux et dédiés.
On regrettera pourtant que l’ouvrage regarde peu la réalité du travail accompli par ces agences et ces acteurs. Le livre observe finalement assez peu ce que la régulation produit et notamment ses impasses. A force d’insister sur le fait que la régulation est un changement de gouvernance, une vision moderne de celle-ci, l’ouvrage oublie de montrer qu’elle est peut-être bien plus dévitalisée qu’on ne le pense. Isabelle Boucobza évoque pourtant le brouillage qu’elle produit, en opposant finalement la protection des droits et libertés fondamentaux qu’elle mobilise, et la régulation de l’économie de marché sur laquelle elle agit. La régulation produit au final d’abord de l’efficacité économique au détriment de la protection des droits et libertés, subordonnant ces derniers à la première. La conformité, en structurant l’auto-régulation, permet surtout aux entreprises d’éviter les condamnations. A se demander en fait, si la régulation ne propose pas d’abord un contournement du droit, une clémence, qui vide la réglementation même de ses effets, à l’image de la difficulté de la CNIL à passer des plaintes, aux contrôles ou aux sanctions. En surinvestissant par exemple le reporting, c’est-à-dire le fait d’exiger des rapports, des chiffres, des données… la régulation semble bien souvent s’y noyer sans toujours lui permettre d’agir. Comme le montrent Antoine Vauchez et Caroline Vincensini dans leur article sur la compliance, la régulation démultiplie ses exigences (dans le domaine de la prévention de la corruption, elle exige codes de conduite, dispositifs d’alertes, cartographie des risques, évaluations des clients, contrôles comptables, de la formation, des sanctions internes, et un dispositif d’évaluation des mesures mises en place). Mais la démultiplication des pratiques pour montrer qu’on est en conformité ne s’accompagne d’aucun durcissement du contrôle ni des sanctions. La régulation produit surtout une « standardisation technique », une technicisation du régulateur.
Plus qu’une contre-culture de gouvernement qui proposerait de nouvelles méthodes qui seraient enfin agiles et puissantes, on peut se demander si au final, la régulation ne produit pas l’exact inverse. Comme le pointe Antoine Vauchez en conclusion, la régulation s’est développée en collant aux intérêts du secteur privé, « au risque de n’accorder aux intérêts diffus des causes citoyennes qu’une attention seconde ». Dans notre article sur l’AI Act (newsletter #8), on concluait sur les risques d’une réglementation qui ne protège ni les citoyens, ni les entreprises, c’est-à-dire une régulation qui produit des amendes, mais finalement peu de transformations des pratiques.
Image : Couverture du livre, Le moment régulateur dirigé par Antoine Vauchez.
-
17:35
GeoCat: GeoServer 3 Call for Crowdfunding
sur Planet OSGeoGeoServer is at a critical turning point and it needs your help to continue its journey as the leading free and open-source platform for geospatial data. With GeoServer 3 we are transforming the way you interact with geospatial data—making it faster, more intuitive, and more secure.
This major upgrade, led by Camptocamp, GeoSolutions, and GeoCat, will deliver:
-
Future-Proof Performance: A modernized core for compatibility with the latest data management and deployment technologies.
-
Enhanced Image Processing: Faster, smoother handling of spatial imagery and larger datasets.
-
Improved Security and Compliance: Meet regulatory standards and protect your data with the latest security enhancements.
-
Streamlined User Experience: Easier navigation, integrating new services, and empowering users at all levels.
The scope of this work is beyond routine updates or maintenance since the transition to GeoServer 3 requires extensive redevelopment of core systems as well as implementing modern security practices and also thorough testing and validation across all GeoServer extensions.
The consortium members – Camptocamp, GeoSolutions, and GeoCat– have a long-standing history of supporting and contributing to GeoServer and are fully committed to the success of this migration. However, this is a major effort that cannot be completed without community support.
By supporting this crowdfunding campaign, you are investing in the future of GeoServer and helping to sustain the innovative, open-source geospatial community.
Why GeoServer 3As the digital landscape evolves, staying up-to-date with the latest technology is no longer optional — it’s essential. GeoServer 3 is being developed to address crucial challenges and ensure that GeoServer remains a reliable and secure platform for the future. Several key factors make this upgrade critical right now:
-
Regulatory Compliance: New regulations, including the CISA known exploited vulnerabilities list, demand that systems be fully patched to ensure operational readiness. Without the latest updates, GeoServer risks falling short of these standards, which is why migrating to Spring 6 is essential.
-
End of Support for Spring 5: By January 2025, Spring 5 will no longer receive security updates, leaving systems vulnerable. As GeoServer operates as middleware between web services and essential data layers, this upgrade to Spring 6 is crucial to maintaining secure connections and protecting data from potential breaches.
-
Security Enhancements: Upgrading to Spring 6 enables OAuth2 protocols for secure authentication, especially critical for large-scale or enterprise-level use. These advancements will help organizations meet evolving security requirements and protect sensitive geospatial data.
-
Switching to JDK 17: This upgrade also marks GeoServer’s transition to JDK 17, which brings improvements in performance, security, and long-term support. Keeping GeoServer aligned with the latest Java versions ensures compatibility with modern deployment technologies Tomcat 10 and Jakarta and future-proofs the platform.
-
Improved Image Processing: GeoServer 3 will replace the outdated Java Advanced Imaging (JAI) library with the more modern and flexible ImageN toolkit. This switch will significantly enhance image processing capabilities, enabling faster handling of large spatial datasets and improving Java compatibility.
-
Future-Proof Technology Stack: With the migration to Spring 6 and the shift to JDK 17, GeoServer 3 ensures long-term viability. Addressing the entire GeoServer stack, including enterprise components GeoFence and Cloud Native GeoServer, allows organizations to seamlessly adopt modern infrastructure and deployment models without compromising performance or security.
With this work, GeoServer is moving into a more secure, high-performing future—ready to tackle the evolving needs of the geospatial community. For more information on the work to be performed and its phases, please visit this document.
Crowdfunding structureThe crowdfunding will be structured in two phases to ensure success:
- Commitment Phase: Sponsors and community members will pledge their financial support during this phase, but no funds will be collected. The goal is to reach a predefined target that covers the full scope of work necessary for the migration.
- Funding Activation: Once the target is reached, the crowdfunding will be activated, and sponsors will be invoiced for their pledged amounts. This ensures there is enough financial backing to complete the migration without risking underfunding.
This structured approach ensures that GeoServer 3 is fully funded before any work begins, preventing the risk of an incomplete migration. This guarantees that the project will have the necessary resources to be completed in its entirety.
This structure forms a multi-party agreement:
- Consortium: Three companies are forming a consortium (Camptocamp, GeoSolutions, and GeoCat) providing expertise, a proven track record, and capacity. These companies are also taking on responsibility for project management, estimating, and importantly risk.
- Supporters: We are seeking organisations to pledge their support via funding during the commitment phase. No funds will be collected until we reach the target established below for the full scope of work necessary.
- Community: We ask that our community step forward to match the contributions above with both financial contributions and in-kind development and testing.
The financial target is ambitious, 550,000.00 €. CamptoCamp, GeoCat and GeoSolutions have generously stepped up and will provide an initial seed fund of 50,000.00€ each, which means the current funding goal starts at 400,000.00 €. Here below you will find the live updated situation as far as committed funding is concerned.
How to participateIf you are ready to support GeoServer 3, please, fill this online form or contact us at gs3-funding@googlegroups.com to express your interest and pledge your support.
Together, we can secure the future of GeoServer for years to come.
The post GeoServer 3 Call for Crowdfunding appeared first on GeoCat bv.
-
-
17:35
Que peut vraiment la régulation ?
sur Dans les algorithmesDans le procès antitrust qui oppose depuis quatre ans Google au ministère de la Justice américain, le juge, Amit Mehta, a pris une décision (elle fait 300 pages), confirmant ce que nous avons tous sous les yeux depuis plusieurs années : Google est en situation d’abus de position dominante dans la recherche en ligne et la publicité, lui permettant de forcer l’usage de son moteur de recherche comme d’obliger à des tarifs sans concurrence dans les résultats de recherche sponsorisés. Le jugement montre comment Google a réussi à imposer partout son moteur de recherche, en payant des sommes conséquentes à Samsung, Apple ou Mozilla pour devenir le moteur de recherche par défaut. Pour le juge Mehta, Google a violé le Sherman Act, la loi antitrust vieille d’un siècle qui a notamment conduit à la dissolution de Standard Oil en 1910, ainsi qu’à la dissolution d’AT&T en 1982.
Même si Google a fait appel, l’entreprise risque de se voir imposer d’importants changements, explique très pédagogiquement Jérôme Marin dans CaféTech. Plusieurs scénarios sont possibles à ce stade. Les accords commerciaux pour imposer son moteur comme choix par défaut pourraient être interdits, ce qui risque, contre-intuitivement, de fragiliser certains acteurs parmi les plus fragiles, notamment Mozilla car l’accord financier passé avec Google pour qu’il soit le moteur par défaut de Firefox représente l’essentiel des revenus de la fondation.
Comme le souligne Ed Zitron, Il s’agit d’un moment important dans l’histoire de la Silicon Valley. Mais est-ce une réelle menace pour Google ? Certes, plus de la moitié des revenus annuels de Google proviennent de Google Search, soit plus de 175 milliards de dollars. Ce monopole explique en grande partie pourquoi l’expérience de recherche de Google est devenue aussi désastreuse – Zitron avait montré dans un précédent billet que le recul de l’efficacité des résultats de Google depuis 2019 étaient concomitants avec la nomination d’un gestionnaire à la tête du moteur venu développer les revenus au détriment de la qualité, corroborant l’entrée dans l’âge du cynisme des calculs que nous avions nous-mêmes pointés.
Marchés closZitron évoque les nombreux combats actuels des régulateurs américains contre le développement de monopoles qui ont tendance à être considérablement renforcés par le numérique. La spécificité du numérique, rappelle-t-il, c’est que les entreprises possèdent à la fois les clients et ceux qui ont quelque chose à leur vendre. Le monopole de Meta sur les publicités d’Instagram ou de Facebook, comme sur ses algorithmes, lui permet de rendre ses produits moins performants pour vous montrer des publicités et d’augmenter leurs prix comme elle le souhaite. Et c’est la même chose sur toutes les plateformes. Meta l’a fait pour vendre la publicité vidéo aux annonceurs, assurant qu’elle fonctionnait bien mieux qu’elle ne le faisait, et est d’ailleurs poursuivi dans le cadre d’une class action par des publicitaires pour avoir falsifié leurs chiffres d’audience. « Sans concurrence, les plateformes ne sont pas incitées à agir honnêtement », rappelle Zitron. Même chose pour Apple qui a le monopole des applications autorisées sur son Apple Store (et le monopole des publicités). Au prétexte de « contrôler » l’expérience utilisateur, toutes les plateformes l’organisent et la ferment pour exercer leur domination sur tous : utilisateurs, développeurs, publicitaires… Les entreprises du numérique échafaudent toutes des monopoles et l’IA est une tentative pour en imposer de nouveaux (après ceux du Cloud), notamment en dominant les grands modèles que les autres services vont utiliser.
Les plateformes contrôlent toute la publicité sur leurs réseaux. « Google et Meta possèdent à la fois les produits et les services publicitaires disponibles sur ces produits, et définissent ainsi les conditions de chaque partie de la transaction, car il n’existe aucun autre moyen de faire de la publicité sur Google, Facebook ou Instagram. Il y a des entités qui se font concurrence pour le placement, mais cette concurrence se fait selon des conditions fixées par les plateformes elles-mêmes, qui à leur tour contrôlent comment et quand les publicités sont diffusées et combien elles vous seront facturées. » Et elles contrôlent également les données impliquées, c’est-à-dire à qui et comment elles les adressent sans permettre à leurs clients de savoir vraiment où elles ont été diffusées ni auprès de qui, comme l’explique parfaitement Tim Hwang dans Le grand krach de l’attention. « Elles sont à la fois l’entreprise qui vous vend l’espace publicitaire et l’entreprise qui l’audite », rappelle Zitron.
Un numérique sans monopole est-il possible ?Le problème, estime Zitron, c’est qu’il est fort probable que Google comme Meta ne puissent pas fonctionner sans leurs monopoles – rien n’est moins sûr, si elles n’étaient pas en situation de monopole sur la publicité, leurs revenus seraient certainement moins élevés, mais cela ne signifie pas que le modèle ne soit pas soutenable. Ces plateformes génèrent des milliards de revenus publicitaires (les revenus publicitaires représentent 98% des revenus de Meta et 50% pour Google) dans des conditions de plus en plus délabrées, rendant les deux structures particulièrement fragiles (comparées à Microsoft ou Apple). Les grandes entreprises de la tech n’ont plus de marché en hypercroissance de disponibles, estime Zitron dans un autre billet, elles ne peuvent que faire de l’amélioration de produit, pour autant qu’elles ne les mettent pas à mal. Le risque donc, c’est qu’elles n’aient pas les moyens de continuer à croître à mesure que leurs marges de croissances se réduisent – pour Meta et Google, cela signifie que leurs entreprises pourraient avoir du mal à passer la prochaine décennie, prophétise un peu rapidement Zitron en oubliant leur très haut niveau de fortune. Chez Meta, le trafic est en berne. Et le monopole de Google sur la recherche pourrait être redistribué avec l’avènement de l’IA générative.
Mais la bonne question à se poser est certainement de savoir comment ces entreprises, si elles devaient ouvrir leur régie publicitaire, pourraient-elles donner accès à un réseau publicitaire alternatif, dont elles ne maîtriseraient plus les tenants et les aboutissants ? Pour l’instant, le jugement qu’a reçu Google est sans sanction (elles viendront peut-être après quelques appels et longues discussions visant à trouver des modalités de sanctions adaptées). Et il est probable que les juristes de Google parviennent à les édulcorer voire à faire annuler la décision… Google a les moyens d’une bataille sans fin, et il est probable que, comme Microsoft avant elle, elle parvienne a éviter le démantèlement. A la fin des années 80, Microsoft détenait 80% du marché des systèmes d’exploitation. Un succès qui ne s’est pas construit uniquement sur le fait que Microsoft avait de meilleurs logiciels ou de meilleures ressources. L’histoire a montré que Microsoft s’était entendu avec des fabricants de matériels pour qu’ils vendent des ordinateurs avec Windows. En 2000, la justice américaine avait demandé la scission de l’entreprise, l’une pour le système d’exploitation et l’autre pour les applications. Microsoft a fait appel. La condamnation a été suspendue pour vice de forme et l’entreprise a conclu un accord avec le ministère de la justice lui permettant d’échapper au démantèlement. C’était les premières d’une longue série de poursuites pour entrave à la concurrence de Microsoft. Des poursuites qui ont plutôt montré la grande fragilité des actions de régulation qu’autre chose.
Dans la perspective de Google, la séparation de Google Search et de sa plateforme publicitaire serait l’équivalent de la séparation de l’Eglise et de l’Etat, mais il probable que cette perspective ne se réalise jamais. Quand la commission européenne a forcé Apple à ouvrir la distribution d’applications à d’autres entreprises, Apple a répondu par un ensemble de règles qui contraignent les fournisseurs d’alternatives à céder un si fort pourcentage de leurs revenus, qu’elle les empêche de rivaliser en termes de prix comme de bénéfices. Il est probable que Google ne soit pas démantelé et que l’entreprise imagine une solution pour continuer son monopole sans finalement rien changer. Comme nous l’avions déjà constaté dans les batailles de la FTC pour réguler le marketing numérique, Zitron entérine le scénario d’une régulation qui n’arrive finalement pas à s’imposer.
Une régulation désabusée
Doctorow estime lui aussi que contraindre Google sera difficile. Il est probable que la justice impose des mesures correctives, mais ces mesures ont souvent peu d’effets, d’autant qu’elles obligent le régulateur à déployer une intense et coûteuse surveillance pour s’assurer de leur application. Il est probable également que la justice propose tout simplement à Google d’arrêter de payer d’autres entreprises pour imposer le monopole de son moteur voire de vendre son activité publicitaire. Mais le plus probable estime Doctorow, c’est que Google fasse comme IBM ou Microsoft, c’est-à-dire fasse traîner les choses par des recours jusqu’à ce que l’administration abandonne l’affaire suite à un changement politique. Doctorow regrette néanmoins que le juge estime, comme trop de gens d’ailleurs, que l’espionnage des utilisateurs pour faire de la publicité est justifiée tant que celle-ci est pertinente. Le risque finalement de ce jugement, c’est qu’il conduise à une démocratisation de la surveillance, bien au-delà de Google, s’inquiète Doctorow. Pour lui, briser Google ne devrait pas permettre à d’autres entreprises de se partager le marché de la surveillance publicitaire, mais y mettre fin.Google a récemment annoncé, après avoir longtemps affirmé le contraire, qu’il ne supprimerait pas les cookies tiers, ces outils de surveillance commerciale qu’il voulait remplacer la privacy sandbox de Chrome qui aurait permis à Google d’être le maître de l’espionnage commercial au détriment de tous les autres. Cette suppression des cookies tiers au profit de sa seule technologie aurait été certainement jugée comme anticoncurrentielle. Mais garder les cookies tiers permet que les entreprises technologiques continuent de nous espionner, alors que nous devrions d’abord les en empêcher, estime Doctorow. Certains défenseurs de la publicité imaginent même qu’on attribue un identifiant publicitaire à chaque internaute pour mieux les pister et que grandes comme petites entreprises puissent mieux cibler leurs produits ! « Le fait que les commerçants souhaitent pouvoir scruter chaque recoin de notre vie pour déterminer la performance de leurs publicités ne justifie pas qu’ils le fassent – ??et encore moins qu’ils interviennent sur le marché pour faciliter encore plus l’accès des espions commerciaux sur nos activités ! » « Nous ne résolverons pas le monopole de Google en créant une concurrence dans la surveillance ». Se débarrasser du monopole de Google devrait surtout être l’occasion de nous débarrasser de la surveillance, estime-t-il. Nous n’en sommes pas du tout là.
Pour Ian Bogost, quelle que soit la décision du tribunal, il est probable que rien ne change pour les consommateurs comme pour Google. Google a déjà gagné. Lui aussi semble désabusé en rappelant que les condamnations à l’encontre de Microsoft n’ont rien changé. Windows est toujours le système d’exploitation dominant et Microsoft est plus dominant que jamais. Certes, il est probable que les pots-de-vin de Google pour soutenir la domination de son moteur cessent… Mais cela ne signifie pas qu’une concurrence pourra surgir demain. Les Gafams sont devenus trop puissants pour être concurrencés. On peut regretter que l’acquisition de la régie publicitaire DoubleClick par Google en 2007 n’ait pas été interdite, elle aurait pu empêcher ou retarder la mainmise de Google sur la publicité en ligne… Mais aujourd’hui, concurrencer Google est devenu bien difficile. Oui Google est en situation de monopole, mais il est probable que ce constat produise bien plus d’articles de presse que de changement dans la pratique réelle de la recherche en ligne.
Mêmes constats pour Paris Marx : plus de compétition ne suffira pas à démanteler le pouvoir de la Silicon Valley. Pour lui aussi, il est probable que les règles et contrôles se renforcent. Mais y’a-t-il pour autant une vraie volonté de remodeler l’industrie technologique ? Pas vraiment. « Les politiciens veulent un paysage technologique légèrement plus compétitif », mais ne souhaitent pas vraiment remettre en cause sa puissance.
Se conformer aux règles européennes est ennuyeux et coûteux, mais n’est pas menaçant pour les entreprises, explique clairement Christina Caffarra pour Tech Policy Press. Non seulement les règles européennes ne changent pas vraiment la donne technologique des grandes entreprises américaines, mais elles n’améliorent pas non plus la position, la productivité ou l’innovation des entreprises européennes. Les Gafams ont « réduit internet à une collection de points d’accès propriétaires que nous, Européens, ne possédons ni ne contrôlons, et dont nous sommes profondément dépendants. » Que se passera-t-il lorsque (et non si) l’infrastructure sur laquelle nous comptons, mais que nous ne possédons pas actuellement, devient hostile ? Des services sont déjà refusés aux consommateurs européens au motif que l’environnement réglementaire est trop incertain (comme quand Meta et Apple annoncent qu’ils ne lanceront pas certains services d’IA en Europe). Et cela va probablement empirer, comme le soutiennent les politistes Henry Farrell et Abraham Newman dans Underground Empire: How America Weaponized the World Economy ou la parlementaire européenne Marietje Schaake dansThe Tech Coup: How to Save Democracy from Silicon Valley. Comment croire que nous puissions développer la croissance et l’innovation depuis des entreprises dont la capacité à fonctionner est totalement à la merci des grands acteurs de la Silicon Valley ? Pourtant, pour l’instant, c’est en Europe que Google a connu le plus de difficultés. L’entreprise s’est vue infligée plus de 8 milliards d’amendes dans 3 affaires (liée à son système d’exploitation mobile Android, son service d’achat en ligne et son activité publicitaire). Mais Google a fait appel dans chacune…
Un démantèlement politique ?Pour la journaliste du New York Times, Julia Angwin, « démanteler Google n’est pas suffisant »…. Car démanteler Google n’aurait que peu d’impact sur la distribution des résultats de recherche. Cela ne permettrait pas de favoriser la création de moteurs concurrents que Google a empêché par ses pratiques. Pour la journaliste, nous devrions également briser le monopole de Google sur les données de requêtes de recherche. Même Bing, le seul rival, ne peut pas concurrencer la force de Google. Il faut 17 ans à Bing pour collecter une quantité de données équivalente à celle que Google collecte en 13 mois.
Pour obtenir de meilleurs résultats, nous devons favoriser l’innovation dans la recherche, estime Angwin. Et l’un des moyens d’y parvenir est de donner aux concurrents l’accès aux données de requêtes de recherche de Google (avec la difficulté que les utilisateurs pourraient ne pas être tout à fait d’accord avec l’idée de partager leurs données avec de nombreux autres moteurs… sans compter que cette solution ne résout pas celle du coût pour développer des moteurs à impacts mondiaux dans un univers où la prédominance de Google continuerait). Certes, Google dispose déjà d’une API qui permet aux développeurs d’accéder aux données de recherche, mais les règles d’utilisation sont trop contraignantes pour le moment. Ces accès permettraient aux concurrents de proposer des moteurs de recherche capables de proposer des options différentes, valorisant la confidentialité, le commerce ou l’actualité…
Angwin évoque par exemple Kagi, un moteur de recherche sur abonnement (10 $ par mois), sans publicité, qui permet de personnaliser les résultats ou de les trier par exemple en fonction des changements des pages web. Elle rappelle que si le spam est si omniprésent, c’est d’abord parce que tout le monde tente de subvertir les résultats de Google qui optimise le monde pour ses résultats de recherche plus que pour ses lecteurs. Dans une étude récente sur la qualité des résultats de Google, les chercheurs soulignaient qu’il était de plus en plus difficile d’évaluer la qualité des résultats car « la frontière entre le contenu bénin et le spam devient de plus en plus floue ». Si la diversité des moteurs était plus forte, s’ils proposaient des fonctionnalités plus variées, peut-être pourrions-nous avoir un web plus optimisé pour les lecteurs que pour le spam, imagine Angwin, un web plus décentralisé, comme il l’était à l’origine !
Le plus étonnant finalement, c’est que désormais, ce n’est plus tant la gauche démocrate qui pousse l’idée d’un démantèlement que l’extrême droite républicaine. Comme le raconte le journaliste François Saltiel dans sa chronique sur France Culture, c’est le colistier de Trump, J.D. Vance, qui est l’un des plus ardents promoteurs du démantèlement de Google ou de Meta. Derrière sa motivation à favoriser l’innovation, « ce désir de démantèlement initié par le camp trumpiste a également des airs de règlement de compte ». Pour les trumpistes, Google comme Facebook seraient trop démocrates et sont régulièrement accusés de censurer les propos de l’alt-right. Pour eux, l’enjeu n’est pas tant de limiter les monopoles et ses dangers, mais de punir ceux qu’ils considèrent comme n’étant pas du même avis politique qu’eux. Comme l’explique Ben Tarnoff, la perspective d’un démantèlement s’aligne aux intérêts du patriciat technologique du capital-risque qui semble plus trumpiste que les entrepreneurs de startups, notamment parce que le démantèlement des Gafams permettrait de relancer une course aux investissements technologiques en berne.
Régler le curseur de la régulationAlors que d’un côté, beaucoup semblent regretter par avance que le démantèlement de Google n’aille pas assez loin, de l’autre, beaucoup estiment que le blackout de X au Brésil, lui, va trop loin. En avril, le juge à la Cour suprême du Brésil, Alexandre de Moraes, a demandé à X de supprimer des comptes de militants pro-Bolsonaro qui remettaient en question les résultats du vote ou en appelaient à l’insurrection. Alors que normalement l’entreprise répond régulièrement aux demandes de gouvernements en ce sens (d’ailleurs, contrairement aux déclarations d’Elon Musk à l’encontre de la censure, l’entreprise se conforme à ces décisions bien plus qu’avant, comme le montrait une enquête de Forbes), pour une fois pourtant, X s’y est opposé et Musk en a même appelé à la destitution du juge, rappelle Paris Marx. Bien évidemment, les choses se sont envenimées, jusqu’à ce que le juge décide fin août de débrancher X au Brésil, suite aux refus de l’entreprise de se conformer aux décisions de la justice brésilienne.
La question reste de savoir si la justice est allée trop loin, questionne le New York Times. L’équilibre n’est pas si simple. « En faire trop peu c’est permettre aux discussions en ligne de saper la démocratie ; en faire trop, c’est restreindre la liberté d’expression légitime des citoyens ». Pour Jameel Jaffer, directeur exécutif du Knight First Amendment Institute de l’Université de Columbia, ce blackout est « absurde et dangereux ». Couper l’accès à un réseau social utilisé par 22 millions de Brésiliens pour quelques comptes problématiques semble disproportionné, d’autant plus que les gouvernements non démocratiques pourront désormais prendre l’exemple de gouvernements démocratiques pour justifier des actions de coupure de réseaux sociaux. Mais qu’était-il possible de faire alors que X n’a cessé de bafouer plusieurs ordonnances judiciaires ? Le juge brésilien a lui-même éprouvé la difficulté à imposer le blackout de X. En coupant X, il a demandé à Apple et Google d’empêcher le téléchargement d’applications VPN permettant de contourner le blackout brésilien et a menacé de lourdes amendes les brésiliens qui contourneraient l’interdiction, alors que la fermeture du réseau a suffi à le rendre en grande partie inopérant. La cour suprême du Brésil vient de confirmer le jugement de blocage de X, rapporte le New York Times, mais peine à définir jusqu’où ce blocage doit s’exercer. Dans le monde numérique, le fait que les contournements soient toujours possibles, rendent l’effectivité des actions légales difficiles. Le blackout est certainement suffisamment démonstratif pour qu’il n’y ait rien à ajouter. L’interdiction totale de X pour une poignée de comptes qui n’ont pas été fermés semble disproportionnée, mais cette disproportion est bien plus le reflet de l’intransigeance à géométrie variable d’Elon Musk qu’autre chose. Si Musk veut se comporter de façon irresponsable, c’est à lui d’en assumer les conséquences.
Reste que l’exemple montre bien les difficultés dans lesquelles s’englue la régulation à l’heure du numérique. Ce n’est pas qu’une question de souveraineté, où les entreprises américaines sont capables de coloniser et d’imposer au monde leur conception de la liberté d’expression, mais il semble que ces stress tests interrogent profondément la capacité à réguler des acteurs numériques surpuissants. Paris Marx a raison : les plateformes vont être soumises à une réglementation plus forte qu’elles ne l’ont été jusqu’à présent. Le problème, c’est que cette régulation va devoir aussi trouver des modalités d’applications adaptées pour parvenir à changer le numérique… qui seront d’autant plus difficiles à imposer dans un contexte de plus en plus politisé et radicalisé. Reste qu’il va être difficile pour les régulateurs de se confronter à des entreprises qui ne souhaitent pas se conformer à la loi, remarque Bloomberg, que ce soit au Brésil ou aux Etats-Unis aujourd’hui, ou en Europe demain. Que ce soit par l’affrontement direct, comme l’impose Musk, ou par le contournement de l’épuisement des recours légaux qu’envisage Google.
-
17:04
GeoSolutions: GeoServer 3 Call for Crowdfunding
sur Planet OSGeoYou must be logged into the site to view this content.
-
14:00
Fernando Quadro: Geotecnologias e o Combate à Violência
sur Planet OSGeoA violência, principalmente os Crimes Violentos Letais Intencionais (CVLIs), são um problema grave no Brasil. Essa categoria engloba homicídios dolosos, latrocínios (roubos seguidos de mortes) e lesões corporais seguidas de morte. Analisar a evolução desses índices nas maiores cidades do país e em âmbito nacional e fundamental para compreender as dinâmicas da violência urbana e para o desenvolvimento de políticas púbicas eficazes que propõem um enfoque multifacetado que combine ações repressivas e preventivas, com base em dados e análises geoespaciais.
Quais ferramentas podem nos auxiliar na gestão da segurança pública?
Visualização de padrões espaciais da criminalidade: Mapas de calor e outras ferramentas identificam áreas com alta concentração de CVLIs, auxiliando na alocação de recursos policiais e na definição de zonas prioritárias para ações preventivas.
Análise de tendências e identificação de focos de violência: Dados históricos e em tempo real permitem identificar tendências da criminalidade, prever picos de violência e direcionar ações de forma proativa.
Monitoramento de operações policiais em tempo real: O rastreamento de viaturas e equipes facilita a coordenação de operações e otimiza a resposta a crimes em andamento.
Investigação de crimes com mais precisão: A análise espacial de cenas de crime, incluindo sobreposição de dados de diferentes fontes, pode auxiliar na investigação e na identificação de suspeitos.
Engajamento da comunidade na prevenção da violência: O compartilhamento de informações geoespaciais com a comunidade pode aumentar a percepção de segurança e fomentar a colaboração na prevenção da criminalidade.A integração da Geotecnologia com as estratégias de combate à violência pode fortalecer significativamente as ações de segurança pública:
Fortalecimento das forças policiais: Pode auxiliar no treinamento de policiais na análise espacial, permitindo uma melhor compreensão da dinâmica da criminalidade em suas áreas de atuação.
Prevenção através da educação e inclusão social: Pode ser utilizada para mapear e direcionar programas sociais e educativos para áreas com maior vulnerabilidade à violência, promovendo a inclusão social e prevenindo a criminalidade.
Melhoria do sistema de justiça criminal: A análise geoespacial pode auxiliar na investigação de crimes, na identificação de reincidentes e na definição de medidas socioeducativas mais eficazes.Através da inteligência geográfica, é possível ter uma visão mais completa e precisa da criminalidade, permitindo ações mais eficazes na prevenção e no combate à violência.
Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]]
-
13:28
Écrire avec les cartes
sur Cartographies numériquesLiouba Bischoff, Raphaël Luis et Julien Nègre publient un ouvrage Ecrire avec les cartes dans Épistémocritique. Revue de littérature et savoirs (à télécharger en PDF). L'ouvrage correspond aux actes du colloque « Récits avec Cartes », organisé à l’ENS de Lyon en février 2023.
« Qu’elle renvoie à des lieux réels ou fictifs, qu’elle permette de parcourir les océans ou de signaler des espaces périurbains oubliés, la carte est ici envisagée dans toute sa matérialité : elle n’est ni une métaphore visant à donner un caractère spatial aux phénomènes littéraires (carte des représentations mentales, carte cherchant à situer la littérature dans l’espace du savoir, etc.), ni un outil de modélisation des textes. Aussi passionnantes que soient les expériences permises par les méthodes de cartographies narratives, l’objectif des textes réunis ici est bien d’étudier les cartes comme objet littéraire, au même titre que les personnages ou la narration, et non comme méthode d’analyse » (extrait de l'introduction)Table des matières et résumés
1. Introduction
2. « La vue à vol d’oiseau de l’homme » : usages génétiques de la carte et mise en récit dans Les Travailleurs de la mer de Victor Hugo (1866). Par Delphine Gleizes
3. Les trésors de la carte : explorations cartographiques et intrigue aventureuse chez R. L. Stevenson et H. G. Wells. Par Julie Gay
4. L’ouverture par les cartes dans les récits réalistes et les fables de Rudyard Kipling. Par Élodie Raimbault
5. Cartographismes : Peter Sís ou l’imagier des espaces. Par Christophe Meunier
6. Tentative d’inventaire d’une carte inventée : Description d’Olonne de Jean-Christophe Bailly. Par Aurélien d’Avout
7. Faire le tour du propriétaire : défamiliariser le chez soi selon Thomas Clerc et Christophe Boltanski. Par Laurent Demanze
8. Récits d’aventure et matérialité de l’objet-livre : usages ludiques de la carte dans trois romans américains contemporains. Par Gaëlle Debeaux
9. Cartographies d’outre-tombe : la postérité cartographique de la Nouvelle-Angleterre imaginaire de Lovecraft. Par Henri Desbois
10. La matrice des cartes dans Atlas der abgelegenen Inseln de Judith Schalansky. Par Mandana Covindassamy
11. Les voyages d’Olivier Hodasava : le globe virtuel de Google, une machine à fabriquer des histoires. Par Nathalie Gillain
Articles connexes
Cartographie et littérature
Décrire la carte, écrire le monde
Au sujet du pouvoir émotionnel des cartes : « nous avons tous une carte en nous »
Cartes invisibles. Réflexions littéraires et cinématographiques sur l’image cartographique
Le tour de France des classiques de la littérature (Gallica - BNF)
Le voyage d'Ulysse. Comment cartographier un mythe ?
Cartes et fictions (XVIe-XVIIIe siècle) par Roger Chartier
Un océan de livres : un atlas de la littérature mondiale
Vers une carte interactive de la littérature de fiction dans le monde
Carte des road trips les plus épiques de la littérature américaine
Découvrir Paris à travers les grands classiques de la littérature
Les story maps : un outil de narration cartographique innovant ?
Fake Britain, un atlas de lieux fictionnels
Rubrique Cartes et atlas imaginaires
-
11:34
Tracking Russia's 'Dark' Shadow Ships
sur Google Maps ManiaAsya Energy's AIS track places it in the Norwegian Sea, at the same time satellite imagery shows it at the ALNG2 plantIn response to Russia's invasion of Ukraine the West has imposed sanctions on the sale of Russian oil. In an attempt to avoid these sanctions Russia has been operating a shadow fleet of covert oil tankers. The West has been working on strengthening international cooperation to try
-
11:00
Mappery: Noel Gallagher Goes European
sur Planet OSGeoPièce jointe: [télécharger]
Berndasn shared this pic from a Noeel Gallagher concert in Amsterdam
-
18:32
Petition results (to keep S2A operational after S2C’s launch)
sur Séries temporelles (CESBIO)Last week, I issued a petition to keep S2A operational, this post will give you some results. i will keep updating this post regularly, so please go-on signing the petition or forwarding it to your colleagues. Although I have not been trained as a lobbyist, and I have some regrets on how i did it, the petition and our communication has had a very large success. I guess the wood was very dry, and the fire spread very fast when I lighted the match.
The campaign started with a blog post which explained why it is important to keep S2A operational, after S2C starts its operational duty. The blog post was relayed on LinkedIn and a petition. site was created. The tool I used, based on the « pytition » open source software, which works perfectly, is very simple and straightforward to set-up, but does not allow to collect the affiliations of the persons who sign (which is a pity). I thought I would collect the affiliations from the email address, but hundreds of signatories have signed with a gmail address or with various email service providers.
Anyway, here are several statistics I gathered on these posts and on the petition on September 9th :
Publication Statistics Blog 1080 visits LinkedIn 71 000 impressions, 940 likes, 180 republications Petition 1570 confirmed, 1924 total (confirmed+unconfirmed) I would like to thank everyone who signed, liked, forwarded, republished, retweeted, retooted (on Mastodon) ! I would have never dreamed to get 1500 signatures in one week only, I increased the goal progressively from 500 to 1500 ! I think our colleagues at ESA and EU should be proud of this achievement, which shows the importance and success to this great Copernicus mission not only in Europe, but also on all continents, in academy, research, companies, agencies, regions, governments, and even NGO.
Regarding the petition, there are several caveats to be mentioned before analyzing the results :
- Signing the petition is an individual decision, it does not mean that the organism/company for which the signatory works agrees with the signature, but it should be the general case. I will preserve the identity of the signatories, and only send the petition file to ESA and the EU, and quote the affiliations.
- Even if they signed with gmail, I recognized a few of the petitioner names, and I know the company for which they work. Of course, I will not reveal their names here, but I hope you will trust me on this conversion.
- To sign a petition requires a two step process. First fill the form with a email address, and then confirm the email address after receiving an email. It turns out 1250 persons confirmed their email address, and 250 did not. My statistics are based on the total number. I swear I did not add anyone myself. The files sent to ESA and EU will mention if the email was confirmed or not.
- My network is mainly among space agencies, and then in academy. This is largely visible in the table below. However, many persons form private companies signed, including a few CEO.
- The duty of confidentiality applied among space agencies reduced the number of petitioners, but I have had feedback on the interest from many colleagues at CNES, ESA, EU. In fact, everyone I talked to would like to maintain S2A, but I know no one in charge of the funding decisions…
- It is interesting to note the presence of companies which produce earth observing satellites, but are very keen on using Sentinel-2 data as reference, thanks to the excellent quality of its data.
- The numbers between parentheses are the numbers of petitioners per affiliation, when there is more than one.
Domain Affiliations Research/ Academy AT: BOKU Vienna (3), Salzburg (4)
AU: New south Wales
BR: Sao Polo, IPAM (Amazonia), Rio de Janeiro, Ceara, Viçosa, Mato grosso,
BE: CRA -Wallonie (3), UC Louvain (7), Leuven, Bruxelles, Namur
CA: Ottawa, Carleton, Alberta, Laval, Rimouski (Quebec), Sherbrooke, Victoria
CL: Univ Chile (2)
CH: Agroscope, Zurich, Bern, Geneva, Lausanne, Zurich : Ethz (2), Uzh(2), SwissTopo (3)
CN: Chinese Academy of Science (3), Wuhan(3), Nanjing (6), Univ of Geosciences
CZ: Prague (Charles University)
DE: Fraunhofer institute Bonn, Thunen institute, Jena(2), Trier, Hamburg, Kiel (4), potsdam, Humbold Berlin (5), Osnabrueck(2), Tuebingen
DK : LBST(2)
EE: Tartu(2)
ES: CSIC (8), Cantabria (6), Granada (4), Malaga, Valencia, Salamanca
FI: Aalto (4)
FR ; INRAE (16), IRD(14), CNRS (3), CIRAD, CEREMA, CEA, IGN (3), ONERA(3), OFB, Bordeaux, Toulouse (13) UT3, Toulouse INP (3), Ecole Normale Supérieure (2), ENSAE, Lyon, Paris Saclay (5), Paris, Strasbourg (6), IMEV Villefranche (8), Supagro (2), Montpellier, Nantes, Littoral, Orleans, Marne-la-vallée, Grenoble, Réunion(3),
GR: Athens (4), Macedonia
KE; NDMA : (Drought Mapping Agency)
KR: Busan
IE: Cork
IL: Technion (4), Volcani Agri(3) Haifa(12) et jérusalem (9),
IN; IITD (2)
IT; CNR (10), Pavia, Torinio, Bologna, Napoli, Milano, Politecnico Milano, Calabria, Messina, Viterbe Tuscia (3), Venezzia,
JP: Hokudai
LE: Beyrouth,
MA: Marrakech, El jadida
NL: Wageningen (6)
PT: Lisboa (6), Evora
SG: Singapour (4)
SI: Ljubiana
SE: Lund
TU: Tunis,
TR: Istanbul (3), Bursa
UK: NPL (8) Plymouth, London, Leicester, Liverpool, Surrey, Stirling, Bath, Cambridge (8), leeds
US; MIT(3), Wisconsin(4), Michigan, Colorado, Cornell, Oregon, Oklahoma, Connecticut (2), South Florida (5)
Maryland (6), Texas, Columbia,Providence(2), Harvard, Stanford (2) Boston (13), Kansas, Delaware, California, New York (2), Washington (3)Agencies CNES (11), DLR (14), NASA(4), ESA (4), INPE (14), USGS(3), NOAA(2), VITO(15), EU (6), SATCEN (3), Eumetsat,, FAO(3), UN Companies - Satellite : Planet, Airbus (9); TAS, ConstellR, Aerospacelab (4), Earthdaily, Satellite-Vu, Spacetech-i (STI)
- Software, engineering : CS, GMV, Google, CLS, ACRI-ARGANS-ARCTUS (6), Magellium (5), CGI, SISTEMA, Brockmann (4), CAP GEMINI, TRACASA(6), cloudferro(2)
- Remote sensing Services : EOX, Kayrros (10), Hiperplan (4), Bluecham, Terranis, MEEO (3), Gamma.earth, Orbital-eos (3), Planetek, Orbital-Eye , Kermap (6), Netcarbon(4), MEOSS, I-SEA (4), Kanop (5), latitudo40 (4), mantle-labs (6), Mapsat (3) , WaterInsight (NL), remote-sensing-solutions (3), Satelligence(8), mundialis(2), DHI group(3)
- Agriculture : Arvalis, Cargill, E-leaf
- Insurance : AXA
Government/Local communities Hauts de France Région, Basque region, Canadian government, Andalucia, Umwelt Bundesamt NGO WWF (3) -
18:32
Petition results (to keep S2A operational after S2C launch)
sur Séries temporelles (CESBIO)Last week, I issued a petition to keep S2A operational, this post will give you some results. i will keep updating this post regularly, so please go-on signing the petition or forwarding it to your colleagues. Although I have not been trained as a lobbyist, and I have some regrets on how i did it, […]
-
15:19
L'IGN vous donne rendez-vous aux GéoDataDays 2024
sur Toute l’actualité des Geoservices de l'IGNL'IGN participera aux GéoDataDays 2024, qui se tiendront les 19 et 20 septembre à la Cité des Congrès de Nantes. -
15:00
Conférence en ligne : Contribuer à la cartographie des parcs et jardins publics
sur Toute l’actualité des Geoservices de l'IGNContribuer à la cartographie des parcs et jardins publics
-
12:18
AI Search of San Francisco
sur Google Maps ManiaAI and machine learning are revolutionizing the field of remote sensing. The ability of machine learning algorithms to automatically detect and identify objects in satellite images has enhanced our abilities to monitor deforestation, identify illegal fishing, track wildlife, and more quickly implement disaster response.Thanks to AI it is now also possible to see who owns a Tesla car in San
-
11:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
11:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
11:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...
-
11:30
Cartographier les pressions qui s’exercent sur la biodiversité : éléments de réflexion autour des pratiques utilisées
sur CybergeoPour mieux orienter les politiques de conservation, il est crucial de comprendre les mécanismes responsables de la perte de biodiversité. Les cartes illustrant les pressions anthropiques sur la biodiversité représentent une solution technique en plein développement face à cet enjeu. Cet article, fondé sur une revue bibliographique, éclaire les diverses étapes de leur élaboration et interroge la pertinence des choix méthodologiques envisageables. La définition des notions mobilisées pour élaborer ces cartes, en particulier celle de la pression, représente un premier défi. La pression se trouve précisément à la jonction entre les facteurs de détérioration et leurs répercussions. Cependant, les indicateurs à notre disposition pour la localiser géographiquement sont généralement axés soit sur les causes, soit sur les conséquences de la dégradation. Cet écueil peut être surmonté si la nature des indicateurs utilisés est bien définie. À cet effet, nous proposons une catégorisation des ind...
-
11:30
Exploring human appreciation and perception of spontaneous urban fauna in Paris, France
sur CybergeoCity-dwellers are often confronted with the presence of many spontaneous animal species which they either like or dislike. Using a questionnaire, we assessed the appreciation and perception of the pigeon (Columba livia), the rat (Rattus norvegicus), and the hedgehog (Erinaceus europaeus) by people in parks, train stations, tourist sites, community gardens, and cemeteries in Paris, France. Two hundred individuals were interviewed between May 2017 and March 2018. While factors such as age, gender, level of education or place or location of the survey did not appear to be decisive in analyzing the differential appreciation of these species by individuals, there was a clear difference in appreciation based on the species and the perceived usefulness of the animal, which is often poorly understood. The rat was disliked (with an average appreciation score of 2.2/10), and the hedgehog was liked (with an average appreciation score of 7.7/10). The case of the pigeon is more complex, with som...
-
11:30
From "Bioeconomy Strategy" to the "Long-term Vision" of European Commission: which sustainability for rural areas?
sur CybergeoThe aim of this paper is to analyze the current and long-term effects of the European Commission Bioeconomy Strategy in order to outline possible scenarios for rural areas and evaluate their sustainability. The focus is on the main economic sectors, with particular reference to employment and turnover, in order to understand what kind of economy and jobs are intended for rural areas, as well as their territorial impacts. For this purpose, we have analyzed the main European Commission documents and datasets concerning the bioeconomy and long-term planning for rural areas, as well as the recent scientific data to verify the impact on forests. The result is that European rural areas are intended to be converted initially into large-scale biomass producers for energy and bio-based industry, according to the digitization process, and subsequently into biorefinery sites, with severe damage to landscape, environment, biodiversity, land use and local economy. Scenarios for rural areas don’t...
-
11:30
Impact du numérique sur la relation entre les systèmes de gestion de crise et les citoyens, analyse empirique en Île-de-France et en Région de Bruxelles-Capitale
sur CybergeoDepuis une dizaine d’année, les systèmes de gestion de crise utilisent les canaux de communication apportés par le numérique. D'un côté, le recours aux plateformes numériques et aux applications smartphones permet une plus grande visibilité des connaissances sur le risque. De l’autre, les réseaux sociaux numériques apparaissent comme un levier idéal pour combler le manque d'implication citoyenne dans la gestion de crise. Pourtant, jusqu'à la crise sanitaire qui a débuté en 2020, rien ne semble avoir été fait pour impliquer les citoyens au cours du processus de gestion de crise. Dans cet article, nous posons la question de l'apport du numérique dans la transformation de la communication sur les risques et dans l'implication citoyenne dans la gestion de crise. En 2018, nous avons diffusé un questionnaire en Île-de-France et dans la région de Bruxelles-Capitale afin de comprendre les attentes des citoyens et les effets des stratégies de communication territoriale sur la perception des ...
-
11:30
La fabrique publique/privée des données de planification urbaine en France : entre logique gestionnaire et approche territorialisée de la règle
sur CybergeoLa question des données territoriales revêt une importance croissante pour l’État, qui entend orienter leur production, leur circulation et leur condition d’usage. Cet article examine les modalités du repositionnement de l’État vis-à-vis des collectivités locales en matière d’urbanisme règlementaire dans le cadre de la standardisation et de la numérisation des données des Plans Locaux d’Urbanisme. Il explore également l’intégration de ces données dans une géoplateforme unique. Nous montrons que ce projet de construction d’un outil commun à l’échelle nationale s’inscrit dans le cadre d’une reprise en main par le pouvoir central des données de planification urbaine à travers l’intégration partielle de méthodes privées, développées par des sociétés commerciales au cours des années 2010 grâce au processus d’open data. L’étude de la fabrique publique/privée des données de l’urbanisme règlementaire permet de mettre en exergue deux points clés de la reconfiguration de l’action de l’État pa...
-
11:30
Le territoire est toujours vivant. Une analyse transversale de la littérature sur un concept central de la géographie
sur CybergeoLe concept de territoire fait l’objet d’une très abondante littérature en sciences humaines et sociales, qui alimente des sens et des usages apparemment très différents. Cet article dresse un état de l’art multidisciplinaire qui situe les uns par rapport aux autres les différents courants sur le concept de territoire. Dans le format synthétique qui est le sien, le but n’est pas d’approfondir chacune des discussions théoriques. Le premier objectif est plutôt de structurer, à travers un corpus d’environ 120 références, un panorama de la très abondante littérature francophone, anglophone et hispanophone sur le territoire. Le deuxième objectif est de tenter des rapprochements entre ces arènes de discussions qui échangent peu entre elles, autour de trois problématiques qui pourraient leur être communes. Enfin, en approfondissant la lecture transversale de la littérature et l’effort de synthèse, le troisième objectif est de soumettre à la discussion des caractéristiques fondamentales qui ...
-
11:30
Vers une transition des systèmes agricoles en France métropolitaine ? Une géographie contrastée et en mouvement (2010 et 2020)
sur CybergeoFace aux objectifs de décarbonation de l’agriculture, de préservation de l’environnement et aux enjeux de viabilité économique et de sécurité alimentaire qui en découlent, les politiques européennes (Farm to fork) et françaises encouragent une transition en profondeur des systèmes agri-alimentaires. Dans ce contexte, la transformation des modes de production agricole devient une nécessité. Cet article présente une géographie des exploitations agricoles en transition en France métropolitaine. Il repose sur une typologie des exploitations agricoles combinant mode de production agricole (biologique ou conventionnel) et mode de commercialisation des produits (circuit court ou filière longue) à partir des données des recensements agricoles de 2010 et 2020. L’analyse propose une cartographie à échelle fine (canton INSEE) des trajectoires d’évolution sur la période 2010-2020 des agricultures en transition, ouvrant la voie à discussion sur les facteurs favorables à l’émergence certains type...
-
10:30
Appropriations de l’espace et répression du mouvement des Gilets jaunes à Caen
sur MappemondeEn mobilisant différentes méthodologies de recherche issues principalement de la géographie sociale et de la sociologie politique, le présent article souhaite esquisser quelques pistes d’analyse et répondre à la question suivante : comment rendre compte par la cartographie des espaces de lutte du mouvement des Gilets jaunes dans l’agglomération caennaise ? En explorant ainsi sa dimension spatiale, nous désirons contribuer aux débats méthodologiques et analytiques qui ont accompagné ce mouvement qui s’est distingué par ses revendications et sa durée, mais aussi par sa géographie.
-
10:30
Les cartes dans l’analyse politique de l’espace : de l’outil à l’objet de recherche
sur MappemondeLa publication de la carte répertoriant les trajets d’utilisateurs de l’application de sport Strava, en 2017, a rendu identifiables des bases militaires dont les membres utilisaient Strava lors de leurs entraînements (Six, 2018). Cet exemple souligne à la fois l’omniprésence de l’outil cartographique dans nos vies et sa dimension stratégique. Aucune carte n’est anodine, quand bien même son objet semble l’être. Nos sociétés sont aujourd’hui confrontées à de nouveaux enjeux, liés à l’abondance des cartes sur Internet, dans les médias, au travail, que celles-ci soient réalisées de manière artisanale ou par le traitement automatisé de données géolocalisées. L’usage de la cartographie, y compris produite en temps réel, s’est généralisé à de nombreux secteurs d’activités, sans que l’ensemble des nouveaux usagers ne soit véritablement formé à la lecture de ce type de représentation, ni à leur remise en question. Dans ce cadre, le rôle du géographe ne se limite pas à la production de cartes...
-
10:30
Les stratégies cartographiques des membres de la plateforme Technopolice.fr
sur MappemondeConséquence de la transformation des cadres institutionnels du contrôle et de la sécurité, le déploiement de la vidéosurveillance dans l’espace public est aujourd’hui contesté par plusieurs collectifs militants qui s’organisent à travers des modes d’action cartographiques. Leurs pratiques entendent dénoncer, en la visibilisant, une nouvelle dimension techno-sécuritaire des rapports de pouvoir qui structurent l’espace. Grâce aux résultats d’une enquête de terrain menée auprès des membres de la plateforme Technopolice, nous montrons que le rôle stratégique de la cartographie collaborative dans leurs actions politiques réside dans ses fonctions agrégatives et multiscalaires. La diffusion de cartes et leur production apparaissent alors comme des moyens complémentaires, analytiques et symboliques, utilisés par les militants pour mieux appréhender et sensibiliser le public au phénomène auquel ils s’opposent.
-
10:30
La végétalisation de Paris vue au travers d’une carte : une capitale verte ?
sur MappemondeCet article s’intéresse à un dispositif cartographique en ligne proposant de visualiser les projets de végétalisation urbaine entrant dans la politique municipale parisienne. Avec une approche de cartographie critique, nous montrons comment la construction de la carte, et en particulier le choix des figurés et la récolte des données, participe à donner à la capitale française une image de ville verte. Le mélange de données institutionnelles et de données contributives composant la carte du site web Végétalisons Paris traduit l’ambiguïté de la politique de végétalisation parisienne, entre participation citoyenne et instrumentalisation politique.
-
10:30
Géopolitique de l’intégration régionale gazière en Europe centrale et orientale : l’impact du Nord Stream 2
sur MappemondeDépendante des importations de gaz russe, l’Union européenne tente de diversifier ses approvisionnements depuis la crise gazière russo-ukrainienne de 2009. En Europe centrale et orientale, cette politique se traduit par un processus d’intégration régionale des réseaux gaziers. Planifié depuis 2013, ce processus n’a pas connu le développement prévu à cause des divisions engendrées par le lancement du projet de gazoduc Nord Stream 2 porté par Gazprom et plusieurs entreprises énergétiques européennes. Ainsi la dimension externe de la politique énergétique des États membres a un impact sur la dimension interne de la politique énergétique européenne.
-
10:30
Les Petites Cartes du web
sur MappemondeLes Petites Cartes du web est un ouvrage de 70 pages de Matthieu Noucher, chargé de recherche au laboratoire Passages (Bordeaux). Il s’adresse à un public universitaire ainsi qu’à toute personne intéressée par la cartographie. Son objet est l’analyse des « petites cartes du web », ces cartes diffusées sur internet et réalisées ou réutilisées par des non-professionnel?les. Elles sont définies de trois manières :
-
historique, comme des cartes en rupture avec les « grands récits » de la discipline ;
-
politique, comme des cartes « mineures », produites hors des sphères étatiques et dominantes ;
-
technique, en référence aux « petites formes du web » d’É. Candel, V. Jeanne-Perrier et E. Souchier (2012), participant à un « renouvellement des formes d’écriture géographique ».
Ce bref ouvrage, préfacé par Gilles Palsky, comprend trois chapitres. Les deux premiers, théoriques, portent l’un sur la « profusion des “petites cartes” » et l’autre sur l’actualisation de la critique de la cartographie. L...
-
-
10:30
L’Amérique latine
sur MappemondeEn choisissant de commencer son ouvrage par la définition du terme « latine », Sébastien Velut donne le ton d’une approche culturelle et géopolitique de cette région centrale et méridionale du continent américain. Grâce à une riche expérience, il présente ce « grand ensemble flou » (p. 11), ce continent imprévu qui s’est forgé depuis cinq siècles par une constante ouverture au Monde. L’ouvrage, destiné à la préparation des concours de l’enseignement, offre une riche analyse géographique, nourrie de travaux récents en géographie et en sciences sociales, soutenue par une bibliographie essentielle en fin de chaque partie. L’exercice est difficile mais le propos est clair, explicite et pédagogique pour documenter l’organisation des territoires de l’Amérique latine. En ouverture de chaque partie et chapitre, l’auteur pose de précieuses définitions et mises en contexte des concepts utilisés pour décrire les processus en œuvre dans les relations entre environnement et sociétés.
En presque 3...
-
10:30
Les cartes de l’action publique. Pouvoirs, territoires, résistances
sur MappemondeLes cartes de l’action publique, ouvrage issu du colloque du même nom qui s’est déroulé en avril 2018 à Paris, se présente comme une recension de cas d’étude provenant de plusieurs disciplines des sciences sociales. Sociologues, politistes et géographes proposent au cours des 14 chapitres de l’ouvrage (scindé en quatre parties) une série d’analyses critiques de cartes dont il est résolument admis, notamment depuis J. B. Harley (1989), qu’elles ne sont pas neutres et dénuées d’intentionnalités. Cette position, assumée dès l’introduction, sert de postulat général pour une exploration de « l’usage politique des cartes, dans l’action publique et dans l’action collective » (p. 12).
Les auteurs de la première partie, intitulée « Représenter et instituer », approchent tout d’abord les cartes de l’action publique par leur capacité à instituer et à administrer des territoires.
Dans un premier chapitre, Antoine Courmont traite des systèmes d’information géographique (SIG) sous l’angle des scien...
-
10:30
Vulnérabilités à l’érosion littorale : cartographie de quatre cas antillais et métropolitains
sur MappemondeL’érosion littorale est un phénomène naturel tangible dont la préoccupation croissante, compte tenu du changement climatique, nous a menées à travailler sur la problématique de la cartographie de certaines composantes du risque d’érosion comprenant l’étude de l’aléa et de la vulnérabilité. Les terrains guadeloupéens (Capesterre-Belle-Eau et Deshaies) et métropolitains (Lacanau et Biarritz) ont été choisis, présentant une grande diversité d’enjeux. À partir d’un assortiment de facteurs, puis de variables associées à ces notions, la spatialisation d’indices à partir de données dédiées permettrait d’aider les décideurs locaux dans leurs choix de priorisation des enjeux et de mener une réflexion plus globale sur la gestion des risques.
-
10:30
La construction d’une exception territoriale : L’éducation à la nature par les classes de mer finistériennes
sur MappemondeLes classes de mer, inventées en 1964 dans le Finistère, restent encore aujourd’hui très implantées localement. Dépassant la seule sphère éducative, ce dispositif est soutenu par des acteurs touristiques et politiques qui ont participé à positionner le territoire comme pionnier puis modèle de référence en la matière à l’échelle nationale. Tout en continuant à répondre aux injonctions institutionnelles, poussant à la construction d’un rapport normalisé à la nature (développement durable, éco-citoyenneté), cette territorialisation du dispositif singularise la nature à laquelle les élèves sont éduqués.
-
6:03
[Story] Oslandia x QWC : épisode 2 / 8
sur OslandiaNous détaillons dans cet article les améliorations que nous avons apportées à QWC récemment, principalement sur l’interface utilisateur.
Dans l’application web, nous avons ajouté la possibilité d’avoir des couches de type MVT (Map Box Vector Tiles). Cet ajout permet par exemple d’utiliser les fonds de plan vectoriels de l’IGN avec différents styles.
L’outil d’identification de l’application permettait déjà d’interroger des données pour en extraire ses attributs. L’identification se fait par un simple clic sur l’objet, ou en dessinant un polygone sur la carte en englobant plusieurs objets. Grâce à nos développements récents, il est désormais possible d’identifier des objets dans un rayon d’une certaine distance. Cette fonctionnalité permet par exemple d’identifier les bornes incendie à moins de 300 mètres d’un carrefour.
Toujours dans l’application web, il est désormais possible de choisir le format de sortie de l’impression des mises en page. Cette fonctionnalité a été financée par la Métropole du Grand Lyon dont la migration de son application SIG Geonet est en cours de réalisation avec la mise en place de QWC.
La Métropole du Grand Lyon a également financé d’autres fonctionnalités que nous avons pu reverser dans les dépôts officiels de QWC, notamment la possibilité de zoomer sur la carte en “dessinant” des rectangles au lieu d’utiliser les traditionnels boutons “+” et “-” disponibles en bas à droite de l’application.
Pour rappel, QWC permet l’édition de données directement dans la base de données qui les contient. Nous avons eu l’occasion de renforcer le comportement de cette fonctionnalité en adaptant l’affichage des boutons d’ajout, de modification et de suppression des objets en fonction des droits paramétrés sur la couche en cours d’édition. Par exemple, si la couche est uniquement éditable par un utilisateur, alors les boutons d’ajout et de suppression d’objets ne sont plus visibles.
En modifiant le service permettant de générer des permaliens, la base de données de configuration et l’application web, nous avons ajouté la possibilité pour les utilisateurs connectés sur une instance QWC de créer des marque-pages. Cela permet de rapidement sauvegarder une emprise sur laquelle des éléments ont été remarqués par l’utilisateur. Un marque-page permettra de revenir sur ces éléments plus tard, ou de les partager à d’autres utilisateurs. Le marque-page permet de sauvegarder la configuration actuelle de l’application avec les couches affichées, le fond de plan choisi, ainsi que les annotations (dessin) ajoutées par l’utilisateur. On peut choisir d’ouvrir le marque-page sauvegardé dans la fenêtre courante du navigateur, dans un nouvel onglet, ou seulement de zoomer sur l’emprise du marque-page enregistré (sans modifier l’affichage des couches).
Vous aussi vous pouvez contribuer à QWC, directement ou en finançant les évolutions ! N’hésitez pas à nous contacter à infos@oslandia.com
-
15:24
Carte de l'influence mondiale de la Chine et des États-Unis
sur Cartographies numériques
La concurrence stratégique entre les États-Unis et la Chine est un élément déterminant du paysage géopolitique dont les décideurs, aussi bien du secteur public que du secteur privé, doivent tenir compte pour conduire leurs actions. La carte de l'indice d'influence mondiale (GII) montre l'influence réciproque des États-Unis et de la Chine dans 191 pays. Le GII utilise 28 critères différents répartis selon 3 principaux domaines (économique, politique et sécuritaire).??????????????????????????????? ??????????????????????????????????????????????????????????????????????????? ?????????????????????????????????????????????????????????????????????????????????????????????????????????????????????????????? ???????????????????????????????????????????????????????????????????????? ??????????????????????????????????????????????????????? ???????????????????????????????????????????????????????????????????????????????? ??????????????????????????????????????????????????????????????????????????????????????????????????? ?Les pays sont colorés du vert au rouge, de manière à indiquer s'ils sont plus en phase avec la Chine ou avec les États-Unis. Le vert correspond à l'alignement avec les États-Unis et le rouge à l'alignement avec la Chine. Si on clique sur « Stories », on accède à des visites guidées à l'échelle de grandes zones régionales (Afrique, Moyen-Orient, Europe, Amérique latine et Indo-Pacifique).
Global Influence Index (source : CESI)
Selon le GII, les États-Unis exercent actuellement une influence prépondérante en Europe. Cette influence est en partie due aux liens historiques entre l'Europe et les États-Unis, mais aussi aux inquiétudes croissantes de l'Europe face à la menace stratégique que représente la Chine. Dans de nombreuses autres régions du monde, par exemple en Afrique, les États-Unis sont en train de perdre la bataille de l'influence face à la Chine. Selon le GII, la Chine a poursuivi « un engagement soutenu et délibéré avec les nations de toute l'Afrique », ce qui se reflète dans son influence croissante dans la région.Selon le GII, « l'Indo-Pacifique est l'épicentre de la concurrence stratégique entre les États-Unis et la Chine ». L'Australie, l'Inde, la Corée du Sud et le Japon entretiennent des liens économiques et stratégiques très forts avec les États-Unis. Cependant, de nombreux autres pays de la région développent des liens très forts avec la Chine.
Une ventilation complète des variables et de la méthodologie utilisée pour déterminer les scores d'influence de chaque pays est disponible sur le site. Les données avec les scores d'influence sont téléchargeables au format csv. Il est possible de conduire une analyse globale ou sur chaque critère séparément.
L'indice d'influence mondiale est un produit de la China Economic & Strategy Initiative (CESI). La CESI est une organisation de recherche à but non lucratif qui s'engage à promouvoir les valeurs américaines et à développer une stratégie économique pour concurrencer et gagner contre la Chine. Le GII fait partie de la mission principale de la CESI, qui consiste à fournir aux décideurs politiques une base pour visualiser et analyser le paysage géopolitique, afin que des décisions puissent être prises sur la manière dont les États-Unis et leurs alliés doivent se positionner pour une concurrence stratégique avec la Chine.?????????????????????????????????????????????????????????????? ??????????????????????????????????????????????? ??????????????????????????????????????????????????????????? ????????????????????????????????????????????????????????????????????????????????
Articles connexes
Mesurer le rayonnement des grandes puissances à travers leurs réseaux diplomatiques
The Power Atlas. Un atlas pour aborder les éléments clés de la puissance aujourd'hui
Comment la Chine finance des méga-projets dans le monde
Les investissements de la Chine dans les secteurs de l'Intelligence artificielle et de la surveillance
Étudier l'expansion de la Chine en Asie du Sud-Est à travers des cartes-caricatures
La carte, objet éminemment politique : la Chine au coeur de la "guerre des cartes"
La carte, objet éminemment politique. Les tensions géopolitiques entre Taïwan et la Chine
-
9:35
3D: Déambulation Du Dimanche - #51
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulierAjouter des animations 3D peut aider l'utilisateur à interagir plus facilement avec une application, mieux comprendre comment les données évoluent au fil du temps ou simplement comment un phénomène ou un contexte fonctionne. Les animations 3D ne se limitent pas au mouvement en 3D mais intéressons nous au cas d'utilisation spécifique de l'animation d'un maillage 3D en le déplaçant, en le faisant pivoter ou en le mettant à l'échelle. Cette nouvelle fonctionnalité du SDK ArcGIS Maps for JavaScript est vraiment intéressante car je pense que de telles animations peuvent donner vie à votre scène web (même si encore une fois, il s'agit d'un aspect spécifique des animations).
Ma collègue Raluca Nicola d'Esri a eu l'idée d'illustrer à travers cette application de démo, les capacités de chargement d'un modèle gltf en tant que maillage 3D, puis d'appliquer une transformation sur chaque image à l'aide de MeshTransform. Avec la version 4.30, ArcGIS Maps SDK for JavaScript prend en charge un mécanisme de mise à jour rapide pour déplacer, faire pivoter ou mettre à l'échelle le maillage.
La vidéo ci-dessous présente l'application de démo :
Si vous souhaitez en savoir plus sur les différentes méthodes permettant de restituer et d'animer des modèles 3D dans une application JavaScript ArcGIS, je vous recommande la lecture de cet article du blog ArcGIS.
-
15:08
La Nouvelle-Aquitaine en 100 cartes
sur Cartographies numériques
La Plateforme de Ressources Territoriales de la Région Nouvelle-Aquitaine a publié le 5 septembre 2024 un ouvrage collectif sous la direction d'Olivier Bouba-Olga La Nouvelle-Aquitaine en 100 cartes. Cet ouvrage, disponible en téléchargement, couvre un ensemble large de sujets : il explore au fur et à mesure des chapitres les dynamiques démographiques, les dynamiques d’emploi, les spécialisations économiques, les niveaux de vie et les inégalités de revenu, les mobilités, les questions d’accessibilité en général, celles plus précises d’accessibilité à la santé, des questions liées aux dépenses d’énergie, d’autres à la consommation foncière…Où sont les "jeunes", où sont les "vieux" ? Où sont les "riches", où sont les "pauvres" ? Où travaillent-ils et comment s'y rendent-ils ? Combien dépensent-ils pour leurs déplacements en voiture ? Quand ils déménagent, c'est pour aller où ? A quelle distance vivent-ils d'une boulangerie, d'un bureau de poste ou d'un théâtre ? Combien vivent dans des déserts médicaux ?
C'est à ces questions du quotidien que répond cet ouvrage, sous forme de cartes, à l'échelle des territoires de la Nouvelle-Aquitaine, restituées le plus souvent dans l'ensemble de la France hexagonale. 100 cartes originales, qui donnent à voir de manière simple des phénomènes complexes et qui révèlent progressivement la diversité des territoires néo-aquitains et la richesse qu'elle constitue.
Cet ouvrage est issu des travaux de la Direction de l'intelligence territoriale, de l'évaluation et de la prospective (DITEP) du Pôle DATAR de la Région Nouvelle-Aquitaine.
Articles connexes
La carte du mois par le Pôle DATAR de la région Nouvelle-Aquitaine
L'Insee propose un nouveau gradient de la ruralité (La France et ses territoires, édition 2021)
L'Insee propose une nouvelle typologie des aires urbaines en fonction de leur aire d'attraction
Géographie du monde d'après : assiste-t-on à un "exode urbain" ?
Avec la crise du Covid19, les villes moyennes ont-elles bénéficié d’un regain d’attractivité ?
-
11:10
China vs America - World Influence Map
sur Google Maps ManiaThe Global Influence Index (GII) shows the influence of the United States and China on 191 countries around the world based on 28 different economic, security, and political criteria. Using the GII's new 3D globe you can tell at a glance where in the world either the U.S. or China has the greatest influence.Individual countries on the GII globe are colored to show whether they are aligned more
-
11:00
Mappery: Argentina on Cow Hide
sur Planet OSGeoJachym Cepicky spotted this leatgher map of Argentina in Cafe Dlask in Varnsdorf
MapsintheWild Argentina on Cow Hide
-
1:18
Sean Gillies: Black Squirrel volunteering
sur Planet OSGeoBlack Squirrel is the local trail half-marathon that I've finished five times since 2016. I registered to run it again this year, but had to scratch because of my Achilles tendonitis.
Instead, I'm going to volunteer at the event. I'll be among the first at Lory State Park, helping arriving runners park their cars and find the starting line. After that, I'm going to a trail intersection to keep first-time runners on course as they pour down the Howard Trail. It's going to be a beautiful late summer morning and I'm looking forward to being part of the event.
-
14:46
GeoSolutions: FREE Webinar: MapStore Major Release 2024.01 and Beyond
sur Planet OSGeoYou must be logged into the site to view this content.
-
14:00
Mappery: River Thames coffee table
sur Planet OSGeoThis rather fine coffee table, which used to belong to my father, depicts the River Thames all the way from source to mouth. The river has been carved into the table and then painted silver, with both ends then wrapping around the side of the table. I’m not sure who the original crafts-person was but its quite fun!
Happy birthday Mappery!
MapsintheWild River Thames coffee table
-
13:54
Fin de la redirection automatique des URLs le 30/09/24
sur Toute l’actualité des Geoservices de l'IGNFin de la redirection automatique des URLs le 30/09/24
-
12:00
Mappery: Beer for our Birthday, Mr Wainwright?
sur Planet OSGeoRegulars will know that we get a lot of maps in the wild which feature, wine, spirits or beer. I couldn’t resist this Wainwright beer glass (suitably filled) for the last of my birthday sequence.
Nick Hill sent this pic.
“Not sure if you’ve had this one before? I saw this map of the Lake District on my glass while enjoying a pint of Wainwright Gold in the Queen of Hearts pub in Daventry.
Cheers, Nick”
Well cheers to you Nick and to all of our MapsintheWild community, drink a toast to all of our contributors today if you can.MapsintheWild Beer for our Birthday, Mr Wainwright?
-
11:00
Mappery: Mappy Birthday!
sur Planet OSGeoHappy Birthday to the incredible @mapsinthewild! ? Mappery has been a constant source of inspiration for my wanderlust adventures. I’m sharing a photo of a motorbike I spotted in Toulouse, France to celebrate this special day. The licence plate from Germany stands for a long journey. The vibrant city always brings back fond memories of my years there as a student: a nice combo to share.
MapsintheWild Mappy Birthday!
-
10:00
Mappery: Mappy Birthday! – Meridian 17
sur Planet OSGeoToday is Mappery’s 6th birthday.
Remarkable really that we have kept this up for 6 years, that’s just over 1600 posts with almost 2,500 images, 300 weekly email newsletters, thousands of social media follows (no longer X’ing) and a lot of support from our readers and contributors who have made #MapsintheWild into a community.
So thanks to Ken who helped me to start Mappery when we were on safari together, thanks to Arnaud and Dan who help to share the load and keep the site running and thanks to everyone who has contributed a MapintheWild.
Today’s birthday post is the 17th Meridian line. Why? Well unsurprisingly, for regular readers/followers, this pic came from Reinder Storm, in our six years Reinder has contributed over 180 of the posts that we have featured which is pretty remarkable. I know this isn’t an actual map but it testifies to the map geekiness and passion of our contributors and followers -THANK YOU REINDER
Reinder commented “… passes right through Wroc?aw, Poland. The meridian 17° east of Greenwich is a line of longitude that extends from the North Pole across the Arctic Ocean, Europe, Africa, the Atlantic Ocean, the Southern Ocean, and Antarctica to the South Pole”
We’ll be pushing the boat out with a few more birthday posts today.
MapsintheWild Mappy Birthday! – Meridian 17
-
8:55
2024 Fall Foliage Map
sur Google Maps ManiaAutumn is nearly upon us. Although the Autumn Equinox is not until the 22rd September the 2024 Smoky Mountain Fall Foliage Map shows that the most northern counties of the United States will already have begun to notice the colors of the leaves changing.Every year Smoky Mountain releases an interactive Fall Foliage Map, which plots the annual progress of when and where leaves change their colors
-
1:00
Mappery: The City of New York has fallen over
sur Planet OSGeoA bonus pic from Ken for our birthday.
Ken was in New York recently and he sent this map in the wild from a diner that he stopped at. To fit the map into the available space they rotated it to west up.
MapsintheWild The City of New York has fallen over
-
14:00
Fernando Quadro: Geotecnologia aplicada na Silvicultura
sur Planet OSGeoAs conhecidas geotecnologias extrapolam os limites de sua ciência de desenvolvimento e aplicação. Dentre os vários setores produtivos nos quais ela é utilizada, a silvicultura é uma atividade que aproveita ao máximo o universo de soluções para diversos setores da gestão florestal. Tudo o que ela tem para oferecer pode ser aproveitado em benefício da gestão florestal. A geotecnologia se apresenta como uma ferramenta poderosa, oferecendo novas maneiras de se coletar dados, monitorar ecossistemas florestais e tomar decisões informadas. Atualmente é impossível imaginar que a gestão de uma floresta plantada possa ser realizada sem o uso desta potente ferramenta.
O drone, por exemplo, como ferramenta é um grande marco na geotecnologia. A possibilidade de municiar cada equipe de campo com um drone com uma câmera fotográfica embarcada elevou o nível da geotecnologia aplicada na silvicultura a um patamar nunca vivenciado. Claro que este avanço teve que superar questões como a dificuldade no processamento de tantas imagens capturadas, na identificação de indivíduos e na separação entre espécies através de técnicas de sensoriamento remoto. Dificuldades essas que se ampliaram com o surgimento de sensores LiDAR embarcados, que detalha o espaço com precisão milimétrica, sendo certo que a resolução dessas demandas abriu muitas possibilidades para o manejo silvicultural, especialmente para o inventário florestal.
Atualmente o estado da arte da geotecnologia aplicada na silvicultura está representada nos seguintes usos:
Big Data Geoespacial: A explosão de dados geoespaciais gerados por uma variedade de fontes, incluindo sensores remotos, dispositivos móveis e estações de monitoramento, está impulsionando o desenvolvimento de técnicas de análise de big data geoespacial. Isso inclui algoritmos de machine learning e inteligência artificial para análise de padrões espaciais, previsão e tomada de decisões.
Internet das Coisas (IoT) Geoespacial: A integração de sensores geoespaciais em equipamentos de monitoramento cria um ambiente de IoT geoespacial. Isso permite a coleta contínua de dados em tempo real sobre o ambiente e árvores individuais aumentando a compreensão das interações floresta-ambiente.
Geotecnologia para Inteligência Artificial: A geotecnologia está sendo integrada a algoritmos de inteligência artificial para uma variedade de aplicações, incluindo detecção de mudanças no uso da terra, identificação de espécies individuais e doenças a partir de imagens aéreas, previsão de eventos climáticos extremos, otimização de recursos operacionais, entre outras.
Não há dúvidas que a geotecnologia tem enorme participação no aumento da produtividade florestal experimentada nos dias de hoje, seja na melhoria do manejo, na conservação hídrica e do solo, seja no aproveitamento de regiões antes consideradas inaptas para a silvicultura.
Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]]
-
14:00
Algorithmes géométriques et code : comment cela fonctionne-t-il ?
sur GeotribuHuitième partie du tour d'horizon des SIG sur les dessous des calculs géométriques : algorithmes et code
-
11:00
Mappery: Global Delivery Bike (except New Zealand)
sur Planet OSGeoErik spotted this delivery bike in Delft. It looks as if half of New Zealand is missing.
MapsintheWild Global Delivery Bike (except New Zealand)
-
9:16
The Book Banning Map of America
sur Google Maps ManiaThe American Library Association (ALA) reports that attempts to ban books "surged 65% in 2023 compared to 2022 numbers, reaching the highest level ever documented by ALA." Nearly half of the books targeted for banning were related to issues of LGBTQ+ communities or race.Now the ALA has partnered with Little Free Library and PEN America to release an interactive map which shows
-
8:00
GeoDatadays 2024 : retrouvez-nous et participez à nos conférences
sur Makina CorpusLes 19 et 20 septembre, participez aux conférences animées par nos experts SIG aux GeoDataDays 2024, en Pays de la Loire à Nantes.
-
2:00
PostGIS Development: PostGIS 3.3.7
sur Planet OSGeoThe PostGIS Team is pleased to release PostGIS 3.4.7! This is a bug fix release.
3.3.7- source download md5
- NEWS
- PDF docs: en
-
23:38
W3C Maps for HTML Community Group: MapML.js release v0.14.0: CSS and Pmtiles
sur Planet OSGeoScripting, Styling and Web Maps: Who’s On First? The Big ThreePart of the job of being a Web standard means that you have to follow the architecture of the web, which allocates specific jobs across the Big Three languages: HTML, CSS and JavaScript. For JavaScript, this ideally means supplying and enhancing site-specific semantics and user experience, and leaving accessibility and rendering up to the browser’s HTML infrastructure; for Cascading Style Sheets, it means supporting the HTML rendering engine through accessibility-enhancing styling instructions declared by the page according to the CSS language. For HTML, it means parsing the page and rendering HTML elements as accessible content, and providing a DOM API to allow access to the content by JavaScript manipulation to provide and enhance effective user experiences.
In the Maps for HTML universe, our goal is an update to Web standards that sees maps and location decomposed with accessibility as a precondition, into rendering, style and behaviour, and fit into the appropriate architectural domain, be that in HTML, CSS or JavaScript. There is no support today for maps or location in any of the Big Three languages. The consequence of this lack of platform support for web maps is their exclusive and massive allocation to the JavaScript domain. The societal implications of this misallocation are a subject for another post.
To date, we have articulated a mechanism to embed accessible and semantic web maps and locations into an HTML viewer widget, the <mapml-viewer> element. So far, the fit of this widget to the HTML media widget paradigm seems appropriate. For a refresher on how the viewer works, check out our Quick Start video.
The question that bears additional scrutiny and community involvement, and that which is the question of this post is: How can we better leverage CSS for styles of maps and location, while enhancing accessibility? Opaque (binary) media types HTML media like video and audio don’t have much relationship with CSS, whereas map rendering has a natural connection to text and graphics styling. It’s the natural connection of maps to web architecture that makes maps and location a good candidate for a web standard.
What You Can Do With CSS in MapML Today – Support by GeoServerThe main use of CSS in MapML is to style the tree of elements rooted at the <map-feature>. The <map-feature> element is a custom element that can be obtained in a fetched MapML-format XHTML document, or found inline in HTML proper, between the <layer-> … </layer-> layer tags. <map-feature> elements are parsed and their <map-geometry> elements rendered as a shadow-DOM embedded SVG <g> tag (group element), with different geometry values rendered within that group as <path>s within the parent <g>. Any class attributes on the <map-feature> are copied to the root <path> element, and class attributes on descendent geometry elements are copied to the <path> that they are rendered as. This allows us to apply CSS rules to <map-feature> as though its parts were actual SVG tags, so long as the rendered feature parts can be selected via their class, which is copied from the source <map-whatever> element. This can even be useful for making accessible interactive maps.
This technique is used by GeoServer for example, which transforms Style Layer Descriptor server styles into CSS stylesheets with selectors for generated class values from the server layers’ contents. In addition to allowing basic styling of points, lines and polygons, this facility enables GeoServer to dynamically generate and style MapML-encoded vector tiles. The perceived performance of tiled vector maps can be acceptable, especially when such tiles are created and cached for later access, and improvements can be expected with additional specification and software development effort. This is all pretty interesting because it is starting to show us a path to (better) integration between the native web platform languages like HTML and CSS on the one hand, and maps on the other.
Mapbox Vector Tiles and the pmtiles Archive Format“pmtiles” is the name of a modern, cloud-friendly map tile archive format that is gaining popularity among web mapping applications, because it allows websites to readily serve their own map vector tile data without necessarily hosting the whole world, which is cost- and time-prohibitive. The motivation behind pmtiles (a product of the Protomaps project) would seem to be compatible with our community’s goal of standardising maps for the web. In the words of its creator Brandon Liu, :
Maps are everywhere on the Internet. Think of any popular retail site, travel search or local government portal. The infrastructure of the web, from languages like JavaScript, front-end frameworks, and databases, is overwhelmingly free software. Maps are one of the few remaining choke points* of an otherwise open web.
* choke points aka control points
pmtiles efficiently manages potentially massive amounts of tiled vector data in a single archive file. The archive can be hosted in a variety of server environments, but the main criteria for success is that the host server is capable of http range requests. When a client needs a particular tile, it makes the request not using the zoom, row and column coordinates as URL parameters or path steps, but by transforming the tile’s coordinates to a pmtiles archive byte range, using the tile’s byte offset and length, calculated from the archive’s metadata which contains, among other information, the formula to perform the transformation.
Under the hood, a .pmtiles archive file is a clever application of Hilbert space filling curves to efficiently compress tiles in the Web Mercator projection, encoded in the Mapbox Vector Tiles or other format (mvt). Mvt is a kind of de facto standard among vector tile formats, of which there are many, too numerous to mention. The protomaps-leaflet library integrates support for both .pmtiles archives as well as raw .mvt tile responses served through a web server API, following the {z}/{x}/{y} URL (template) convention. Protomaps-leaflet styling of tiles is accomplished via “themes”, or “rules”. Rules encode canvas 2D API call parameters on a per-tile, per-layer basis, such that map feature styles are encoded as JavaScript objects and methods that are called back by the protomaps-leaflet tile rendering engine. A theme is a named collection of rules, e.g. “light” or “dark”.
The newly-renamed MapML.js release 0.14.0 supports pmtiles archives and .mvt format API services, including custom map styling, via a protomaps-leaflet integration, mainly through the templated <map-link> element. Projection support is currently limited to OSMTILE maps, because of the (hopefully short-term) restriction of protomaps-leaflet to the Web Mercator projection and powers of 2 tile pyramids. Custom styles can be created and included as a “stylesheet” module by means of an exported symbol named “pmtilesStyles”, containing a defined and required JavaScript object structure.
If you’re using GeoServer, or pmtiles / mvt support in MapML.js, or any open source component from our community in your maps, please get in touch, we’d love to hear from you about your experience.
Call For CommunityA large measure of the payoff for the effort of building maps into HTML will be simple and decentralised access (i.e. no “choke points”) to the incredible rendering performance afforded by native code styling through CSS. What wouldn’t be possible in such a world? Accessible location navigation, animations, moving features, real time location updates, oh my! Worth mentioning: the CSS development community often sets an example of dynamic, open collaboration definitely worthy of emulating, if not wholly joining forces with.
In summary, let’s take the “special” out of spatial, and collectively imagine, design and implement a HTML+CSS engine capable of fully expressing and executing cartographic rules, for the future.
-
15:00
OGC Membership approves Common Query Language (CQL2) as an official OGC Standard
sur Open Geospatial Consortium (OGC)The Open Geospatial Consortium (OGC) is excited to announce that the OGC Membership has approved Version 1.0 of the Common Query Language (CQL2) for adoption as an official OGC Standard.
Filtering is a fundamental operation performed on feature data to obtain a subset that contains the geospatial information a user needs. CQL2 is a filter grammar that can be used to specify how features can be filtered to obtain a subset. The Standard supports both text and JSON encodings so can be easily integrated into a variety of software applications.
CQL2 is a revision of the original Common Query Language. While the language design is consistent with the original version, many changes and additions to improve consistency and capabilities have been made. Existing implementations of CQL will need to be updated to process filter expressions specified by CQL2.
The OGC API – Features Standard currently uses CQL2, and other Standards that require the ability to filter data are likely to adopt it as well. Example files and JSON, YAML, and BNF schemas have been published on the OGC schemas repository to enable software developers to rapidly implement CQL2.
The original Common Query Language (CQL) was created as a text encoding for use in the OGC Catalogue Service Implementation Specification. CQL is based on the capabilities in the OGC Filter Encoding (FE) Standard, which was originally part of the Web Feature Service (WFS) Standard.
CQL2 is the outcome of the work and dedication of the OGC API – Features Standards Working Group, which led the development of the Standard, including:
- Editors:
- Panagiotis (Peter) A. Vretanos, CubeWerx Inc.
- Clemens Portele, interactive instruments GmbH
- Submitters:
- Andrea Aime, GeoSolutions di Giannecchini Simone & C. s.a.s.
- Jeff Harrison, US Army Geospatial Center (AGC)
- Jérôme Jacovella-St-Louis, Ecere Corporation
As with any OGC Standard, CQL2 is free to download and implement. Interested parties can learn more on the OGC CQL2 Standard webpage.
The post OGC Membership approves Common Query Language (CQL2) as an official OGC Standard appeared first on Open Geospatial Consortium.
- Editors:
-
14:00
Fernando Quadro: Porque usar o Geography no PostGIS?
sur Planet OSGeoVocê sabia que ao trabalhar com grandes volumes de dados no PostGIS pode te levar a medições imprecisas?
É verdade. Quando você armazena seus dados geoespaciais como Geometry, o PostGIS trata esses dados como um plano 2D, como se a Terra fosse uma “panqueca”.
Mas não se preocupe, existe solução para isso. Você pode armazenar seus dados com o tipo Geography no PostGIS ao invés de Geometry.
Isso irá dizer ao PostGIS para usar um sistema de coordenadas “arredondas”, proporcionando medições muito mais precisas.
Nesses casos o tipo Geography é a melhor opção, e traz como benefícios:
Dados armazenados em WGS84 (latitude/longitude) com medidas em metros
Funções nativas especiais feitas apenas para este tipo de dados
Perfeito para lidar com grandes regiõesSe você tem já sua base de dados armazenada em Geometry, não se preocupe, você pode transformar seus dados em tempo de execução para Geography e obter resultados mais precisos em suas medições.
Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]] -
11:07
WhereGroup: Plugins – praktische Helfer in QGIS
sur Planet OSGeoDieses Mal stellen wir Ihnen eine Auswahl von fünf nützlichen Plugins aus den über 2.000 Plugins für QGIS, die Ihnen bei Ihrer täglichen Arbeit weiterhelfen. -
11:00
Mappery: Surficial geology of Maine
sur Planet OSGeoDoug shared this – Surficial geology of Maine #MapsintheWild @ Watershed Art Center Newcastle, Maine
If like me you thought Surficial Geology was a typo, read and learn
MapsintheWild Surficial geology of Maine
-
8:32
Alerte SIG
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLe SDIS 64 et le Centre national de la fonction publique territoriale ont organisé la 16e édition du séminaire GéoSDIS, pendant trois jours au Palais des sports de Pau. Cet évènement national vise à rassembler les acteurs de la géomatique pour les services départementaux d’incendie et de secours. 62 SDIS étaient au rendez-vous comme l’indique la carte de répartition déployée suite à l’évènement. Une centaine de géomaticiens ont participé à ces jours d’échanges qui ont débouché sur des veilles technologiques et à des partages d’expérience autour des outils et données cartographiques, notamment des retours sur l’apport des SIG lors de la tempête Ciaran, des incendies au Canada ou des derniers séismes en France. Différentes thématiques ont été abordées comme le système de gestion des secours de demain Nexis par l’ANSC ou encore les outils et données essentielles à l’envoi et la gestion des secours par l’IGN et OSM France. Les avancées de la Base Adresse Nationale ont aussi été passées en revue.
+ d'infos :
experience.arcgis.com
-
8:20
Write Your Name in Landsat
sur Google Maps Maniathe word 'love' in Landsat images Soon after the emergence of Google Maps, a short while after getting bored zooming in on their house in satellite view, some people began searching for satellite images of Earth forms and patterns which resembled letters of the alphabet - when viewed from above.The first pareidolia sufferer that I can remember becoming hooked on discovering typefaces in nature
-
6:52
[Story] Oslandia x QWC : épisode 1 / 8
sur OslandiaDepuis plusieurs années maintenant, et notamment grâce aux stages de fin d’études de Flavie et Benoît (qui avaient donné lieu à une série d’articles), Oslandia investit dans la solution logicielle QWC (pour QGIS Web Client) afin de proposer à ses clients de publier leurs projets QGIS sur le web.
QWC est un framework applicatif et une application clefs en main, permettant de publier des projets QGIS sur le web, en partageant les mêmes données, la même configuration et le même rendu. Il comporte les éléments classiques d’un SIG web, et peut être totalement personnalisé.
QWC est un projet OpenSource développé par plusieurs acteurs de la communauté. On peut notamment citer Sourcepole ( Suisse ), qui a réalisé le développement initial de QWC et continue de contribuer.
Nous réalisons notamment des projets pour nos clients, par exemple l’EuroMétropole de Strasbourg, le groupement de recherche Silex, WKN, Amarenco, le Syndicat des Eaux de la Manche, les agences de l’eau, la Métropole du Grand Lyon et d’autres.
Au passage, on notera que Clément Zitouni de l’EuroMétropole de Strasbourg contribue régulièrement aux différents dépôts du projet pour ajouter des fonctionnalités ou corriger certains problèmes directement. Bravo à lui !
Au delà des projets client, Oslandia investit également en fonds propres sur QWC. Chaque année, environ 10% du temps de l’équipe de production est dédiée à l’auto-investissement sur les projets OpenSource que nous développons ou maintenons.
Avec ces différents projets, Oslandia a pu intégrer plusieurs collaborateurs dans le développement et la maintenance de QWC. C’est toujours le cas de Benoît Blanc, rejoint par Gwendoline Andres notamment.
Plusieurs améliorations ont été intégrées dans la solution logicielle, que ce soit de nouvelles fonctionnalités ou bien des corrections de bugs.
L’environnement QWC est composé d’une application web écrite en Javascript (avec le framework React) ainsi que de micro-services en Python. Nous sommes intervenus sur tous ces composants, avec des contributions dans le cœur de l’application.
QWC est en perpétuelle évolution avec de nombreuses fonctionnalités développées en continu.
Dans les prochains articles, nous ferons un tour – non exhaustif – de ce qui a été réalisé récemment par Oslandia.
-
2:00
PostGIS Development: PostGIS 3.4.3
sur Planet OSGeo -
18:42
Oslandia: (Fr) Variabilisez vos profils QGIS avec QDT
sur Planet OSGeoSorry, this entry is only available in French.
-
17:32
Hokkaid? : un Finistère presque oublié
sur Les cafés géographiquesCe dossier a été réalisé par Maryse Verfaillie à la suite du voyage qu’elle vient de faire au Japon, particulièrement dans l’île septentrionale d’Hokkaïdo.
? Consulter le dossier Hokkaid? : un Finistère presque oublié
-
16:57
Vers le retour de la transparence des traitements ?
sur Dans les algorithmesC’est apparemment une première qui servira certainement de modèle à de nombreuses collectivités. Le département d’Ile-et-Vilaine publie une liste de 91 traitements algorithmes qu’elle utilise ! Visiblement, le département est le premier à se conformer à la loi Pour une République numérique et à publier un registre dédié.
Pour chaque traitement, la liste indique la finalité, le degré d’automatisation (de 1 à 3, c’est-à-dire de faible à fort), une indication de la maîtrise que la collectivité a du système, l’impact sur le public, le niveau d’explicabilité, le public concerné, les données concernées, le nombre de décision annuelles prises avec l’algorithme… Ce qui est très intéressant également, c’est de constater le large champ couvert par ces systèmes, allant de l’attribution d’ordinateurs aux personnels, à la voirie, au social, en passant par le logement social, la maintenance… On constatera que beaucoup de systèmes prennent très peu de décision par an.
Reste que pour l’instant les algorithmes eux-mêmes ne sont pas accessibles… ce qui ne permet pas leur inspection par les usagers, afin d’être sûr qu’ils font bien ce qu’on attend d’eux !
On espère que la publication de ce registre mette fin à la panne de l’ouverture des traitements que nous constations en début d’année.
Exemple d’une fiche du registre qui montre les différentes catégories de classement des traitements.
-
16:39
Variabilisez vos profils QGIS avec QDT
sur OslandiaPièce jointe: [télécharger]
Variables d’environnement ?Les variables d’environnement sont, comme leur nom l’indique, des paires clé/valeur permettant de décrire et paramétrer des applicatifs selon un environnement. Une variable peut intervenir à différents niveaux ou périmètres : système d’exploitation, session avec droits d’administration, annuaire/domaine, session utilisateur, applicatif, processus.
Gestion des variables d’environnement sur Windows 11
Si vous êtes familier/ère avec l’utilisation de QGIS, c’est le même principe que pour les variables prédéfinies, liées à un projet, à des couches, etc. et utilisables à différents endroits (expressions, mode atlas/rapport…). D’ailleurs QGIS gère également des variables d’environnement à l’échelle de son installation et par profil (voir la documentation).
Remplacement dynamique par QDTDans QDT, vous pouvez définir des variables dans vos fichiers de configuration `QGIS3.ini` et `QGISCUSTOMIZATION3.ini`, qui seront ensuite interpolées avec les valeurs des variables d’environnement au moment du déploiement. Cette approche permet de paramétrer de manière flexible divers aspects de la configuration de QGIS sans modifier manuellement les fichiers sur chaque machine.
3 avantages :
– Flexibilité : adapter facilement la configuration à différentes machines sans modifications manuelles des fichiers.
– Maintenance réduite : gérez une seule version des fichiers QGIS*3.ini qui s’adapte dynamiquement aux conditions locales.
– Sécurité : séparer les données sensibles de la configuration en les conservant dans les variables d’environnement.Cet usage des variables est particulièrement utile dans des environnements où les chemins d’accès ou les configurations peuvent varier significativement entre les déploiements, permettant une personnalisation sans effort et à la volée de l’installation QGIS.
En bonus, nous avons intégré un mécanisme primaire de sauvegarde des paramètres en cas de conflit entre les valeurs poussées par QDT et celles changées par l’utilisateur. Concrètement, cela se traduit par des sections préfixées directement dans le fichier INI :
-
14:47
Vers une surveillance au travail sans limite
sur Dans les algorithmesLa surveillance des comportements et l’accélération des cadences jusqu’à leurs limites ?Vous avez certainement vu passer cette vidéo dans vos flux. C’est une image vidéo de l’intérieur d’un café où un système de reconnaissance d’image analyse différents éléments, comme le temps d’attente des clients, le nombre de cafés que servent les vendeurs ou le fait que les tables soient propres. Des systèmes de ce type, développés par Hoptix ou Neurospot, se proposent de surveiller les employés et leurs comportements, mais également affirment être capables d’analyser les conversations entre serveurs et clients, par exemple pour détecter le nombre de fois où ils proposent aux clients des suggestions supplémentaires à leurs commandes pour les convertir directement en bonus sur leurs fiches de paye. Les logiciels promettent de suivre la préparation de commande, leur rapidité, la gestion de la clientèle. Neurospot propose même aux patrons de recevoir « des alertes instantanées lorsqu’une insatisfaction client est détectée », s’énerve Contre-Attaque.
Image : capture d’écran d’une vidéo de surveillance d’un café par Neurospot qui montre le temps que les clients passent à leur place et le nombre de cafés que servent les employés.Comme dans tous les autres secteurs, la collecte de données au travail procède toujours d’une justification positive. Elle est accomplie pour comptabiliser les heures travaillées, quantifier le travail, s’assurer du respect des délais, améliorer la facturation… D’un côté, les entreprises cherchent à augmenter leur collecte de données personnelles pour améliorer la sécurité au travail par exemple, de l’autre les travailleurs suspectent que ces nouvelles collectes permettent une surveillance et un cadencement accru quand ce n’est pas une utilisation punitive, comme c’est déjà le cas dans la logistique pour ceux qui ne suivent pas les cadences. C’est ce qu’expliquait la journaliste Anna Kramer pour le défunt site d’information Protocol, en revenant sur le développement d’outils de surveillance des postures, qui peuvent effectivement identifier les mouvements à risques, mais qui risquent surtout de renvoyer les employés à leurs responsabilités pour mieux soustraire l’entreprise à ses propres responsabilités.
En fait, en matière de sécurité au travail, l’évidence rappelle surtout que le corps humain n’est pas conçu pour répéter à un rythme rapide les tâches requises par de nombreux emplois de la logistique. Pourtant, avec des appareils de mesure des postures, comme StrongArm ou Modjul qui commencent à coloniser les entrepôts de Walmart et d’Amazon, la question de la sécurité au travail devient un score que les employés doivent respecter, quand ils ne sont pas renvoyés à une forme de compétition entre eux. Les outils d’analyses intégrés fournissent une mine de données granulaires sur chaque travailleur en surveillant les mouvements, les inclinaisons, les torsions, les portages que chacun accomplit. Le problème est que ces données pourraient aider les entreprises à se soustraire à leurs responsabilités et à accabler les travailleurs individuellement. Par exemple en poussant les entreprises à se séparer des travailleurs les moins sûrs ou ceux dont les scores sont mauvais et qui risquent de se blesser, plutôt que d’avoir à revoir leurs protocoles et cadencements. Pour les responsables de StrongArm ou de Modjul, ces données ne doivent pas être utilisées de manières punitives, mais doivent permettre d’identifier les emplois et postes qui posent problèmes pour les améliorer. Or, rien dans leur usage n’assure que les entreprises ne les utiliseront pas pour accabler les travailleurs. Les blessures dans les entrepôts d’Amazon, pourtant très automatisés, sont élevées et n’ont cessé d’augmenter ces dernières années (6 à 9 blessures pour 100 employés chez Amazon contre 3 à 4 pour 100 employés chez Walmart). Reste que si votre travail vous oblige à vous pencher pour être réalisé, un appareil vibrant n’y changera rien. C’est la tâche et le poste de travail qu’il faut revoir où les situations où les gens ont tendance à être en difficulté.
Pour Debbie Berkovitz, experte en protection des salariés, ces appareils ne font qu’informer de ce que ces entreprises savent très bien : elles connaissent déjà les personnes qui ont des douleurs et les postes qui génèrent des douleurs et des blessures. Pour l’ergonome Richard Gogins, le problème n’est pas nécessairement les mauvais mouvements et les mauvaises positions, c’est souvent les objectifs élevés et les cadences trop fortes qui poussent les gens à faire de mauvais mouvements.
Dans trop de situations encore, finalement, quand un employé se blesse, c’est trop souvent sa responsabilité qui est convoquée plus que celle de l’employeur. Les douleurs générées par le travail restent bien plus souvent prises en charge par la collectivité et les individus que par l’entreprise qui les provoque, comme le soulignait l’excellente enquête du journaliste Jules Thomas pour Le Monde, qui rappelait que les accidents du travail sont d’abord la réalité persistante de la dégradation du travail. La précarité, le manque de prévention dans nombre de secteurs qui paraissent peu propices aux accidents graves viennent renforcer leur invisibilisation, du fait de leur sous-déclaration. Une sous-déclaration qui est à la fois le fait des entreprises, mais également des salariés précarisés. Reste que quand les employés sont abîmés par le travail, c’est d’abord eux qui en supportent les conséquences, d’abord et avant tout en ne pouvant plus accomplir ce travail. Les risques professionnels sont profondément liés à l’intensification, rappelle le sociologue Arnaud Mias qui souligne, lui aussi, que le travail devient insoutenable par déni de diversité du fait de la standardisation des indicateurs. En comparant tous les employés entre eux, la moyenne de leurs performances à tendance à discriminer ceux qui s’en éloignent. A terme, le risque est que les données favorisent le stakhanovisme. La compétition entre travailleurs qu’induit la surveillance des indicateurs de productivité risque de favoriser l’exclusion de tous ceux qui n’entrent pas dans la course parce que trop vieux, trop faibles… Le pilotage par les indicateurs de productivité risque de renforcer partout les discriminations.
Si facile, si pratique ! Une surveillance institutionnalisée en roue libre !Le problème est que la surveillance des employés, démultipliée par les innombrables outils du panoptique numérique disponibles, semble être devenue un champ de développement du contrôle sans plus aucun obstacle, sans plus aucune limite. Pourquoi ? Ce n’est pas seulement parce que « la surveillance est le business model du numérique », comme disait Bruce Schneier. Mais plus encore parce que les outils la rendent possible et incroyablement facile !
C’est ce qu’explique le chercheur Wolfie Christl qui, via le laboratoire Cracked Lab, enquête sur la montée de la surveillance au travail en observant simplement les fonctionnalités proposées par les outils numériques que les entreprises utilisent. Il vient de produire une étude sur Dynamics 365, une suite d’applications de Microsoft qui permet de construire des applications pour surveiller les travailleurs de terrain, comme les réparateurs, les agents de sécurité, de nettoyage, les aides à domicile… Christl montre que le système applicatif permet de structurer, diriger et microgérer le travail, en l’alignant sur des processus strictement cadrés et définis qui vont de la surveillance des déplacements en passant par le contrôle des tâches ou du comportement, jusqu’à la synthèse d’indicateurs qui permettent d’évaluer l’ensemble et de les comparer aux résultats des autres employés. Le système permet même de gérer des alertes si les processus ne sont pas respectés où si le salarié s’éternise. Chaque tâche peut-être spécifiée selon des instructions et des durées… Et les applications peuvent générer des plannings qui se mettent à jour à la demande, en tenant compte de la disponibilité, de l’emplacement, des temps de trajet prévus et des profils de compétences des travailleurs, ainsi que de l’historique des travailleurs ou de la satisfaction des clients. Bien sûr, tous ces développements sont facultatifs, mais les fonctionnalités s’entremêlent pour créer des possibilités de suivi accrues. Si la localisation peut-être désactivée par exemple, Microsoft recommande cependant de l’utiliser et même de l’enregistrer toutes les « 60 à 300 secondes », puisque cette localisation va être utile pour nombre de calculs : durées, trajets, plannings… Pour le chercheur, les processus standardisés, les objectifs de performance rigides et la planification automatisée risquent d’intensifier le travail sans limites. Wolfie Christl parle de « fouets numériques »pour évoquer le développement d’un rapport soumis aux indicateurs, tant des patrons que des employés. Mais dans cette vision moderne de l’esclavage, quand l’employé se rebelle contre les capteurs, il est renvoyé à son utilisation individuelle, comme quand il jette la commande vocale qui siffle ses ordres à son oreille, il n’a plus le moyen d’abattre le système qui le dirige.
Un autre rapport du chercheur étudie le développement des logiciels de points de vente dans les magasins de détails, les restaurants et les hôtels. Là encore, le suivi de performance s’étend jusqu’au contrôle comportemental. Sur les tableaux de bords d’indicateurs, les employeurs peuvent classer les travailleurs « du meilleur au pire », identifier les « moins rentables » et prédire leur productivité future. Ces systèmes disent être capables de prévenir la fraude et peuvent placer des employés sur des listes de surveillance. Ils peuvent répartir les tâches automatiquement, sous minuteurs, avec d’innombrables alertes pour mettre la pression. La logique industrielle du taylorisme de la chaîne de montage colonise toutes les professions, conclut le chercheur. Mais les systèmes sont encore loin d’être parfaits, souligne-t-il. Bien souvent, les enregistrements défectueux et les tâches non documentées conduisent à des problèmes qui renvoient à la responsabilité de l’employé plus qu’à celle des systèmes. Quand la machinerie défaille, c’est le comportement de l’employé qui est pointé du doigt par la machine : c’est toujours lui dont la performance est dégradée et enregistrée comme problématique. Christl remarque encore que ces logiciels sont certes configurables. Les employeurs peuvent décider de les utiliser de manière plus ou moins intrusive, par exemple en ne faisant pas s’afficher les minuteurs (ce qui ne signifie pas que les tâches ne sont pas chronométrées). Mais ils peuvent également les rendre plus intrusives, en les intégrant à un logiciel RH ou en exportant les données vers d’autres plateformes d’analyses. Le panoptique est un espace de réglage en boucle sur lui-même, très simple à mettre en place.
Image : exemple d’un tableau de productivité d’employés travaillant dans une chaîne de restaurant. Via Cracked Labs.Ce que montrent les enquêtes du chercheur en observant les outils mis à disposition des employeurs, c’est qu’ils institutionnalisent la surveillance pour produire des métriques, des ratios, des indicateurs pour piloter la productivité de l’activité. La surveillance est normalisée, inéluctable. Et son accélération également, puisque de meilleurs indicateurs produiront nécessairement une meilleure productivité, qu’importe si cela passe trop souvent par des indicateurs défaillants.
Outre les défaillances des systèmes, le panoptique de surveillance élargit également les possibilités d’abus, explique Christl dans un nouveau rapport. Rien n’est plus facile désormais que d’espionner les employés, réprimer la dissidence, appliquer une surveillance excessive ou imposer des mesures disciplinaires arbitraires. En permettant un accès à une grande étendue de données, l’asymétrie de pouvoir entre les organisations et les employés s’agrandit… au risque d’une surveillance sans plus aucune limite.
Image : un tableau de bord qui classe les employés à risque selon leur activité.
Via Cracked Labs. Vers le « despotisme à la demande » : la surveillance est la conséquence de la dégradation de l’emploi !Dans son livre, Temporaire : comment Manpower et McKinsey ont inventé le travail précaire (Les arènes, 2021), Louis Hyman, avait montré que l’invention du travail intérimaire puis temporaire était une entreprise idéologique. Peu à peu, pour les entreprises, la stabilité de l’emploi est devenu un problème plutôt qu’un but. L’invention du contrat à durée déterminée (CDD) en 1979 en France n’était pas qu’une solution à la crise économique. Il marque aussi le début d’une dérégulation des conditions de travail qui ne va pas cesser de s’accélérer avec la montée de l’externalisation, la micro-entreprise, les contrats zéro-heures, l’ubérisation… Pour caractériser cette montée d’un travail temporaire de plus en plus flexible, le sociologue Alex J. Wood parle quant à lui de « despotisme à la demande ». Dans son livre éponyme (Cornell University Press, 2020, non traduit), le sociologue ne parle pas beaucoup des outils numériques visiblement, il observe seulement l’impact qu’ont eu les horaires flexibles et le temps partiel sur la disciplinarisation des travailleurs. La disparition de la sécurité qu’offrait un travail à temps plein a conduit les travailleurs précaires à se discipliner pour obtenir leurs quotas d’heures. Pour obtenir les heures promises, ils doivent accepter les contraintes qui vont avec, comme les horaires fragmentés et une disponibilité à la demande, en temps réel. Wood montre d’ailleurs que les employés qui se soumettent le mieux aux injonctions sont aussi ceux qui obtiennent, en récompense, les meilleurs horaires. La précarisation renforce l’autoritarisme des organisations. La sociologue Madison Van Oort dans son livre, Worn out : how retailers surveil and exploit workers in the digital age and how workers are fighting back (Épuisé : Comment les détaillants surveillent et exploitent les travailleurs à l’ère numérique et comment les travailleurs ripostent, MIT Press, 2023, non traduit) dresse le même constat en observant l’impact de l’outillage numérique dans les enseignes de la Fast Fashion, comme H&M ou Zara. Elle montre que, là aussi, les employés travaillent à la demande, notamment depuis des applications de planning automatisées profondément imprédictibles et qui font peser sur leurs épaules toute l’insécurité de l’emploi.
Image : couverture du livre de Madison Van Oort, Worn out.Les technologies numériques transforment en profondeur le secteur des services à bas salaires, explique Madison Van Oort. Pour elle, la fast fashion, qui est une forme de commerce industriel, est le secteur emblématique d’une industrie totalement orientée par les données et qui promeut partout la jetabilité. Non seulement les produits sont aussi vites produits, vendus que remplacés, mais les employés subissent le même traitement (dans le secteur, 60% des employés des magasins sont embauchés de manière temporaire, l’essentiel l’est à temps partiel). Et la chercheuse suggère que cette vision du monde, cette chosification, est façonnée par la numérisation, par le fait que tout est considéré comme des données – le designer italien Stefano Diana estimait que cette mise à distance qui transforme tout en chiffre nous ôte toute empathie. Or la fast fashion est bien l’enfant de la numérisation. La révolution de l’interconnexion a permis d’accélérer la production et la circulation de la chaîne d’approvisionnement et a permis la consécration d’une production temps réel. Une production directement pilotée depuis ce qui se vend et non plus depuis ce que les commerçants proposent. Une production plus réactive, capable de répondre aux demandes des clients. La fast fashion est bien sûr connue pour exploiter tous les travailleurs de la chaîne d’approvisionnement, notamment ceux qui fabriquent les vêtements à l’autre bout du monde. Mais c’est également le cas de ceux chargés de vendre les produits disponibles en continu.
Au XXe siècle, à l’époque des grands magasins, un vendeur était embauché pour ses compétences et on attendait de lui qu’il soit proche des clients pour mieux les conseiller. A l’époque des magasins de marques, on n’attendait plus des vendeurs qu’ils soient commerciaux, seulement un intense travail émotionnel pour vendre l’expérience que propose la marque en magasin. Mais à l’époque de la fast fashion, le vendeur n’est plus qu’un magasinier constamment sous surveillance numérique. Cette prolétarisation s’explique par le fait que la relation au client a été déléguée aux machines. Dans le monde de la fast fashion, les employés ont été dépossédés de la vente parce que les connaissances sur les clients ont été automatisées via les outils du marketing numériques. Ce sont eux qui prédisent les préférences des consommateurs et qui pilotent la relation clients. La sociologue explique que le travail émotionnel (que définissait la sociologue Arlie Russel Hochschild), celui qui connecte l’employé au client, qui prédit les désirs du consommateur, est désormais automatisé. Les magasins ont été dépossédés de cette compétence, renvoyée au travail des équipes marketing. L’analyse des données est omniprésente. Elle permet de personnaliser l’inventaire des magasins selon les ventes, mais pilote également la vie des employés, puisque ces mêmes données vont produire les moments d’affluences et décider des besoins en personnels, décider des plannings imprévisibles et également rendre les employés plus remplaçables et interchangeables qu’ils n’étaient. Ce n’est pas tant que les habits proposés sont si peu chers qu’ils se vendent d’eux-mêmes, mais que le marketing automatisé met les ventes sous stéroïdes et produit une accélération en chaîne. Les vendeurs ne sont plus que des employés à la demande, qui sont là pour mettre les vêtements en place et nettoyer le magasin. Plier, ranger, nettoyer. Faire tourner les flux. Ils sont là pour faire ce que les robots ne savent pas faire. « En numérisant la connaissance des désirs des consommateurs, le travail de vente au détail de la fast-fashion a été déqualifié et accéléré, et les travailleurs sont devenus jetables. Et ont pu être contrôlés de manière toujours plus impersonnelle. » Pour Van Oort, la montée de la surveillance des travailleurs de terrain est consubstantielle au développement du marketing numérique permettant de mieux connaître les consommateurs. Son analyse montre qu’il y a des effets d’entraînements dans toute la chaîne de la numérisation.
Comment l’automatisation renforce la prolétarisation qui renforce la surveillancePour Madison Van Oort, c’est la technologie qui a rendu ces conditions de travail possible. Après avoir construit une production en temps réel, informée par les données de ventes, le savoir produit par la datafication a été appliqué aux magasins. Les outils de planning automatisés (comme ceux développés par Kronos, devenu UKG, Ultimate Kronos Group, l’un des leaders du secteur) sont composés d’innombrables modules pour adapter les ressources humaines aux besoins. Pourtant, comme le pointait la journaliste Esther Kaplan dans un article pour Harper’s Magazine en 2015, la première conséquence de l’introduction de ces outils de plannings reste bien souvent de démultiplier les emplois à temps partiels, comme l’ont connu les employés de la chaîne de vêtements Forever 21 lorsque leurs magasins s’en sont équipés ! Van Oort rappelle que le planning automatisé est né chez McDonald dès les années 70, mais c’est pourtant avec le déploiement d’outils logiciels dédiés que ceux-ci vont changer le commerce de détail (et bien d’autres secteurs…), notamment en popularisant le temps partiel afin d’améliorer les rendements et les profits.
Les systèmes de planning automatisés calculent pour chaque employé, branche, secteur, des ratios de productivité et font des prédictions de besoins de main d’œuvre très précis, pouvant aller jusqu’à recommander des employés, sans qu’on sache parfaitement depuis quels critères – or, certains critères de ce calcul peuvent être profondément problématiques, qu’ils soient discriminatoires ou qu’ils s’ajustent pour optimiser les salaires vers le bas, en minimisant les primes. Van Oort ne creuse hélas pas la question, mais remarque néanmoins que l’efficacité high-tech de ces outils est très souvent survendue. Ces systèmes d’agendas automatisés ont beaucoup de mal à prendre en compte les contraintes des employés (garde d’enfants, etc.) et les employés en contournent les rigidités en proposant d’échanger leurs astreintes via des messageries partagées. Les problèmes que génèrent les planning partagés conduisent à renforcer les astreintes : les employés doivent être tout le temps connectés pour répondre aux astreintes, les accepter comme pour les rejeter ou les faire circuler. Cela transforme les relations de travail, crée des tensions entre les employés qui sont tous à chercher à faire des heures que la machine ne leur donne pas. Les conflits d’emploi du temps sont permanents, mais ils ne sont pas tant avec la direction qu’avec les autres employés, vus comme concurrents.
Alors que les employés des grands magasins étaient souvent employés à vie, intéressés aux ventes par des commissions, ceux de la fast fashion sont d’abord précarisés, souvent employés à bas coûts et à temps partiel. Alors que dans les grands magasins les employés se plaignaient de faire trop d’heures, ceux de la fast fashion se plaignent de n’en avoir pas assez. Aux horaires instables répondent des paies qui le sont également. « Avec les horaires flexibles, les risques et l’instabilité du commerce reposent sur les épaules des travailleurs ». Le stress aussi, ce sont eux qui sont confrontés à des calendriers toujours changeants.
Ce que la sociologue suggère, c’est que l‘acceptation de la flexibilité conduit automatiquement à accepter une flexibilité renforcée qui, grâce à l’optimalité des calculs, ne cesse de s’étendre. Il n’y a pas d’alternative aux horaires fixes et réguliers, rappelle-t-elle. « Le planning automatisé crée une profonde insécurité et beaucoup d’imprévisibilité ». Il est la première brique qui renforce le développement du travail à la demande. La chercheuse souligne également que la surveillance à toujours tendance à s’étendre et qu’elle se renforce d’un outil l’autre, d’une interconnexion l’autre. Les scanners biométriques complètent les agendas automatisés (et techniquement, s’y intègrent comme des plug-ins), la surveillance vidéo complète la surveillance logicielle des caisses… L’introduction d’une forme de surveillance en entraîne une autre et elles se renforcent les unes les autres.
Pourtant, la surveillance n’est jamais aboutie. Dans le panoptique, la réalité est que les outils dysfonctionnent souvent, au détriment des employés. Quand le scanner bug, c’est les heures de travail des employés qui ne sont pas comptabilisés. Quand les besoins de personnels sont calculés au plus justes, ce sont les employés qui voient leurs cadences s’accélérer ou leur charge de travail augmenter.
La surveillance développe une forme de paranoïa qui se renforce avec la surveillance. Plus les travailleurs sont précarisés et plus ils sont considérés comme des criminels potentiels, et inversement. Or, comme le suggère Richard Hollinger un spécialiste de la criminalité des employés, pour réduire le vol en interne, il suffit d’abord d’augmenter les heures de travail et d’améliorer les rémunérations ! Les employés veulent d’abord un travail fixe et régulier et un travail qui paye bien. La surveillance est bien une conséquence de la dégradation du travail qui renforce l’autoritarisme des organisations. Nous construisons des lieux de travail où tout est sous surveillance (les produits, les consommateurs, les employés). La normalisation de la surveillance, son institutionnalisation, exacerbe les inégalités. Le turn over des employés est aussi fort que celui des produits. « Des conditions de travail injustes conduisent à des politiques de surveillances injustes ». L’un permet l’autre, l’un renforce l’autre et inversement. Le Precarity Lab de l’université du Michigan parle d’ailleurs de « technoprécarité » pour expliquer que le numérique amplifie les conditions d’exploitations.
Le numérique floute les distinctions entre management, marketing et surveillance. Mais la surveillance ne pose pas qu’une question de respect de l’intimité ou de la vie privée, elle pose également une question de justice, qui semble aujourd’hui se perdre dans le délire d’un contrôle, en roue libre, qui ne rend pas compte de ses effets. Les données au travail sont de plus en plus instrumentalisées pour servir voire renforcer l’asymétrie des rapports de travail.
Surveillance prédictive : le risque d’une surveillance de moins en moins factuelle !En plus du délire du contrôle que la numérisation facilite, sans plus en voir les conséquences… il faut également ajouter des mesures prédictives particulièrement défaillantes qui viennent encore renforcer et justifier la surveillance. C’est le cas par exemple de Visier, une startup qui compte de nombreux clients, de Adobe à Uber… Visier promet de prédire le burn-out comme la démission. Le système, entraîné sur des profils d’employés démissionnaires, promet de calculer ce risque sur tous les autres employés en utilisant toutes les données disponibles, notamment les emails professionnels échangés, les relations aux autres employés, les publications sur les réseaux sociaux… pour mesurer l’engagement, l’absentéisme, la performance, le délai entre les promotions, l’activité sur Linked-in… Le problème, c’est que ces prédictions générales ont du mal à se prononcer sur les individus, explique la journaliste Hilke Schellmann dans son livre, The Algorithm (Hachette, 2024, non traduit). En fait, ces systèmes se concentrent sur des données internes pour tenter de faire des prédictions, comme d’évaluer l’évolution des fonctions, le niveau de salaire, la performance ou le niveau de responsabilité. Comme souvent, les données y rappellent la force de l’évidence : une personne au même poste pendant 2 ans a tendance à vouloir partir ! Le problème est qu’il n’y a pas que des raisons internes au départ des gens, il y a beaucoup de raisons externes sur lesquelles les entreprises n’ont pas toujours de données (situation familiale, proposition d’embauche externe, niveau de salaire et de tension du secteur…) et beaucoup de raisons internes sur lesquelles les données n’ont pas prises (comme la toxicité du management, même si des proxies plus ou moins fiables peuvent être trouvés, comme la durée d’un manager en poste ou le temps de rétention du personnel sous ses ordres – mais là encore, rien n’est moins fiable : un manager a ainsi été identifié comme toxique parce que ceux qui rejoignaient son équipe avaient tendance à changer de poste dans les 7 à 8 mois, alors que c’était surtout lui qui les aidait à évoluer dans l’entreprise). Mais ces prédictions de risque sont tout aussi problématiques que nombre d’autres prédictions. Et leur amélioration peut vite devenir discriminante, par exemple en portant plus d’attention aux jeunes hommes non mariés qui ont plus tendance à changer de job que les jeunes femmes mariées. Au final, ces systèmes là encore fonctionnent assez mal. Schellmann prend l’exemple d’une responsable RH de Pepsi pour laquelle le logiciel de Visier indiquait qu’elle avait 0,03% de chance de partir dans les 20 prochains mois et qui a quitté l’entreprise bien avant ce délai !
Là encore, l’analyse de données, par nature, s’abstrait du contexte. La prédiction défaille. Comme le disent Arvind Narayanan et Sayash Kapoor dans leur livre, AI Snake Oil (Princeton University Press, 2024, non traduit), la prédiction cumule trop de biais pour être fiable. Trop souvent, les prédictions abusent de proxies, de variables de substitutions, ce qui démultiplie les erreurs en cascade. Trop souvent, les prédictions cherchent des modèles qui n’existent pas. Les deux chercheurs estiment d’ailleurs que la promotion d’employés au hasard mais selon un taux fixe pourrait avoir plus de conséquences positives que la recherche illusoire de critères de promotion perfectibles. Les prévisions ne sont pas un modèle objectif. Elles restent probabilistes, quand leur mise en œuvre cherche à les rendre déterministes, au risque de prendre pour la réalité des calculs d’abord défaillants, qui entremêlent entre eux des suppositions en cascade.
La surveillance numérique des lieux de travail propose un panoptique idéal, où la surveillance du travailleur est omniprésente et infatigable. La surveillance est mécanique. L’exosquelette numérique est moins là pour nous aider à faire des tâches que pour surveiller le moindre de nos faits et gestes. Dans ce panoptique, les traitements de données, les données inférées parlent pour les employés, au risque de ne leur laisser aucun droit. Ni droits à explications, ni droit à contester les décisions automatisées qui ne leurs sont mêmes pas expliquées comme telles.
Sans limites, la surveillance ne propose que de renforcer l’autoritarisme des organisations.
-
14:00
Fernando Quadro: Inteligência Artificial, GIS e Smart Cities
sur Planet OSGeoAs cidades inteligentes representam o futuro da vida urbana, integrando tecnologia e soluções baseadas em dados para aumentar a eficiência, a sustentabilidade e a qualidade de vida dos residentes. No centro do desenvolvimento das cidades inteligentes está o papel da inteligência artificial (IA) nos Sistemas de Informação Geográfica (GIS), revolucionando a forma como as cidades planejam, otimizam e gerem infraestruturas críticas, como redes de transporte, serviços públicos e serviços públicos.
Nesta postagem falaremos um pouco sobre o papel multifacetado da IA ??no GIS para o planejamento de infraestrutura de cidades inteligentes, com foco em suas implicações e benefícios para o desenvolvimento urbano.
O planeamento de infraestruturas de cidades inteligentes abrange uma vasta gama de elementos, desde sistemas de transporte inteligentes e serviços públicos energeticamente eficientes até serviços públicos responsivos e desenvolvimento urbano sustentável. O GIS alimentado por IA desempenha um papel fundamental neste processo, aproveitando dados espaciais, análises preditivas e monitoramento em tempo real para otimizar o projeto, operação e manutenção de infraestrutura para cidades inteligentes e resilientes.
Aplicações de IA no planejamento de infraestrutura de cidades inteligentes:
Otimização de Transporte
Gestão de Utilidades e Eficiência Energética
Prestação de serviço público
Monitoramento Ambiental e SustentabilidadeBenefícios da IA ??no planejamento de infraestrutura de cidades inteligentes:
Maior eficiência e otimização de recursos
Tomada de decisão baseada em dados
Melhor experiência do cidadão e qualidade de vida
Desenvolvimento Sustentável e ResiliênciaEmbora a IA traga benefícios significativos para o planeamento de infraestruturas de cidades inteligentes, desafios como a privacidade de dados, a segurança cibernética, a parcialidade dos algoritmos, a conformidade regulamentar e a equidade digital precisam de ser abordados. Isto requer quadros de governação robustos, envolvimento das partes interessadas, práticas éticas de IA e estratégias de planeamento urbano inclusivas para o desenvolvimento equitativo e sustentável de cidades inteligentes.
Concluindo, o SIG alimentado por IA está a transformar o cenário do planeamento de infraestruturas de cidades inteligentes, oferecendo oportunidades sem precedentes de eficiência, sustentabilidade e inovação no desenvolvimento urbano. Ao aproveitar as capacidades da IA, as cidades podem otimizar a infraestrutura, melhorar a prestação de serviços e criar ambientes urbanos mais habitáveis ??e resilientes para as gerações vindouras. Adotar a IA no planejamento de cidades inteligentes não se trata apenas de avanço tecnológico – trata-se de construir cidades mais inteligentes, mais conectadas e sustentáveis ??que beneficiem a todos.
Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]]
-
14:00
Cherchez et contribuez à Geotribu depuis QGIS
sur GeotribuUne nouvelle fenêtre des contenus Geotribu dans le plugin QGIS QTribu, qui permet d'accéder et de contribuer aux contenus du site
-
11:56
Mapping Moving Borders in Real-Time
sur Google Maps ManiaThe international border between Italy and Switzerland & Austria in the Alps largely follows the path of the watershed line. Unfortunately due to global heating and shrinking glaciers the Alpine watershed line keeps on moving. The result is that the border between Italy and its Alpine neighbors is also constantly moving.In 2016 the Italian Limes project attempted to track the movement of the
-
11:00
Mappery: Pijnacker-Nootdorp
sur Planet OSGeoEric said “Today I visited the municipality of Pijnacker-Nootdorp. There’s a beautiful #mapsinthewild carpet in the Council Chamber (with even half of Delft on it)”
MapsintheWild Pijnacker-Nootdorp
-
8:00
Comprendre la Redevance d'Occupation du Domaine Public (RODP)
sur Makina CorpusDans cet article est issu d’une interview, Vivien Gueit Directeur de la société 2CT, nous livre son témoignage d’expert pour comprendre la Redevance d’Occupation du Domaine Public (RODP).
-
1:16
Sean Gillies: August 22, 2018: Paris in a Day
sur Planet OSGeoSix years ago my family and I spent some time in France, passing through Lyon and Paris on the way back to Colorado. While Ruth stayed behind at a conference in Montpellier, Arabelle, Bea, and I did Paris in a day. We saw many bones, ate much gelato, hiked many stairs, rode many trains and buses, and enjoyed being together, seeing new places, and using our second language in one of the world's capitals. I cherish my memories of this day. I felt like I was killing the fun Francophile dad role and thoroughly enjoyed the company of my kids. I had a memorable time. We confirmed in June that Arabelle and Bea have strong, positive memories, as well.
I went to Instagram for the first time in years to dig up a photo taken on that day that I haven't published on my blog before.
A child in a blue top making a peace sign in front of the Eiffel Tower and waxing moon.
We didn't go back to the Trocadero in June, assuming that it was closed for Olympics construction, but we did go back to Montmartre and Sacre Coeur. Both Arabelle and Bea have been cultivating Spanish as a third language since 2018 and had a chance to use it on our recent visit. We encountered a Spanish kid of Bea's age who had been separated from her parents and kept her company until we could reach her mom on the phone. She had no phone of her own, but had memorized key numbers.
-
22:13
Fernando Quadro: PostGIS e a Inteligência Artificial
sur Planet OSGeoNo atual cenário empresarial acelerado, aproveitar os dados de localização pode proporcionar uma vantagem competitiva significativa. Desde a otimização da logística e das rotas de entrega até à melhoria das experiências dos clientes através de serviços baseados em localização, a capacidade de extrair informações valiosas de dados geográficos é fundamental.
Como você já deve saber o PostGIS é uma extensão de código aberto amplamente utilizada que adiciona suporte para objetos geográficos, permitindo que consultas SQL espaciais sejam executadas dentro do sistema de gerenciamento de banco de dados PostgreSQL. O Postgres-AI, por outro lado, é uma extensão introduzida recentemente que traz recursos de aprendizado de máquina (ML) diretamente para o PostgreSQL, permitindo treinamento e inferência de modelos no banco de dados.
A integração do PostGIS e do Postgres-AI abre inúmeras possibilidades para inteligência de localização e análise de dados espaciais, incluindo:
Seleção de sites de varejo e análise de mercado
Logística e otimização da cadeia de suprimentos
Modelagem preditiva para serviços baseados em localização
Planejamento urbano e desenvolvimento de infraestrutura
Monitoramento ambiental e esforços de conservação
Marketing direcionado e segmentação de clientesAo aproveitar essas ferramentas poderosas, as organizações podem tomar decisões baseadas em dados, otimizar operações e aprimorar sua compreensão de padrões e relacionamentos geográficos, ao mesmo tempo em que aproveitam o poder do aprendizado de máquina.
Fonte: webgis.tech
Instagram: [https:]]
LinkedIn: [https:]]
-
16:44
Mises à jour septembre 2024
sur Toute l’actualité des Geoservices de l'IGNTous les nouveaux services web géoservices et toutes les mises à jour de données en téléchargement du mois de septembre 2024.
-
14:26
Un nouvel outil pour votre cartable de rentrée, le Chatbot IA arrive sur le site du support technique Esri !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Depuis de nombreuses années maintenant, Esri propose un site de support technique pour que vous puissiez trouver des réponses et communiquer avec les experts ArcGIS. Vous pouvez y découvrir les pré-requis système, les informations sur les cycles de vie des produits et les avis d'obsolescence par produit. C'est également un excellent endroit pour trouver des informations sur les offres de support avancées. Des documents sur les erreurs et les bogues, des articles et des vidéos pratiques, ainsi que des contenus plus techniques sont également disponibles. Ainsi, il peut parfois être difficile de trouver les informations dont vous avez besoin dans cette vaste bibliothèque de ressources créée pour vous. C'est la raison pour laquelle Esri lance un nouvel outil "Esri Support AI Chatbot" sur le site de support.
Comme de nombreuses innovations en matière d'assistance technique, Esri d'abord lancé le Chatbot IA de support sur l'application mobile "Esri Support". Vous l'utilisez déjà depuis fin 2023 (voir cet article arcOrama), parallèlement aux fonctionnalités de gestion des dossiers et aux nouvelles façons de contacter l'assistance technique. Vos commentaires ont aidés les équipes en charge de ces ressources chez Esri à améliorer le chatbot au point qu'il est désormais possible de le proposer à un public plus large via le site web du support.
Comment fonctionne ce nouveau Chatbot ?
Le Chatbot IA de support Esri différents contenus techniques d'apprentissage pour élaborer, via un LLM, des réponses basées sur des modèles statistiquement pertinent dans ces données. Grâce à son aide, vous pouvez trier plus rapidement et vous remettre au travail qui est important pour vous.
Le Chatbot IA de support Esri est entrainé exclusivement sur des contenus d'Esri, notamment les données du site su support technique, la documentation des produits, les blogs ArcGIS, etc. Cela signifie qu'il a moins de chances de fournir une réponse non pertinente ou incorrecte. Nous l'avons conçu en pensant à votre confiance. Le contenu non Esri provenant de sources tierces n'est pas non plus inclus. De plus, le Chatbot n'a indexé aucun contenu antérieur à 2017.
On notera que ce Chatbot est encore en phase d'apprentissage, il peut parfois fournir des informations inexactes ou incomplètes. Il est donc important d'évaluer soigneusement les réponses que vous recevez. Vous avez la possibilité d'aider à l'améliorer en lui posant des questions. Pour des raisons de confidentialité, Esri a choisi de ne pas personnaliser l'IA en fonction de votre profil ou de votre organisation, mais elle apprend de manière anonymisée à partir des prompts et des réponses agrégées de vos conversations. Vous pouvez également aider Esri à améliorer l'IA de ce Chatbot en utilisant le mécanisme de rétroaction intégré pour signaler les réponses qui ne semblent pas tout à fait correctes.
Questions / Réponses
Dois-je fournir au chatbot des informations différentes de celles que je saisirais dans un moteur de recherche ?
Les moteurs de recherche et l'IA sont tous deux des outils puissants pour répondre aux questions, mais ils nécessitent des données différentes. Alors qu'un moteur de recherche utilise des mots clés pour rechercher des informations correspondant à votre requête, les LLM s'appuient sur un langage simple. Posez-lui des questions comme vous le feriez avec une personne. Si vous ne recevez pas de réponse pertinente, vous devrez peut-être reformuler votre question.
J'ai reçu une réponse vague ou une réponse qui ne correspond pas au produit recherché. Comment puis-je obtenir de meilleures réponses ?
Dans ce type de cas, indiquez les noms et versions des produits dans votre question pour obtenir des résultats plus pertinents. Par exemple, si vous posez une question sur un outil disponible à la fois dans ArcGIS Pro et ArcMap, précisez lequel vous utilisez.
Dois-je lui parler en anglais ?
Non. Le Chatbot IA de support Esri répondra dans la langue que vous utilisez pour poser votre question. Le chatbot IA d'Esri Support peut répondre aux questions posées dans plus de 40 langues, dont l'anglais, l'espagnol, le français, l'allemand, l'italien, le portugais, le néerlandais, le russe, le chinois (simplifié et traditionnel), le japonais, le coréen, l'arabe, l'hindi, le bengali, l'ourdou, le turc, le persan, le swahili, le vietnamien, le thaï, le grec, l'hébreu, le norvégien, le danois, le suédois, le finnois, le polonais, le hongrois, le roumain, l'ukrainien, le tchèque, le slovaque, le slovène, le croate, le serbe, le bulgare, l'estonien, le letton, le lituanien, l'islandais, le philippin, le malais et l'indonésien. Cependant, l'utilisation d'un clavier ou de caractères en anglais peut entraîner des réponses en anglais.
Le Chatbot IA de support Esri peut-il m’aider à coder ?
Oui, le Chatbot IA d'Esri Support peut vous aider à coder et à traiter des sujets connexes, mais vous êtes responsable de votre utilisation de son code ou de ses explications de codage. Faites preuve de discernement et examinez attentivement tout le code pour détecter les erreurs, les bogues et les vulnérabilités avant de l'implémenter.
Exemple d'expression Arcade fournie par le Chatbot IAExemple d'expression SQL fournie par le Chatbot IA
Pourquoi le Chatbot IA de support Esri n'est-il pas au courant du produit annoncé ce matin ?
Esri met régulièrement à jour les données d'apprentissage du modèle d'IA de ce Chatbot, mais pas en temps réel. Il y aura un léger délai entre la publication de nouvelles informations et le moment où le Chatbot en prend connaissance. Esri souhaite organiser le nouveau contenu pour garantir qu'il fournira des réponses pertinentes.
Essayez-le maintenant
Disponible dès maintenant et gratuitement, le Chatbot IA de support Esri est accessible sur le site du support Esri !
-
11:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
11:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
11:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...