Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Feeds
6503 items (27 unread) in 56 feeds

-
Cybergeo (10 unread)
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (1 unread)
-
Mappemonde
-
Dans les algorithmes (1 unread)

-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN (1 unread)
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier (2 unread)
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR

-
Géoblogs (GeoRezo.net)
-
Conseil national de l'information géolocalisée
-
Évènements – Afigéo (2 unread)
-
Geotribu
-
Les cafés géographiques (1 unread)
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Icem7
-
Séries temporelles (CESBIO) (1 unread)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies (2 unread)
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques (5 unread)
-
Veille cartographie
-
Makina Corpus (1 unread)
-
Oslandia
-
Camptocamp
-
Carnet (neo)cartographique
-
GEOMATIQUE
-
Le blog de Geomatys
-
Geomatick
-
CartONG (actualités)
Recent items
-
8:18
Le CNIG est renouvelé pour cinq ans
sur Conseil national de l'information géolocaliséeLe CNIG est renouvelé pour cinq ans
-
8:00
Où en est Geotrek-Rando en 2025 ?
sur Makina CorpusGeotrek-Rando v3, vitrine publique des territoires pour la valorisation des activités de pleine nature, a connu de nombreuses évolutions depuis 2023.
-
6:11
IA et éducation (1/2) : plongée dans l’IApocalypse éducative
sur Dans les algorithmesA l’été 2023, Ethan Mollick, professeur de management à Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraître en français chez First), décrivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait était qu’il ne serait plus possible pour les enseignants de donner des devoirs à leurs élèves à cause de l’IA, redoutant une triche généralisée.
Pourtant, rappelait-il, la triche est là depuis longtemps. Une étude longitudinale de 2020 montrait déjà que de moins en moins d’élèves bénéficiaient des devoirs qu’ils avaient à faire. L’étude, menée par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les élèves faisaient leurs devoirs en 2008, cela améliorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’améliorer les notes que de 45% des élèves. Pourquoi ? Parce que plus de la moitié des élèves copiaient-collaient les réponses à leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre étude soulignait même que 15% des élèves avaient payé quelqu’un pour faire leur devoir, généralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était déjà facile avant sa généralisation.
Les calculatrices n’ont pas tué les mathématiquesMais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion même de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformé l’enseignement des mathématiques. Dans un précédent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a été introduite dans les écoles, les réactions ont été étonnamment proches des inquiétudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les élèves. En s’appuyant sur une thèse signée Sarah Banks, Mollick rappelle que dès les années 70, certains professeurs étaient impatients d’intégrer l’usage des calculatrices dans leurs classes, mais c’était loin d’être le cas de tous. La majorité regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiétude que leurs enfants n’oublient les bases des maths. Au début des années 80, les craintes des enseignants s’étaient inversées, mais très peu d’écoles fournissaient de calculatrices à leurs élèves. Il faut attendre le milieu des années 1990, pour que les calculatrices intègrent les programmes scolaires. En fait, un consensus pratique sur leur usage a été atteint. Et l’enseignement des mathématiques ne s’est pas effondré (même si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la généralisation des calculatrices).
Pour Mollick, l’intégration de l’IA à l’école suivra certainement un chemin similaire. « Certains devoirs nécessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinés à des examens écrits, permettront aux élèves d’acquérir les compétences rédactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intégrer l’IA au processus d’apprentissage sans compromettre le développement des compétences essentielles. Tout comme les calculatrices n’ont pas remplacé l’apprentissage des mathématiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensée critique. Cela prendra peut-être du temps, mais nous y parviendrons », explique Mollick, toujours optimiste.
Pourquoi faire des devoirs quand l’IA les rend obsolètes ?Mais l’impact de l’IA ne se limite pas à l’écriture, estime Mollick. Elle peut aussi être un vulgarisateur très efficace et ChatGPT peut répondre à bien des questions. L’arrivée de l’IA remet en cause les méthodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succès escompté. « Les cours magistraux ont tendance à reposer sur un apprentissage passif, où les étudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la résolution de problèmes ni la pensée critique. Dans ce format, les étudiants peuvent avoir du mal à retenir l’information, car leur attention peut facilement faiblir lors de longues présentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des différences et des capacités individuelles, ce qui conduit certains étudiants à prendre du retard tandis que d’autres se désintéressent, faute de stimulation ». Mollick est plutôt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les étudiants à participer au processus d’apprentissage par le biais d’activités telles que la résolution de problèmes, le travail de groupe et les exercices pratiques. Dans cette approche, les étudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une méthode que plusieurs études valorisent comme plus efficaces, même si les étudiants ont aussi besoin d’enseignements initiaux appropriés.
La solution pour intégrer davantage d’apprentissage actif passe par les classes inversées, où les étudiants doivent apprendre de nouveaux concepts à la maison (via des vidéos ou des ressources numériques) pour les appliquer ensuite en classe par le biais d’activités, de discussions ou d’exercices. Afin de maximiser le temps consacré à l’apprentissage actif et à la pensée critique, tout en utilisant l’apprentissage à domicile pour la transmission du contenu.
Pourtant, reconnaît Mollick, l’apprentissage actif peine à s’imposer, notamment parce que les professeurs manquent de ressources de qualité et de matériel pédagogique inversé de qualité. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe où des tuteurs IA personnalisés viendraient accompagner les élèves, adaptant leur enseignement aux besoins des élèves tout en ajustant les contenus en fonction des performances des élèves, à la manière du manuel électronique décrit dans L’âge de diamant de Neal Stephenson, emblème du rêve de l’apprentissage personnalisé. Face aux difficultés, Mollick à tendance à toujours se concentrer « sur une vision positive pour nous aider à traverser les temps incertains à venir ». Pas sûr que cela suffise.
Dans son article d’août 2023, Mollick estime que les élèves vont bien sûr utiliser l’IA pour tricher et vont l’intégrer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question à laquelle nous allons devoir répondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolètes ?
Perturbation de l’écriture et de la lectureMollick rappelle que la dissertation est omniprésente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacité à raisonner et à structurer son raisonnement. Le problème, c’est que les dissertations sont très faciles à générer avec l’IA générative. Les détecteurs de leur utilisation fonctionnent très mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans écrans, nous n’avons plus de moyens pour détecter si un travail est réalisé par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte à grignoter beaucoup de temps d’apprentissage.
Mais pour Mollick, les écoles et les enseignants vont devoir réfléchir sérieusement à l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des références ou des explications ? Qu’est-ce qui peut-être autorisé et comment les utiliser ?
Pour les étudiants du supérieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, à condition que les modalités d’utilisation et les consignes données soient précisées. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.
Mollick rappelle qu’une autre activité éducative primordiale reste la lecture. « Qu’il s’agisse de rédiger des comptes rendus de lecture, de résumer des chapitres ou de réagir à des articles, toutes ces tâches reposent sur l’attente que les élèves assimilent la lecture et engagent un dialogue avec elle ». Or, l’IA est là encore très performante pour lire et résumer. Mollick suggère de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthèses… Pas sûr que la perspective apaise la panique morale qui se déverse dans la presse sur le fait que les étudiants ne lisent plus. Du New Yorker (« Les humanités survivront-elles à ChatGPT ? » ou « Est-ce que l’IA encourage vraiement les élèves à tricher ? ») à The Atlantic (« Les étudiants ne lisent plus de livres » ou « La génération Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les étudiants ne lisent plus c’est parce que les compétences ne sont plus valorisées nulles part), la perturbation que produit l’arrivée de ChatGPT dans les études se double d’une profonde chute de la lecture, qui semble être devenue d’autant plus inutile que les machines les rendent disponibles. Mêmes inquiétudes dans la presse de ce côté-ci de l’Atlantique, du Monde à Médiapart en passant par France Info…
Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi très bien résoudre les problèmes et exercices de math comme de science.
Pour Mollick, comme pour bien des thuriféraires de l’IA, c’est à l’école et à l’enseignement de s’adapter aux perturbations générées par l’IA, qu’importe si la société n’a pas demandé le déploiement de ces outils. D’ailleurs, soulignait-il très récemment, nous sommes déjà dans une éducation postapocalyptique. Selon une enquête de mai 2024, aux Etats-Unis 82 % des étudiants de premier cycle universitaire et 72 % des élèves de la maternelle à la terminale ont déjà utilisé l’IA. Une adoption extrêmement rapide. Même si les élèves ont beau dos de ne pas considérer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’être humain est doué pour trouver comment se soustraire ce qu’il ne souhaite pas faire et éviter l’effort mental. Et plus les tâches mentales sont difficiles, plus nous avons tendance à les éviter. Le problème, reconnaît Mollick, c’est que dans l’éducation, faire un effort reste primordial.
Dénis et illusionsPourtant, tout le monde semble être dans le déni et l’illusion. Les enseignants croient pouvoir détecter facilement l’utilisation de l’IA et donc être en mesure de fixer les barrières. Ils se trompent très largement. Une écriture d’IA bien stimulée est même jugée plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste à revenir à l’écriture en classe, ce qui nécessite du temps qu’ils n’ont pas nécessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.
Mais les élèves aussi sont dans l’illusion. « Ils ne réalisent pas réellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». Après tout, ils reçoivent des conseils et des réponses de l’IA qui les aident à résoudre des problèmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les étudiants sont conscients que leur stratégie de devoirs diminue leur note à l’examen… ils en déduisent, de manière logique, que toute stratégie d’étude augmentant leur note à un devoir augmente également leur note à l’examen ». En fait, comme le montre une autre étude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance à baisser de 17% en moyenne quand les élèves sont laissés seuls avec l’outil. Par contre, quand ils sont accompagnés pour comprendre comment l’utiliser comme coach plutôt qu’outil de réponse, alors l’outil les aide à la fois à améliorer leurs notes aux devoirs comme à l’examen. Une autre étude, dans un cours de programmation intensif à Stanford, a montré que l’usage des chatbots améliorait plus que ne diminuait les notes aux examens.
Une majorité de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, réfléchir à des idées, rafraîchir ses connaissances, obtenir un retour, des conseils… Mais c’est peut-être oublier de sa part, d’où il parle et combien son expertise lui permet d’avoir un usage très évolué de ces outils. Ce qui n’est pas le cas des élèves.
Encourager la réflexion et non la remplacerPour que les étudiants utilisent l’IA pour stimuler leur réflexion plutôt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-être va-t-il falloir nous intéresser aux professeurs, pour l’instant laissés bien dépourvus face à ces nouveaux outils.
Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages américains, trois quart des enseignants utiliseraient désormais l’IA dans leur travail, mais nous connaissons encore trop peu les méthodes efficaces qu’ils doivent mobiliser. Une étude qualitative menée auprès d’eux a montré que ceux qui utilisaient l’IA pour aider leurs élèves à réfléchir, pour améliorer les explications obtenaient de meilleurs résultats. Pour Mollick, la force de l’IA est de pouvoir créer des expériences d’apprentissage personnalisées, adaptées aux élèves et largement accessibles, plus que les technologies éducatives précédentes ne l’ont jamais été. Cela n’empêche pas Mollick de conclure par le discours lénifiant habituel : l’éducation quoiqu’il en soit doit s’adapter !
Cela ne veut pas dire que cette adaptation sera très facile ou accessible, pour les professeurs, comme pour les élèves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le résultat« . Or, l’IA fait à tous la promesse inverse. En matière d’éducation, cela risque d’être dramatique, surtout si nous continuons à valoriser le résultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre méritocratie actuelle. C’est peut-être par là qu’il faudrait d’ailleurs commencer, pour résoudre l’IApocalypse éducative…
Pour Mollick cette évolution « exige plus qu’une acceptation passive ou une résistance futile ». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intégrante du paysage éducatif, nos priorités doivent évoluer. L’objectif n’est pas de déjouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour améliorer l’éducation tout en atténuant ses inconvénients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour créer un environnement d’apprentissage plus efficace, plus équitable et plus stimulant pour tous ». Plus facile à dire qu’à faire. Expérimenter prend du temps, trouver de bons exercices, changer ses pratiques… pour nombre de professeurs, ce n’est pas si évident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former. La proposition d’Anthropic de produire une IA dédiée à l’accompagnement des élèves (Claude for Education) qui ne cherche pas à fournir des réponses, mais produit des modalités pour accompagner les élèves à saisir les raisonnements qu’ils doivent échafauder, est certes stimulante, mais il n’est pas sûr qu’elle ne soit pas contournable.
Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutôt comme Mollick et qui ont du temps pour s’occuper de leurs élèves, qui vont pouvoir faire des évaluations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supérieur en France, rapportait le Monde). Et les autres, plus circonspects sur les évolutions en cours, où de plus en plus souvent des élèves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA… On voit bien en tout cas, que la question de l’IA générative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des élèves, à charge à eux de s’en débrouiller.
Hubert Guillaud
La seconde partie est par là.
-
17:09
Fernando Quadro: Instalação do Certificado SSL no GeoNode
sur Planet OSGeoPrezado leitor,
Se você está trabalhando com o GeoNode e está tendo alguma dificuldade para gerar o certificado digital (SSL), vou detalhar como você pode fazer utilizando o Lets Encrypt. Vamos aos passos:
1. Instalar o certbot (para gerar o certificado)
> sudo apt install -y certbot
2. Parar o Nginx
> docker stop nginx4my_geonode
3. Gerar o certificado para o domínio desejado
> sudo certbot certonly -d fernandoquadro.com.br
O certbot irá gerar os arquivos privkey.pem e fullchain.pem na pasta /etc/letsencrypt/archive/fernandoquadro.com.br
4. Copiar os arquivos para o nginx no docker
No container do Ngnix existe a pasta /certificate_symlink, é nela que ficam armazenados os arquivos do certificado SSL. Você precisa então, substituir os arquivos que você criou com o certbot pelos que estão por default nessa pasta. Para isso, entre na pasta onde estão os arquivos que você gerou e execute o seguinte comando:
> docker cp fullchain.pem nginx4my_geonode:/certificate_symlink > docker cp privkey.pem nginx4my_geonode:/certificate_symlink
Após realizada a cópia confira se está tudo certo. Caso ele tenha criado com o nome fullchain1 ou privkey1, a sugestão é apagar os antigos e renomear os novos.
5. Alterar as variáveis no arquivo .env
Para finalizar é necessário que você altere as seguintes variáveis do seu arquivo .env para [https.] São elas:
– SITEURL
– NGINX_BASE_URL
– GEOSERVER_WEB_UI_LOCATION
– GEOSERVER_PUBLIC_LOCATIONLembre-se de alterar também as variávels [HTTP_HOST] (que ficará em branco) e [HTTPS_HOST:]
– [HTTPS_HOST=fernandoquadro.com.br]
Por último, lembre-se de setar as variaveis abaixo, para production:
– DOCKER_ENV=production
– LETSENCRYPT_MODE=production6. Reiniciar o Nginx
> docker start nginx4my_geonode
Agora é só abrir o navegador e verificar se deu tudo certo e seu GeoNode está com o [HTTPS] ativado.
Dica: Se precisar conferir o nome dos arquivos, a configuração dos arquivos pem, fica na pasta /etc/nginx no docker no arquivo nginx [https.available.conf]
-
16:19
Lutra consulting: QGIS 3.44 Launches 3D Globe View with Enhanced Performance
sur Planet OSGeoQGIS 3.44 now features a 3D Globe View with support for 3D Tiles and point clouds. Improved rendering precision and performance make planet-wide 3D mapping possible.
-
11:30
Does ecological offsetting really allow to achieve no net loss of biodiversity?
sur CybergeoSince 2016, the mitigation hierarchy in France, which requires projects with impacts on biodiversity to avoid, reduce and then offset these impacts, aims for no net loss of biodiversity. The offset measures taken in this framework must generate sufficient ecological gains, which implies that they are carried out on sites in bad ecological condition. In this article, we study the ecological context in which 1 153 offset measures were carried out between 2017 and 2021 in metropolitan France. To this end, using data on the "potential wilderness of metropolitan France", we compare the biophysical integrity scores of the selected sites on the one hand and the ecological quality scores, including an index of landscape connectivity around the sites, on the other hand, in relation to national scores. Our results show that 64% of the surface area of the offset sites is located in areas where the biophysical integrity score is higher than the French median, and that 40% is located in areas wh...
-
11:30
Représentations des risques d’inondation, adaptation et évacuation en Île-de-France
sur CybergeoL’étude des déterminants des représentations liées aux risques et leurs effets sur les niveaux de préparation des populations exposées conduit à des conclusions souvent contradictoires d’une étude de cas à une autre. De nombreuses théories et hypothèses concurrentes ont été formulées dans des disciplines différentes, mais aucune n’est parvenue à s’imposer empiriquement. La validation croisée des résultats est complexe et le champ des risk perception s’apparente souvent à une collection d’études de cas indépendantes et peu comparables. À partir d’une enquête par questionnaire sur les représentations liées au risque inondation à Paris et en Île-de-France sur un échantillon de grande taille (n=2976), cet article propose une réflexion théorique et méthodologique pour consolider le positionnement de la géographie dans le champ des représentations des risques, pour mieux démêler les facteurs sociaux et territoriaux. Les questions de recherche se structurent autour du rôle de l’exposition ...
-
11:30
Mark Monmonier, 2023, Comment faire mentir les cartes, Paris, Flammarion, 304 p.
sur CybergeoInitialement publié en 1991 et rapidement traduit en français (1993), Comment faire mentir les cartes de Mark Monmonier est un livre dont l’auteur admet lui-même qu’il n’a pas complètement atteint son objectif. Il voulait en faire un ouvrage pour le grand public et surtout pas un manuel étudiant. C’est pourtant, en France du moins, ce qu’il est devenu. La troisième édition, sortie aux États-Unis en 2018, a été traduite dès 2019 dans la collection Autrement de Flammarion. Cinq ans plus tard, le même éditeur ressort aujourd’hui cet ouvrage en format poche dans sa collection Champs/essais. Si les illustrations pâtissent de la réduction du format et de la qualité de la reprographie, le format et le prix le rendent plus accessible. Cela pourrait enfin lui ouvrir les portes du lectorat initialement visé : "Le lecteur intelligent et non-initié qui s’intéresse à la cartographie" (p.14).
Car, il faut le rappeler, et le titre nous le suggère, ce n’est pas d’un traité de cartographie dont il s’...
-
11:30
Les échanges fonciers agricoles, levier pour la transition agroécologique de l’élevage ?
sur CybergeoL’agriculture contribue aux dérèglements climatiques et à l’érosion de la biodiversité autant qu’elle en subit les conséquences Les pratiques agricoles évoluent pour y remédier, notamment à travers la transition agroécologique qui propose de combiner les savoirs de l’agronomie et de l’écologie. La dimension foncière (distribution et droits d’usage des parcelles) de ces pratiques est peu explorée par la recherche, en dépit de son caractère déterminant pour cette transition. Cet article examine les avantages et limites des échanges de foncier agricole pour la diminution des émissions de gaz à effet de serre et pour le maintien d’habitats favorables à la biodiversité, mais aussi pour les conditions de travail des agriculteurs. Il s’appuie sur l’analyse de l’élevage laitier dans la Zone Atelier Armorique, à partir d’entretiens auprès de services (para-)publics en charge du foncier agricole en Ille-et-Vilaine. Combinant des approches en écologie, en géographie et en droit, cette étude pr...
-
11:30
Hervé Théry, 2024, Amazone. Un monde en partage, Paris, CNRS Éditions, 229 p.
sur CybergeoAprès le Congo, le Tigre et l’Euphrate, le Mississippi et la Volga, voici l’Amazone. Ce livre est publié dans la collection Géohistoire d’un fleuve, dirigée par Thierry Sanjuan. Hervé Théry, grand spécialiste du Brésil et de l’Amérique latine, s’attaque à un véritable monument, le plus grand fleuve du monde, par la taille de son bassin, par son débit et par sa longueur même si, chiffres à la clé, il montre que ce dernier record est contesté par le Nil.
C’est un livre de facture classique que nous livre le géographe. Le style est précis, très clair, sans jargon. Hervé Théry expose des faits, donne des chiffres (et les compare avec d’autres avec une volonté didactique affichée), décrit des lieux avant de se livrer à des analyses et de pointer quelques enjeux majeurs. Citons-les tout de suite : le "partage" de cet immense territoire, les incendies, la déforestation, l’accessibilité et les voies de circulation, la mondialisation des problèmes amazoniens, les droits des peuples autochtone...
-
11:30
La passation des marchés publics : une entrée utile pour l’analyse des interactions spatiales dans l’espace français
sur CybergeoL’ouverture récente des données concernant la passation des marchés publics à l’échelle européenne permet d’accéder à des informations sur les acheteurs publics et sur les entreprises prestataires sélectionnées. Le « nettoyage » et géoréférencement de la base de données à l’échelle européenne Tenders Electronic Daily (TED) sur les marchés publics a permis de créer et mettre à disposition de tous une base à l’échelle du territoire français, la base French Open Public Procurement Award Notices (FOPPA). Cette base permet d’explorer de manière inédite les interactions entre des unités spatiales de différentes échelles. Elle offre la possibilité d’identifier les acteurs impliqués dans les marchés, leurs partenaires, ainsi que le type de marché, afin d’analyser et d’expliquer ces relations.
Dans cet article, nous illustrons les possibilités offertes par la base FOPPA, en produisant des analyses essentiellement descriptives des interactions, au prisme de la commande publique, aux échelles r... -
11:30
Searching for Data: Nature and Flow of Information Underlying Urban Wild Boar Management Policies. Bordeaux (France) as a Case Study
sur CybergeoNature in the city harbours a wide range of biodiversity. While some species are welcomed, others have settled in uninvited. This is the case with wild boar. The challenge of managing large urban wildlife is not only ecological but also cultural, political, and ethical. This study, driven by the general uncertainty surrounding the socio-ecological issues of coexistence with urban wild boar and potential solutions, explores and discusses the nature and flow of information underlying the specie’s management policies. Our approach is based on a field survey conducted in Bordeaux Metropolis, aimed at tracking the shared information between local stakeholders. The objectives are twofold: i) to gather and analyse existing data on urban wild boar, the problems generated by their presence in the city, and the management systems; ii) to model information flows between social groups facing the challenges of coexistence with wild boar or involved in their management. The study points to a lack...
-
11:30
Les micropolluants émergents dans les eaux littorales : représentations et enjeux de gestion d’un problème complexe. Le cas du Pays basque français
sur CybergeoLa qualité de l’eau du littoral basque français est un enjeu crucial pour les gestionnaires locaux. Parmi les dégradations qu’elle subit, les micropolluants représentent un défi majeur. Ces substances chimiques, aussi appelées polluants émergents, peuvent nuire à la santé humaine et à l’environnement malgré leur présence en faibles concentrations. Leur gestion est complexe en raison de leur diversité, de leurs origines multiples, d’une absence massive de réglementation et de la nécessité d’une approche globale et multi-niveaux pour réduire leur impact, ce qui en fait un "problème épineux". Cet article a pour objectif d’appréhender les dynamiques et les défis de la gestion de ces polluants en portant la focale sur les acteurs locaux et leurs représentations du problème. La gestion de l’eau implique divers acteurs publics et privés, chacun ayant des intérêts et des responsabilités variés. Pour cette étude, 65 acteurs ont été interrogés sur leurs visions de la situation locale et de la...
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:00
Mappery: Tube Map in Cross Stitch
sur Planet OSGeoEnclosure: [download]
Girl on the Net received this stunning embroidered tube map as a gift
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:31
Le jumeau concret
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueQuelque 150 personnes ont participé à la première édition de VirtualTER, fin mai à l’Université de Caen. Trois jours pour parler du jumeau numérique territorial, évoquer son potentiel et surtout coordonner des actions et fédérer des efforts. En effet, si tous s’accordent sur l’intérêt, beaucoup s’interrogent encore sur la manière d’agir : pas question de faire fausse route, alors que les investissements se raréfient !
Les conférences ont permis de découvrir les premiers développements en France, tels que le jumeau numérique de SNCF Réseau, les travaux de modélisation et simulation de CCR qui tendent au final vers un jumeau numérique pour la protection de l’assurabilité face aux catastrophes naturelles ou, à plus petite échelle, l’initiative de modélisation du territoire de Miquelon-Langlade (Saint-Pierre-et-Miquelon). L’étranger n’était pas oublié avec une matinée dédiée et le cas très apprécié de la ville de Montréal sur la réduction des îlots de chaleur.
Sur VirtualTER, notre rédaction a animé atelier sur les freins et les leviers à la mise en place d’un jumeau numérique territorial. Ce sera un point de départ pour notre enquête annuelle l’Observatoire du SIG à paraitre dans le prochain SIGMAG, en partenariat avec le CNIG, le Cerema, MINnD 2050 et Twin+. Que vous soyez une organisation publique ou privée, si vous avez un projet ou un développement de jumeau numérique territorial, contribuez à notre enquête en lien.
+ d'infos :
arcg.is/1GyS9z1
-
9:12
Mapping the Cultural Impact of Gentrification
sur Google Maps ManiaThe National Community Reinvestment Coalition (NCRC) has released an interactive map which visualizes the gentrification of American cities over the last 50 years. Cities are constantly evolving. But behind many urban developments lies a deeper story of community transformation - one that often comes with a negative cost for the original residents. The Displaced by Design interactive map is a
-
7:00
25 juin : DLA en fête !
sur Dans les algorithmesMercredi 25 juin à 18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e à Paris, pour fêter la première année d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et président de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la première année d’existence de DLA.
Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changé, nous nous interrogerons pour comprendre de quelle information sur le numérique avons-nous besoin, à l’heure où l’IA vient partout bouleverser sa place.
Venez en discuter avec nous et partager un verre pour fêter notre première bougie.
Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. Découvrez le programme !
-
6:31
Le globe de Coronelli et les cultures géographiques dans la France de Louis XIV
sur Cartographies numériques
Martin Vailly. Le monde au bout des doigts : François Le Large, le globe de Coronelli et les cultures géographiques dans la France de Louis XIV. Thèse soumise au jury pour approbation en vue de l’obtention du grade de Docteur en Histoire et Civilisation de l’European University Institute, 2020. [https:]] (mise en accès libre sur Hal en juin 2025).Cette thèse explore la constitution de cultures géographiques parmi les courtisans et les élites du royaume de France à la fin du règne de Louis XIV, entre 1680 et 1720 environ. L'analyse est principalement menée à partir de l’étude des globes terrestres de Vincenzo Coronelli, de leur circulation dans les cabinets curieux, ainsi qu’à partir des travaux de François Le Large, garde du globe du roi à Marly. Martin Vailly interroge deux espaces différents, mais pourtant complémentaires, de la pratique géographique : la cour de Louis XIV, où une paire de grands globes cosmographiques est exposé, et les différents lieux du travail savant que sont les bibliothèques, les cabinets ou encore les jardins. En analysant à la fois la constitution de savoirs géographiques, leur exposition sur les globes, leur acquisition et leur discussion par les curieux de géographie, il montre la place de ces connaissances dans la vie sociale, politique et culturelle du royaume de France.
À partir de l’étude de la persona savante et des travaux de François Le Large, il met en évidence le lien entre la constitution d’une culture géographique, et les jeux de positionnement et d’ascension sociale, dans une démarche qui s’inscrit dans l’histoire sociale des sciences et dans l’anthropologie historique des pratiques savantes. En reconstruisant les sociabilités curiales qui s’articulent tant autour du grand globe de Coronelli que de l’acquisition d’une culture géographique, il montre que le goût pour ces savoirs est un enjeu tant politique que mondain, qui caractérise le roi savant, le bon courtisan ou le gentilhomme éduqué. Cette thèse révèle ainsi l’importance de ces objets de distinction sociale que sont les globes en général, et les globes terrestres de Coronelli en particulier. Ils sont au cœur d’un tissu de sociabilités savantes, mondaines et politiques, et forgent les imaginaires géographiques de leurs possesseurs. L’étude détaillée de la surface du grand globe terrestre de Louis XIV, et de son analyse par François Le Large, montre en outre la place des savoirs géographiques dans la symbolique du règne louis-quatorzien. La surface du globe participe à sa manière aux « guerres de plume » qui opposent Louis XIV et ses rivaux. Elle met en scène et légitime les ambitions impériales d’un souverain présenté comme protecteur des arts et sciences, dans ce lieu privilégié de son pouvoir absolu qu’est le palais de Marly.
Pour compléter
Cartes et globes de Coronelli sur Gallica
Les globes qu'il a créé ont fait la renommée de Vincenzo Coronelli (1650-1718). Mais le moine franciscain a des centaines de cartes à son actif. La Bibliothèque nationale de France en conserve de nombreuses, notamment cette carte en deux plans-hémisphères assez originale assortie de diverses autres projections. Les sources de ces cartes et plans sont référencées à la page 447 de la thèse de Martin Vailly.Le Globe terrestre représenté en deux plans-hémisphères et en diverses autres figures par P. Coronelli (source : Gallica)
Offerts par le cardinal d’Estrées à Louis XIV, les globes réalisés en 1683 par le cosmographe vénitien Vincenzo Coronelli offrent une représentation synthétique de la Terre et du ciel. Objets de science et emblèmes du pouvoir, ces globes de 4 m de diamètre, exceptionnels par leur dimension, sont les deux pièces les plus monumentales conservées par la Bibliothèque nationale de France.
Les globes de Coronelli (source : Bibliothèque nationale de France)
A découvrir : « Les globes de Coronelli. Exposition virtuelle sur les globes du Roi soleil » (BNF). Aujourd'hui les Globes de Louis XIV sont installés à la BNF dans l'aile ouest de la bibliothèque François-Mitterrand. Il existe aussi des copies miniatures de ces globes à la Bibliothèque nationale de Vienne. Comme le montre Martin Vally dans sa thèse, il y a un parallèle à faire entre les bibliothèques et les globes qui sont des sources majeures de savoirs. Coronelli lui-même a consigné les principales informations dans un « Recueil des inscriptions des remarques historiques et géographiques qui sont sur le globe terrestre de Marly ». François Le Large, qui était le garde du globe de Coronelli, a transcrit les connaissances géographiques à travers ses « Explications pour les figures qui accompagnent la dédicace du globe terrestre de Louis XIV » que l'on peut considérer comme un véritable guide d'éducation géographique.
« Le garde du globe terrestre, François Le Large, entreprit la transcription de toutes les légendes et son travail, nécessaire déjà en 1710, a préservé certains textes qui allaient par la suite s’effacer. Il se lança dans l’explication des figures, dont certaines étaient traitées avec "la fantaisie du peintre" et rechercha les sources. Mais, plus qu’à une simple transcription, François Le Large se livre à une sévère analyse des éléments inscrits par Coronelli et lui reproche de ne pas mettre à jour sa cartographie. En effet, les travaux de l’Académie des sciences ont permis de multiplier les observations sur le terrain et de corriger beaucoup de positions géographiques. » (Exposition virtuelle sur les globes du Roi soleil, BNF).
Articles connexes
Un jeu de l'oie pour apprendre la géographie du royaume de France
Le monde en sphères. Une exposition virtuelle de la BnF
De la supériorité du globe sur la carte pour enseigner la géographie. Un vieux débat
Un outil immersif pour explorer les globes de la collection David RumseyL'histoire par les cartes : 18 globes interactifs ajoutés à la collection David Rumsey
Des cadres qui parlent : les cartouches sur les premières cartes modernes
Globes virtuels et applicatifs
-
2:00
Camptocamp: Camptocamp Partners with Lutra Consulting to Expand Mergin Maps Deployment
sur Planet OSGeoEnclosure: [download]
Camptocamp has joined forces with Lutra Consulting to support the wider adoption of Mergin Maps—an intuitive GIS tool for efficient field data collection. Learn how this partnership enhances fieldwork for teams with or without geomatics expertise. -
1:02
Sean Gillies: Bear training week 18 recap
sur Planet OSGeoWeek 18 was my biggest, most social, most fun, and most satisfying week yet. I did a gravel ride with a friend on Wednesday, hiked to the alpine tundra in Rocky Mountain National Park with my daughter on Thursday, ran in 35 °C heat on Friday, and then treated myself to a fast run up and down Horsetooth Mountain early this morning.
Outside of training, I quit taking Naproxen, continued passive and active heating training, and started seeing a physical therapist about my Achilles tendinopathy. I learned that part of the solution will be loading my calf muscles, but without lengthening the muscle and thus stressing the tendon. The therapist also reassured me that I can run when it feels good. I don't need a boot or crutches or anything like that.
Here are the numbers for the week:
20.3 miles running (and hiking)
14 hours, 59 minutes all training
4,187 feet D+ running (and hiking)
The hike to Flattop Mountain in Rocky was super fun. I loved the chance to spend all day with my adult kid and help her kick off a "couch to Fourteener" program. It was my first trip on foot this season to treeline and above, and I felt good. I was also impressed at how well my Salomon Ultra Glide shoes served on an alpine trail. I'll feel confident wearing them at Never Summer or The Bear, as long as conditions are mostly dry.
A human sitting on a rock overlook, facing a gorge and granite peaks with some stripes of snow.
A smooth trail through rocks and tundra well above treeline.
Yesterday (Saturday) I went for a nice long bike ride in the heat of the day. Today I got out of bed early to run in the coolest part of the day. I took just one handheld bottle (2 scoops of Tailwind) and hiked and ran to Horsetooth Mountain via the Spring Creek Trail. I went pretty hard and was just a little off my personal bests (from 2021) for some of the long uphill segments. I'm very excited about this. Consistent training, even if not in my favorite form, has been working.
Coming off the summit, I met a friend and chatted for a while, and then headed down, down, down to my car. I had to take a short walking break after a sharp rock strike on one of my heels, but was otherwise able to run three miles to the bottom without riding my brakes.
Next week is a scheduled rest week. I plan to do some high intensity workouts of shorter duration, some recovery rides, short easy runs, yoga, Pool HIIT, and sauna sessions.
Mount Milner and a green valley south of Horsetooth Mountain.
-
19:20
La carte, objet éminemment politique. Mobilisation contre la vente de terres publiques dans l'Ouest des États-Unis
sur Cartographies numériques
Source : 250+ million acres of public lands eligible for sale in SENR bill [Plus de 250 millions d'acres de terres publiques éligibles à la vente dans le projet de loi de réconciliation budgétaire SENR], The Wilderness Society, 13 juin 2025.Depuis 1935, la Wilderness Society mène des efforts pour protéger les étendues sauvages de l'Ouest américain. Cette société a été à l’avant-garde de presque tous les combats en matière de défense des terres publiques. Aujourd'hui elle tire la sonnette d'alarme face au projet de loi de réconciliation budgétaire du Comité sénatorial de l'énergie et des ressources naturelles, publié le 14 juin 2025. Ce texte comprend une série de mesures extraordinaires visant à privatiser les terres fédérales et à promouvoir la domination énergétique au détriment des terres et des ressources publiques.
Le projet de loi impose la vente arbitraire d'au moins 2 millions d'acres de terres du Service des forêts et du Bureau de gestion des terres dans 11 États de l'Ouest au cours des cinq prochaines années, et il donne aux secrétaires de l'Intérieur et de l'Agriculture une large latitude pour choisir les endroits qui doivent être vendus.
Terres publiques susceptibles d'être cédées dans l'Ouest des États-Unis (source : The Wilderness Society)
Plus de 250 millions d'acres de terres publiques sont éligibles à la vente dans le cadre de ce projet de loi, y compris des zones de loisirs, des zones d'étude de la nature sauvage et des zones sans routes inventoriées, des habitats fauniques essentiels et des couloirs de migration de gros gibier. Ce projet de loi prévoit ce qui est probablement la plus grande vente de terres publiques nationales de l'histoire moderne afin de réduire les impôts des plus riches du pays. Il troque l'accès des Américains ordinaires aux loisirs de plein air contre un avantage à court terme qui profite de manière disproportionnée aux privilégiés et aux personnes bien connectées. La version mise à jour du projet de loi du 14 juin autorise la vente des terres bénéficiant de permis de pâturage. Bien que les terres, dont les « droits existants valides » ne sont pas définis, soient toujours exclues, cette expression englobe désormais les droits fonciers tels que les baux pétroliers et gaziers, les droits de passage ou les concessions minières perfectionnées.
Ce projet de loi expose les États et les collectivités locales, relativement démunis, à des conflits d'enchères ouverts face à des intérêts commerciaux fortunés. Il ne confère pas non plus aux nations tribales souveraines le droit de préemption pour les appels d'offres sur des terres, même pour des zones faisant partie de leurs territoires traditionnels ou contenant des sites sacrés. Les terres des monuments nationaux pourraient également être menacées par cette proposition. Dans un avis du ministère de la Justice publié la semaine dernière, l'administration Trump s'est arrogé le pouvoir juridique sans précédent de révoquer la protection des monuments nationaux. Si elle tentait d'appliquer cette décision, 5,5 millions d'hectares supplémentaires de terres publiques les plus précieuses pourraient être menacés de vente.
La disposition relative à la vente de terrains publics se présente comme un moyen de créer davantage de logements, mais elle manque de garanties pour garantir l'utilisation des terrains à cette fin, sans mécanisme de contrôle de l'application des clauses restrictives et avec un large pouvoir discrétionnaire du Secrétaire pour déterminer ce qui constitue un logement ou une « infrastructure destinée à répondre aux besoins locaux en matière de logement ». Les recherches suggèrent que très peu de terrains gérés par le BLM et l'USFS sont réellement adaptés à l'habitat.
Les agences foncières disposent déjà de moyens pour identifier les terres publiques destinées à des usages tels que le logement, si cela répond aux besoins de la communauté. L'élaboration d'une nouvelle méthode pour forcer une telle « cession » dans le cadre du processus de réconciliation budgétaire crée un précédent susceptible de liquider rapidement d'importantes portions de terres américaines précieuses à l'avenir, dès que les politiciens auront un projet à financer. Le site invite à contacter des sénateurs afin de s’opposer au projet de loi de réconciliation. La mobilisation est relayée par d'autres organisations de conservation à but non lucratif telles que le Western Watersheds Project (WWP), qui œuvre pour la protection et la restauration de la faune et des bassins versants dans tout l'Ouest américain.- Consulter la carte interactive (à voir aussi par ici)
- Les terres publiques menacées de vente (pdf)
- Données cartographiques et méthodologie
- Texte du projet de loi du SENR
- Principales dispositions du texte du projet de loi SENR (résumé)
Articles connexes
Cartes et données sur les parcs nationaux aux Etats-Unis
Quand l'Administration Trump fait disparaître des données sur les sites gouvernementaux
La carte, objet éminemment politique : quand Trump dessine sa carte du monde
La carte, objet éminemment politique : quand Trump arrange à sa façon la trajectoire prévue du cyclone Dorian
La carte, objet éminemment politique : le monde vu à travers les tweets de Donald Trump
-
11:00
Mappery: Points of Interest
sur Planet OSGeoJami posted this from a chilly Mexico (who knew?)
-
8:55
3D - Déambulation Du Dimanche - #54
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Pour cette Ddéambulation Du Dimanche (3D), je vous propose de partir à la montagne avec la Red Bull X-Alps. Cette course est unanimement reconnue comme la course d'aventure la plus difficile au monde. S'étalant sur 13 jours, elle met les athlètes à l'épreuve à travers une combinaison intense de randonnée, de course à pied et de parapente, traversant les majestueuses Alpes autrichiennes et passant par des "Turnpoints" en Autriche, en Suisse, en France et en Italie. La nature intrinsèquement accidentée et l'éloignement du parcours rendent son suivi et sa couverture médiatique impraticables via les techniques de diffusion traditionnelles. Face à ce défi, une solution technologique innovante s'est imposée pour rapprocher cette épreuve hors normes du public : la cartographie 3D.
Un Partenariat Technologique au Sommet
La collaboration d'Esri avec la Red Bull X-Alps n'est pas nouvelle; elle a débuté en 2021, s'est poursuivie en 2023 et se renouvelle en 2025, chaque édition marquant une intégration toujours plus poussée des technologies Esri et une collaboration renforcée. Ce partenariat est un exemple intéressant des capacités web 3D d'Esri dans un cadre réel et de haute intensité. Il démontre en particulier comment le SDK ArcGIS JavaScript ArcGIS est exploité pour permettre un suivi de course immersif et en temps réel, dont la robustesse technique n'a d'égale que son attrait visuel.
L'un des objectifs clés de cette collaboration est de transformer le public en spectateurs engagés et de les diriger vers l'application web 3D Live Tracking.
Un suivi des positions en Live
Au centre de cette expérience de suivi numérique se trouve l'application "3D Live Tracking", intégralement propulsée par Esri. Pour la visualisation des mouvements des athlètes et de l'environnement alpin, le SDK JavaScript ArcGIS est la technologie principalement utilisée.
Mais l'écosystème technologique déployé par Esri va bien au-delà de la simple visualisation. D'autres composants majeurs sont mis à contribution :
- ArcGIS Velocity : pour la gestion et l'analyse des données en temps réel.
- Les fonds de carte et le service d'élévation d'ArcGIS Location Platform : des ressources fondamentales pour stocker, diffuser et représenter avec précision la topographie complexe et les détails géographiques du parcours.
Immersion dans la course et sécurisation des athlètes
La carte de suivi en direct en 3D ne se contente pas de rendre le parcours vivant avec des détails riches ; elle offre une fonctionnalité particulièrement innovante : la possibilité de basculer sur la perspective des athlètes eux-mêmes. Cela crée une expérience immersive unique, permettant aux spectateurs de "voir ce que voient" les compétiteurs.
L'application ArcGIS "3D Live Tracker" affiche en temps réel les données de course, des métriques clés et même les flux de médias sociaux des athlètes. De manière inédite, les utilisateurs peuvent désormais expérimenter les conditions météorologiques à l'emplacement précis de l'athlète, directement affichées dans la scène 3D.
Au-delà de l'expérience du spectateur, la technologie Esri joue un rôle crucial dans la sécurité des athlètes et l'intégrité sportive de la course. Elle est utilisée pour :
- Modéliser et simuler les conditions météorologiques le long du parcours.
- Vérifier les infractions à l'espace aérien, une considération essentielle pour une course impliquant le parapente.
Ce partenariat est une illustration intéressante de la manière dont la diffusion de compétition sportive peut inclure les données géospatiales et les visualisations 3D, qu'il s'agisse d'événements concentrés dans un stade ou d'événements géographiquement distribués comme la Red Bull X-Alps.
La vidéo ci-dessous vous donne un aperçu de l'ergonomie de l'application 3D Live Tracker :
Pour ceux qui souhaitent suivre cette aventure épique et découvrir par eux-mêmes la puissance de cette technologie, le suivi en Live est accessible ici du 15 au 27 juin.
Vous trouverez également plus de détails technique sur cette application dans cet article du blog CodeTheMAp.
-
7:23
Climate Change Tracker, un tableau de bord pour étudier le changement climatique global
sur Cartographies numériques
La plateforme Climate Change Tracker vise à fournir des tableaux de bord interactifs, des visualisations, des données et des informations fiables et facilement accessibles sur le changement climatique à l'échelle mondiale.
1) Un tableau de bord pour sensibiliser un large public
L'objectif est de fournir des informations en temps réel pour une action coordonnée et une éducation du public. Il s'agit également de sensibilier les décideurs politiques impliqués dans les négociations de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC) et les acteurs de l'atténuation et de l'adaptation au changement climatique. Climate Change Tracker prévoit de mettre à jour les indicateurs clés plusieurs fois par an, offrant ainsi une vision actualisée des indicateurs du changement climatique.
Indicateurs du changement climatique mondial (source : Climate Change Tracker)
Les différents tableaux de bord mis à disposition sont les suivants :- Indicateurs du changement climatique mondial
- Réchauffement climatique
- CO2 Dioxyde de carbone
- CH4 Méthane
- N2O Protoxyde d'azote
Anomalie de la température moyenne annuelle observée (source : Climate Change Tracker)
Élévation annuelle moyenne du niveau de la mer à l'échelle mondiale (source : Climate Change Tracker)
2) Référence scientifique
Un groupe international de 61 scientifiques issus de 17 pays a produit une troisième mise à jour des indicateurs clés de l’état du système climatique tels que définis dans l’évaluation du 6e rapport de synthèse sur le changement climatique du GIEC (AR6), en s’appuyant sur les éditions précédentes de 2023 et 2024 :Forster et al. (2025). Indicators of Global Climate Change 2024: annual update of key indicators of the state of the climate system and human influence [Indicateurs du changement climatique mondial 2024 : mise à jour annuelle des indicateurs clés de l'état du système climatique et de l'influence humaine]. Earth System Science Data, vol. 17, 6, 2641–2680, [https:]] (article en libre accès)
Les auteurs de l'article évaluent les émissions, les concentrations, les températures, les transferts d’énergie, les bilans radiatifs et le rôle de l’activité humaine. Bien que la variabilité naturelle du climat ait également joué un rôle, ils concluent que les températures record observées en 2024 ont été dominées par l’activité humaine et le budget carbone qui reste par rapport au seuil de 1,5° C n'a jamais été aussi réduit. La mise à jour 2024 comprend deux indicateurs supplémentaires : l’élévation du niveau moyen mondial de la mer et les précipitations terrestres mondiales. Entre 2019 et 2024, le niveau moyen mondial de la mer a également augmenté d’environ 26 mm, soit plus du double du taux à long terme de 1,8 mm par an observé depuis le début du XXe siècle. Les précipitations terrestres mondiales ont quant à elles affiché une grande variabilité interannuelle en raison d’El Niño.
Parmi les autres conclusions clés, on peut citer :
- Les émissions de gaz à effet de serre, provenant principalement de la combustion de combustibles fossiles, mais également liées à la déforestation, restent à un niveau élevé et persistant.
- Les concentrations de gaz à effet de serre dans l’atmosphère mondiale continuent d’augmenter.
- L’amélioration de la qualité de l’air réduit simultanément la force du refroidissement par aérosol.
- Le déséquilibre énergétique de la Terre continue de s’accroître, avec des flux de chaleur sans précédent dans les océans de la Terre.
- Les températures moyennes observées à la surface de la planète continuent d’augmenter.
- Le réchauffement climatique d’origine humaine continue d’augmenter à un rythme sans précédent dans les données instrumentales.
(source : Forster et al., 2025, licence Creative Common)
3) Sources des données et téléchargement
La publication de ces données actualisées et librement accessibles, qui se fondent sur les méthodologies du GIEC, offre un moyen de suivre et de surveiller l’influence humaine sur le climat entre la publication des rapports du GIEC. Dans les tableaux de bord, toutes les données sont traçables jusqu'à leurs sources.
Le calcul du budget carbone est disponible sur Github (Lamboll et Rogelj, 2025). Le code et les données utilisés pour produire les autres indicateurs sont disponibles dans les référentiels (Smith et al., 2025b). Toutes les données sont disponibles sur Zenodo (Smith et al., 2025a). Les données sont fournies sous licence CC-BY 4.0.
Les villes du Sud à croissance rapide sont « remarquablement sous-représentées » dans la recherche sur le climat (CarbonBrief). Selon une analyse de plus de 50 000 études, les recherches sur le changement climatique dans les zones urbaines sont orientées vers les grandes villes bien établies du Nord. La recherche, publiée dans Nature Cities, utilise la recherche par mots-clés et des méthodes d’apprentissage automatique pour produire une base de données d’études sur le changement climatique et les villes publiées entre 1990 et 2022.
Pour compléter« Limiter le réchauffement climatique à 1,5 °C est désormais impossible » (Le Monde). Selon un collectif de scientifiques, l’objectif fixé par l’accord de Paris en 2015 ne pourra pas être atteint en raison de l’incapacité des pays à diminuer les émissions de gaz à effet de serre.
« Niveau des mers, émissions… Plusieurs indicateurs climatiques dans le rouge, alerte une étude » (La Croix)
Articles connexes
Climate Change Explorer, un outil cartographique pour visualiser les projections climatiques
Climate Trace, une plateforme pour visualiser et télécharger des données sur les émissions de gaz à effet de serre (GES)
Data visualisation sur la responsabilité et la vulnérabilité par rapport au changement climatique
La France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
Les plus gros émetteurs directs de CO? en France
Qualité de l'air et centrales thermiques au charbon en Europe : quelle transition énergétique vraiment possible ?
Quand la lutte contre les émissions de CO? passe par la dénonciation des entreprises les plus concernées
Cartographie des projets de combustibles fossiles : comment réduire le risque des "bombes à carbone" ?
Calculer le bilan carbone de nos déplacements aériens
-
11:00
Mappery: Gare de Lyon
sur Planet OSGeoJeremy Garniaux shared these pics from a display in the forecourt of the Gare De Lyon. “A beautiful series of almost MapsInTheWild was waiting for me this morning on the forecourt of the Gare de Lyon this morning, as I arrived.”
I wonder how they chose the images for this display?
-
9:16
Quelles sont les surfaces qui pourraient être reboisées dans le monde ? (Reforestation Hub)
sur Cartographies numériquesL'organisation Nature Conservancy a publié une nouvelle carte interactive identifiant 195 millions d'hectares dans le monde où la couverture forestière pourrait être restaurée. Le reboisement de ces zones pourrait permettre de capter 2,2 milliards de tonnes de CO? par an, soit l’équivalent de la suppression de 481 millions de véhicules de tourisme circulant pendant un an.
La carte interactive du reboisement
La carte du Reforestation Hub permet de découvrir pour chaque pays quelle quantité de terres pourrait être reboisée, combien de tonnes de CO? cela permettrait de capturer chaque année et combien cela représente en émissions annuelles de véhicules de tourisme.
Carte du reboisement global avec les estimations (Reforestation Hub)La carte montre les estimations au niveau juridictionnel de la zone présentant une opportunité potentielle de reboisement (en unités d’hectares) et la quantité de carbone que ces zones pourraient capturer (en unités de tonnes métriques, ou mégagrammes, de dioxyde de carbone par an). La carte s'appuie sur de nouvelles recherches menées par le programme Futur Ecosystems for Africa de l'Université du Witwatersrand. L'étude a identifié les zones où la restauration des arbres pourrait apporter un maximum de bénéfices climatiques sans nuire aux communautés ni aux écosystèmes. Toutes les terres sélectionnées pour le reboisement devaient répondre à trois critères clés :
- Potentiel de couverture arborée élevé : seules les zones capables de supporter une couverture arborée de 60 % ou plus ont été prises en compte.
- Utilisation actuelle des terres : les zones déjà boisées ou couvertes en permanence par l'eau (en 2020) ont été exclues.
- Mesures de précaution : les terres agricoles ont été exclues pour éviter les impacts sur la sécurité alimentaire.
En sélectionnant le bouton « Voir le site américain » , vous pouvez explorer le potentiel de reforestation aux Etats-Unis à l'échelle des comtés. Cette carte est basée sur des études menées par The Nature Conservancy.
Références et données scientifiques
Fesenmyer et al. (2025). Addressing critiques refines global estimates of reforestation potential for climate change mitigation [La réponse aux critiques permet d'affiner les estimations mondiales du potentiel de reforestation pour l'atténuation du changement climatique]. Nature Communications. [https:]]
L'article montre que la reforestation est une solution rentable, évolutive et éprouvée face au changement climatique. Les solutions climatiques naturelles, comme la reforestation, représentent des moyens de collaborer avec la nature pour contribuer à limiter la crise climatique. Globalement, elles correspondent à des mesures de protection, de restauration et d'amélioration de la gestion des terres. À l'échelle mondiale, les solutions climatiques naturelles peuvent fournir jusqu'à 11,3 milliards de tonnes d'équivalent CO2 par an, soit un tiers des réductions d'émissions de gaz à effet de serre nécessaires à la stabilisation du climat.
Il est important de comprendre l'ampleur globale des opportunités de reboisement, ainsi que leurs concentrations, pour soutenir l'élaboration des politiques et mobiliser les ressources vers les zones présentant les plus grandes opportunités. De nouvelles recherches menées par des scientifiques de The Nature Conservancy et d'autres institutions de premier plan fournissent des estimations « à la juste mesure » des zones où le reboisement est le plus réalisable, compte tenu des limites écologiques, des compromis entre biodiversité et disponibilité de l'eau, de la concurrence pour l'utilisation des terres, ainsi que des besoins et des droits des communautés locales. Ces nouvelles recherches identifient jusqu'à 195 millions d'hectares de terres présentant des opportunités de reboisement. La restauration des forêts sur l'ensemble de cette zone permettrait de séquestrer 2,2 milliards de tonnes d'équivalent CO2 par an.
Les auteurs identifient neuf scénarios d'opportunités de reboisement avec des objectifs variés. Tous les scénarios commencent par une carte d'opportunités de reboisement de base qui applique plusieurs mesures de protection afin de fournir une estimation prudente des zones où le reboisement est à la fois réalisable et susceptible de nécessiter peu de compromis. Il s'agit de la carte globale d'opportunités de reboisement sous contrainte. Les autres scénarios appliquent des contraintes supplémentaires pour vous aider à évaluer différentes motivations ou facteurs d'intérêt.
La carte des opportunités de reboisement sous contrainte totale diffère des autres cartes mondiales de reboisement sur trois points principaux. Premièrement, elle définit la forêt de manière beaucoup plus conservatrice, comme des zones pouvant accueillir 60 % ou plus de couvert forestier. De ce fait, les cartes présentées ici n'identifient pas les opportunités de reboisement dans les prairies, les savanes, les forêts ou autres écosystèmes où le potentiel de couvert forestier est limité par les précipitations, les incendies ou d'autres facteurs. Deuxièmement, elle utilise des cartes d'occupation et d'utilisation des terres datant de 2020 pour représenter les zones où le reboisement pourrait être concrètement mis en œuvre. Par exemple, les cartes n'identifient pas les opportunités de reboisement dans les zones déjà boisées ou présentant des points d'eau permanents en 2020. Enfin, la carte des opportunités de reboisement sous contrainte est prudente et applique des mesures de protection pour minimiser les effets pervers potentiels du reboisement. Par exemple, les cartes n’identifient pas les terres agricoles comme des opportunités de reboisement en raison des préoccupations concernant les impacts sur l’approvisionnement alimentaire et n’identifient pas les opportunités de reboisement dans les zones où la couverture forestière peut exacerber, plutôt que réduire, le réchauffement climatique en raison des changements d’albédo.
En quoi cette carte est-elle différente des cartes précédentes ? Les cartes mondiales de reforestation précédemment élaborées ont été critiquées pour plusieurs raisons liées à la manière dont elles définissaient la notion de forêt, aux données utilisées pour la cartographie et à l'absence de garanties que les zones cartographiées pour le reboisement aient un impact positif réel sur le climat. L'analyse a cherché à répondre à ces critiques et à présenter des estimations plus prudentes de la superficie mondiale où le reboisement pourrait être pertinent.
Les ensembles de données SIG de tous les scénarios à une résolution de 1 km sont disponibles en téléchargement sur FigShare (1,43 Go).
Pour compléter
« Face aux défis posés par le réchauffement climatique, nous pouvons trouver de la force dans la nature – et les uns dans les autres – pour développer des communautés résilientes au climat » (The Nature Conservancy)
Future Ecosystems for Africa permet aux scientifiques africains d’utiliser leurs données et leurs connaissances pour éclairer les décisions de développement importantes sur le continent.
« Climat. L’Afrique émet dorénavant plus de dioxyde de carbone qu’elle n’en absorbe » (Courrier international).
Articles connexes
Cartes et données sur les forêts en France et dans le monde
La carte de la hauteur de la canopée dans le monde (NASA Earth Observatory)
Comment la canopée urbaine de Los Angeles rend les inégalités visibles
Le rôle des arbres urbains dans la réduction de la température de surface des villes européennes
Cartographie des arbres dans les zones arides et semi-arides de l'Afrique de l'ouest
Cartes et données sur la canicule et les incendies de forêt en France et en Europe
Le rôle des arbres urbains dans la réduction de la température de surface des villes européennes
Incendies en Amazonie : les cartes et les images auraient-elles le pouvoir d'attiser la polémique ?
Méga feux en Australie : une conséquence du réchauffement climatique, mais attention aux fausses images !
Cartographier les arbres. Entre visions esthétiques et enjeux environnementaux
-
9:16
Google's AI Hurricane Predictor
sur Google Maps ManiaGoogle has launched a new interactive map, Weather Lab: Cyclones, which shows AI-generated tropical cyclone forecasts and allows you to compare how different AI forecast models perform in comparison to traditional physics-based models.If you’ve ever wondered how different forecasting models "see" a storm before it hits, or how accurate those predictions really are, Weather Lab:
-
2:00
EOX' blog: ESA Living Planet Symposium, Vienna 2025
sur Planet OSGeoWelcome to the Living Planet Symposium 2025 in our hometown Vienna! In an effort to help meet the event's sustainability goals, we are refraining from distributing printed materials. Our handouts are instead provided as the following digital files and websites. Find us at our booth F13, level 0 or ... -
1:00
Nick Bearman: Becoming a Dad
sur Planet OSGeoThis blog post isn’t about GIS, mapping, conferences or travel, so feel free to skip it if you want. However, if you’re interested in my experiences of becoming a Dad, read on. Be warned - it is quite a long post (~3000 words, ~6 pages) and contains details about birth, C-sections and medical treatment.
Picture of Baby, first of many!This is the story of bringing our son, Baby Bearman, into the world.
I’m calling him Baby Bearman here a) because we don’t have a name for him yet (you have 6 weeks after birth to decide, and we have been rather preoccupied recently!) and b) I don’t want this blog post to be the first thing that comes up when people search for his name!
Baby Bearman was due on Wed 25th June 2025, but ended up arriving early on Sun 8th June 2025, 2 and a half weeks early (at 37 weeks 4 days). All of us (Baby, Mum and Dad) are now doing well, although it has been quite a struggle at times.
Tue 3rd JuneWe start our journey at our antenatal appointment on Tue 3rd June, my wife, Louise’s blood pressure was borderline high. The reading was just under the threshold for them to worry about, so the midwife said to keep an eye on it and phone if we have questions.
Sun 8th June ~10amOn Sunday, Louise’s blood pressure was still a little high, so we phoned up the maternity advice line at 10am and they advised us to come in. Things started speeding up then, and happened very quickly, compared to the last 37 weeks /8 months!
We came in, and Louise had a blood pressure series done, where her blood pressure was taken every 5 minutes for half an hour. It was a bit high, so they sent blood and urine off for additional tests, and monitored the baby for an hour. The consultant explained a bit about pre-eclampsia, while Louise’s blood pressure was high, her urine dip test for protein was negative. You need to have both for pre-eclampsia to be diagnosed. To preempt further development of pre-eclampsia, the consultant recommended we consider early delivery of the baby. Usually they would wait until 41 weeks to induce (if the birth wasn’t spontaneous), but he recommended we induce at 39 weeks (18th June). Louise was given medication to reduce her blood pressure and we were booked for a followup appointment on the next day.
Sun 8th June ~4pmOn the way home, Louise developed a headache and took paracetamol. She continued to feel worse, and her headache got worse, so we phoned up (4:44pm). They advised us to come back in. She was feeling sick and threw up in the car. We got to Dorchester, and to the maternity unit. A nurse coming off shift took one look at her and took us straight in. We were in a shared ward and they assessed her. She was also suffering from edema (swelling) during pregnancy, but it had suddenly increased by now. Her blood pressure was higher. They tried to get an IV in but it was quite tricky because the pre-eclampsia makes the blood vessels smaller, compounded by the fact she had thrown up, so didn’t have much liquid left in her. She was given pills to reduce blood pressure but just threw them up again. She was also suffering photophobia - aversion to light - all the way from home into Dorchester, which is another symptom of pre-eclampsia. There were five people around Louise at this point, so it was getting rather crowded. We were moved to a private room. There they managed to get an IV in, done by an anesthesiologist with an ultrasound machine.
I would later discover that if the midwife had trouble getting an IV in, or taking blood, they would ask a consultant. If the consultant couldn’t do it, then the anesthesiologist would try. If they had trouble, they would use an ultrasound machine to see the blood vessels to help them gain access. At this point, Louise needed an anesthesiologist and an ultrasound machine!
They gave her IV paracetamol for her headache (which she would later describe as a migraine) and IV medications to lower her blood pressure. The consultant explained that the blood pressure was a result of the pre-eclampsia, and we later discovered that the pre-eclampsia had come on very very quickly. He said that Louise needed the placenta removed, and therefore needed to give birth. For this she needed an emergency C-section (caesarean section) as soon as possible. Louise’s consent was needed, and the consultant managed to explain the options in a way she could understand in the state she was in. Her blood pressure was still quite high at this point (one reading was 164/111, which is very high). The baby was being monitored throughout all of this, and he was fine. For the C-section operation, her blood pressure had to be under control. Therefore they put her on blood pressure medication via IV, and monitored her from about 7pm to about 10pm.
Sun 8th June ~10pmBy about 10pm, Louise’s blood pressure was under control and we were taken in for the C-section. I had to change into scrubs, and was allowed to be in the theatre with her. There must have been at least 10 people in the room and it was quite a busy experience. We had a great anesthesiologist, who talked Louise and myself through the whole process. Louise chose a spinal tap for pain management; less severe than a general anesthetic and so Louise could be conscious throughout the whole procedure. Her blood pressure was a little problematic, and there were a couple of times where she was quite out of it. Everything went well though and Baby Bearman was born at 22:46.
After they had taken the baby out, I was allowed to take some photos, and also cut the umbilical cord. It was quite a surreal experience and I was privileged to be a part of it.
We had about half an hour in recovery after the C-section. Louise recovered very quickly with the major pre-eclampsia symptoms disappearing as soon as the placenta was removed. We were then transferred to a room, with mum and baby having hourly checks. We had a midwife with us all the time, with a second mid wife there most of the time until 8am.
Mon 9th JuneWe stayed in the same room for most of the rest of the day. They still took hourly observations, but in general we were left to sleep. The baby slept a bit, but a lot of the time he wanted to be held, and when you are holding a baby you can’t sleep, so we didn’t get much sleep that day or Monday night. Louise was on fluid restriction, so limited to drinking 75ml per hour.
Monday day and evening progressed in a bit of haze. I did go and get some food from the hospital restaurant: a jacket potato at lunch time, which went down well, and some very spicy sweet and sour for dinner, which I had trouble eating. Louise had food brought to her (as the patient) which she demolished very effectively.
At 6:30pm, we were moved to room 4, where we would be for the rest of our stay. Monday night was really hard for both of us, as the baby wanted a lot of cuddles and wasn’t keen on being put down. I did have a bed, so when Louise had the baby I could lie down, but found it very hard to sleep as I was too stressed.
Tue 10th JuneOn Tuesday morning I went to get cereal in the day room. I sat there to eat it to have a bit of time out of our room, and I was completely overwhelmed. I sat there and cried. I had trouble processing what had happened, and looking back on it now, I was so sleep deprived (no sleep on Sunday night and not much on Monday night) I couldn’t process anything.
Another visitor came over and asked if I was OK. I said both mum and baby were OK (I didn’t realise at this point how serious things had been for Louise or the baby). She said she thought someone had died, based on how I was.
Later on Tuesday morning, one of the midwives visited and we talked a bit. This was mostly how Louise was getting on and how the baby was. Nobody explicitly asked me how I was doing. However, I knew enough about my mental health to realise that I was struggling and that I needed to say something, and this midwife looked like the person to say it to. I said to her I was struggling with everything. She listened and said we could talk. We had a good talk, and I tried to explain how I felt. It was at this point I realised I hadn’t slept for 48 hours+, which contributed to how I was feeling. The midwife explained about how we had to support each other and tag-team with the baby, i.e. I do some feeding and cuddling while Louise rests, and Louise does feeding and cuddling while I rest. She also let us know that it is often the case that the second night after birth (i.e. last night, Monday night for us) was the worst.
Given that we were likely to be in the hospital a bit longer, I was encouraged to go home for a bit of a break. Due to the fact the pre-eclampsia had come on so quickly, and we came in two and half weeks earlier than planned, I had brought no spare clothes with me. We already had stuff packed for the baby (nappies, wipes, etc.) and a couple of bits for Louise (maternity top, change of underwear) but I didn’t have anything. When we left on Sunday I did have the presence of mind to throw some snacks and drinks in a bag which were a life saver.
I went to Sainsbury’s to pick up some muslin and socks for the baby and I had a lovely call from my brother in law, Peter (Louise’s brother). He knew that I was an only child, and he said he knew people would be seeing how Louise and the baby were doing, but he wanted to ask how I was doing. I was touched by this and very grateful for the phone call.
While I was driving home, I had a very deep and meaningful thought. Of course, it seemed deep and meaningful at the time, but I was lacking in sleep, so it could be complete rubbish! I thought that whilst my world has completely changed with the birth of my son, the rest of the world hasn’t changed at all. Everything is exactly the same as it was before he was born. From globally crucial things like the wars in Russia/Ukraine and Israel and climate change, to the mundane and everyday, like the oddly designed set of traffic lights by Asda in Weymouth which you have to be very careful driving through. Since then everything has sunk in a bit more, so I am more used to him being here, and everything seems less “different”.
Tuesday night in hospital was better. We planned a bit and managed to tag-team, with me doing some feeds while Louise rested and Louise doing some feeds while I rested. We both got a bit of rest, although looking back now, we both still slept badly in the hospital, but it was so much better than the night before by comparison! I had jacket potato for dinner that evening.
Of course, Louise was in quite a lot of pain from the C-section. She had been given regular paracetamol, and at this point two doses of ibuprofen. One midwife on Tuesday evening refused to give Louise ibuprofen, despite her having it previously. The midwife said it wasn’t written on her chart, so she couldn’t have it; despite Louise’s protests that she’d had it twice already! She gave Louise dihydrochloride instead which was supposed to be a more powerful painkiller, but it didn’t make much impact on Louise’s pain. In fact the pain got worse, because she didn’t get the ibuprofen. Later on, Louise said this issue with the pain medication set back her recovery.
After the shift change, a new midwife came on and gave Louise ibuprofen when she asked for it, which helped with her pain. Apparently the ibuprofen had actually been written on Louise’s chart, but in “a funny place”. We never established what that meant.
Later on the same evening Louise was given a dose of Nifedipine, medicine to manage her high blood pressure. Her blood pressure had been monitored 4 hourly and was still high, an after effect of the pre-eclampsia. In the early hours of the morning, very suddenly Louise had heart palpitations and a very fast heart rate. It was quite scary for her. She used the call button, but by the time someone had come the palpitations had eased a bit. A cardiac nurse did come in and run an ECG test to check Louise’s heart, and everything looked fine. She didn’t have the palpitations again. Louise had been prescribed Nifedipine every twelve hours after the C-section - 9am and 9pm, 20mg. When 9am came around, the Nifedipine pills looked different to the ones she’d had at 9pm the previous night. At 9am she had two small pink pills which we were told was 20mg; at 9pm night before she’d had two different pills (maybe a different brand), which she was told was 2 x 10mg but we suspect were 2 x 20mg pills. This probably caused the heart palpitations. This was rather worrying and we have tried to keep a close eye on the pills since. This is quite tricky in hospitals, particularly when sleep deprived and when the pills are delivered in a small paper cup, it’s hard to know what they are. Also when they are delivered with a not great bedside manner, this makes it harder to ask and check what you are being given.
Wed 11th JuneLouise had been very unwell with the pre-clampasia and was getting better having given birth, and with our sleep deprived states it was hard to process our emotions, so we were struggling a bit. Later on that morning, we had a visit from the feeding team, and Baby was weighed. He’d lost 12.8% from his birth weight.
It’s usual for babies to lose some weight after giving birth - going from a nice warm, dark womb where food is provided on demand through an umbilical cord, to a bright, (relatively) cold, dry world, where you actually have to suckle and swallow to get food is quite a shock to the system! Particularly if you are born at only 37 weeks and 4 days, so ~2.5 weeks early (although babies are fully developed at 37 weeks).
The 12.8% loss is more than the typical 10% loss that is normal, so they were a bit worried about his weight and feeding. The feeding team talked to us about his feeding. He was happy going on Louise’s breast, but wasn’t suckling so hadn’t really taken on any milk since birth. They put us on a feeding plan, with a specific amount of milk (50ml) to give him every 3 hours. Louise was producing milk, so they introduced us to a breast pump, which we used, and then gave to Baby in a bottle. We then topped it up to 50ml with formula, every 3 hours. I was shown the ropes for sterilising the kit and bottles, and given the task of fetching, cleaning and sterilising the kit for every feed. Louise said that I spent a lot of time looking after the baby on Wednesday, giving her time to sleep and recover.
Louise’s parents visited today and arrived early afternoon. It was lovely to see them, and they stayed until around 5pm. We had dinner down in the hospital restaurant - jacket potato again for me and then they headed off. I slowly was feeling better and the visit made a nice change from the hospital routine.
It is amazing how frequently the advice around birth and newborns changes. One of our midwives, who was a third year student midwife, said that something she had learnt in her first year of study had now changed, with a better technique for feeding directly after birth. The advice changes frequently, and it even changed while we were in hospital! Louise had her C-section dressing checked, and removed this evening. Later on, the same midwife came back and said the advice for C-section dressings had changed, and now they were left on for five days rather than three, as this had been shown to reduce infection, so they replaced Louise’s dressing.
By Wednesday evening, everything was getting better and we were feeling more on top of things. We had some great advice from one of the midwives that evening about bottle feeding and successfully burping a baby - apparently burping is something they actually have to learn how to do!
The feeding plan the baby was on was going well, and Louise was expressing milk well. I was getting used to sterilising the equipment each time, and making the 55 metre walk, each way, twice every three hours (a total of 1.76 km every 24 hours), to get the bottles for Louise to express, and then return them and to wash and sterilise them. Louise was still trying to breast feed but having very limited success.
Later on that evening I had woken up for the ~1am feed and wasn’t feeling particularly with it. We needed the steriliser and bottles for Louise to express and I wasn’t feeling up to the long walk, so we asked one of the staff to get it for us, which they were very happy to do. She returned with the sterilising kit, but not the bottles. We asked her whether the bottles were there and she swore blind that they were not there. She got us some new bottles so Louise could do the expressing. The following feed I was more with it, so I went and checked and discovered the bottles were there, exactly where I said they were!
Thu 12th JuneOn Wednesday I had run around doing lots of things, and I think I had probably over done it: I wasn’t feeling that great. I broke down and cried again. I hadn’t eaten much and I think my brain had processed a bit more of what had happened and was struggling with it. We did have some good news that we were likely to be discharged on Thursday!
One of the midwives came to go through the discharge process, and in the check in, Louise said to her that I had been struggling. She had a chat with me, and asked whether I was looking after myself and whether I’d been eating enough. Thinking about it, I’d not really been eating enough since Sunday. Sunday night I had nothing, being preoccupied with the C-section (although I had had a main meal in the middle of the day). Monday I had toast for breakfast, jacket potato for lunch and a bit of sweet and sour pork for dinner. Tuesday I had cereal for breakfast, risotto for lunch (when I went home to pick up stuff) and jacket potato for dinner. Wednesday was toast for breakfast, jacket potato for lunch and jacket potato again for dinner. So I had been eating much less than normal for me. Discovering this, she essentially kicked me out of the room to go and get some lunch while she went through feeding and baby checks with Louise, which would take a while. I am eternally grateful for this and I took the opportunity to go to a nearby pub and have a decent burger and chips. I felt much better after this and was rather amazed that I had ended up in this position - missing out meals and not eating enough is not at all normal for me.
Louise’s parents arrived about 3pm, while we were getting sorted for discharge. I made various trips back to the car with stuff, and also managed to fit the child seat. We had had the child seat for a little while, but I hadn’t actually fitted it yet as I was planning on having 3 more weeks to work out how to fit it, before Baby was born!
We got out of the hospital about 5pm, and by pure coincidence saw the anesthesiologist from Louise’s C-section. She was thrilled to see us, and to see us leaving - Louise had been quite poorly because of the pre-eclampsia when she last saw us, so she said it was such a massive difference to see her looking so much better.
Over our 4 nights and 5 days in the hospital, we had some great care and met some fantastic staff - I can’t thank them enough for their time, patience and skill in looking after us. However, it was also clear they were massively overworked, short staffed and a couple of them were mediocre or even poor. The NHS is a fantastic institution with some great staff, but it also has some major issues. We can’t wave a magic wand and solve these issues but we need to find solutions that work, whilst keeping all of the fantastic elements that are in it.
-
20:37
TorchGeo: v0.7.1
sur Planet OSGeoTorchGeo 0.7.1 Release NotesThis is a bugfix and maintenance release. While there are no new features or API changes, this release includes important bug fixes, documentation improvements, and minor enhancements across datasets, models, trainers, and testing.
Dependencies- dependabot: update pandas group in unison (#2818)
- jsonargparse: silence deprecation warnings (#2774)
- segmentation-models-pytorch: 0.5+ now required (#2740)
- setuptools: 77.0.1+ now required (#2703)
- NAIP/Chesapeake: fix train/test overlap (#2834)
- SKIPP'D: add to docs (#2778)
- VHR-10: add to docs (#2776)
- Intersection/UnionDataset: simplify crs/res getter/setter (#2754)
- BigEarthNet v2: fix validation directory name (#2825)
- CopernicusPretrain: dataset yields, not returns (#2768)
- EuroSAT: download split file even if image directory already exists (#2840)
- FTW: add predictions to plot (#2731, #2735)
- FTW: add uncompressed test data to git (#2746)
- API: ensure all models are in utility functions/hub (#2733)
- CopernicusFM: fix flaky tests (#2710)
- CopernicusFM: typo fixes (#2770, #2844)
- Classification: apply sigmoid before threshold in plot (#2793)
- Instance Segmentation: denormalize images before plotting (#2744)
- Instance Segmentation: fix support for non-RGB images (#2752)
- Object Detection: fix support for non-RGB images (#2752)
- Semantic Segmentation: apply sigmoid before threshold in plot (#2793)
- Semantic Segmentation: pretrained ViT weights are now supported (#2787)
- README: update TorchGeo paper citation (#2729)
- README: update syntax in VHR-10 example (#2705)
- Related Libraries: add GeoDeep and srai (#2730, #2758)
- Related Libraries: DeepForest used to support TensorFlow (#2734)
- Landsat TM: fix number of channels for pretrained weights (#2836)
- Update PyTorch doc site links (#2794)
- Intro to PyTorch: use transforms (#2723)
- Intro to Geospatial: typo fixes (#2706)
- Earthquake Detection: speed up tutorial testing (#2721)
- Contribute DataModule: typo fixes (#2708)
- Contribute NonGeoDataset: fix sphinx directive (#2784)
This release is made possible thanks to the following contributors:
-
11:00
Mappery: Hello Dolly
sur Planet OSGeoMatthew Edney spotted this map of Yonkers on the floor of the stage at a performance of Hello Dolly. “Map of Manhattan/Yonkers on floor of stage for Lyric Stage production of Hello Dolly (in Boston) … nifty” Nifty indeed!
-
9:58
Paving Paradise for the Ultra Rich
sur Google Maps ManiaSay Goodbye to Your Outdoor LifeThe Wilderness Society has identified over 250 million acres of public land that Republicans are preparing to sell under new legislation. If the SENR Bill passes, then you can expect to spend a lot more time indoors.Donald Trump’s One Big Beautiful Bill Act has already been dubbed a “Reverse Robin Hood Bill.” The legislation contains a range of measures explicitly
-
9:45
Travail collaboratif sur le portail ArcGIS
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueArcGIS Pro 3.5 est disponible depuis la mi-mai en France avec une foultitude de nouveautés. L’une d’entre elles va révolutionner la manière de travailler au sein d’une organisation, puisqu’elle permet d’enregistrer un projet sur son portail ArcGIS. C’est tout bête, mais il devient ainsi possible de le partager aussitôt avec plusieurs personnes. Elles vont pouvoir travailler immédiatement avec, sans avoir à passer par la phase de copie. Cette fonction de Workflow collaboratif s’accompagne d’un gestionnaire de droits d’accès pour autoriser la lecture seule ou la modification du projet et ainsi éviter tout conflit d’édition.
Autre nouveauté de cette version 3.5 : le support de bases de données documentaires NoSQL de type OpenSearch et Elasticsearch. Il devient possible de connecter ces bases de données à ArcGIS Pro et faire des requêtes dans ces informations non structurées contenant des documents de type PDF, photos ou vidéos, comme avec les bases de données graphes (photo).
+ d'infos :
esri.com/arcgis-blog/products/arcgis-pro
-
6:55
OPENGIS.ch: OPENGIS.ch at the QGIS.ch User Meeting 2025 in Bern
sur Planet OSGeoThis past Tuesday in Bern, the Swiss QGIS community came together for the 2025 edition of the QGIS.ch User Meeting — and we at OPENGIS.ch were proud to be deeply involved across the entire event, from presentations to hands-on workshops.
Sharing Insights and InnovationThe day began with our CEO, Marco Bernasocchi, opening the conference with an update on the QGIS project, covering exciting news about the upcoming QGIS 4 release and the ongoing website revamp (slides here). Shortly after, he took the stage again to present the latest improvements in QField, including new features, user experience (UX) enhancements, and under-the-hood upgrades that continue to enable efficient field data collection (slides here).
In collaboration with Timothée Produit from IG Group SA, our colleague Isabel Kiefer presented tools and streamlined processes for installing, managing, and updating TEKSI (and other) modules. These solutions are a testament to our mission of simplifying complex GIS infrastructure in public and private organisations alike.
Later in the morning, our CTO Mathias Kuhn gave a compelling talk on Machine Learning and AI in QGIS, showing real-world use cases and technical innovations that bridge geospatial workflows with intelligent automation.
Matthias talking AI
Isabel and Timothée introducing the tool TMMT Strengthening QGIS Security
As part of our commitment to sustainability and professionalisation in open source GIS, we are also proud to be a partner of Oslandia in the QGIS Security Project, which Vincent Picavet presented during the event. This initiative aims to ensure that QGIS continues to meet the highest standards of security — a crucial foundation for its growing adoption in critical infrastructures around the world.
Hands-on with QField – in Three Languages!In the afternoon, OPENGIS.ch hosted a fully booked, multilingual QField workshop, attended by 25 enthusiastic participants. The session provided hands-on experience for users who wanted to take their QGIS projects into the field and was an excellent opportunity to exchange best practices and tips from real-world use cases and get some sun
Digitising
Got sun!
and the winner is…
OPENGIS.ch Tools in Action
Even outside of our sessions, tools developed by OPENGIS.ch were featured prominently throughout the day:
- QField played a key role in the Zermatt use case presentation, demonstrating its flexibility and robustness in alpine field operations.
- The Model Baker plugin, to which we contribute heavily, was showcased with its new multilanguage support for QGIS models — a significant step forward for the Swiss context and its multilingual projects.
Model Baker in action
QField usage in Zermatt A Thriving Community
As always, the QGIS.ch user meeting was a reminder of the strength and passion of the Swiss open source geospatial community. A huge thank you to the organizers, speakers, and participants who made the event such a success — we’re already looking forward to the next one!
Stay connected:
QField website
QFieldCloud
Model Baker plugin
-
2:00
FOSSGIS e.V. News: FOSSGIS e.V. auf der KonGeoS in Bonn
sur Planet OSGeoKonGeoS - Konferenz der Geodäsie-StudierendenDie KonGeoS ist die Konferenz der Geodäsie-Studierenden der Hochschulen im DACH-Raum und findet zweimal jährlich statt. Ziel ist es die Studierenden der 24 Geodäsie-Fachschaften aus Deutschland, Österreich und der Schweiz miteinander zu vernetzen. Die KonGeoS tourt, ähnlich wie die FOSSGIS-Konferenz, dabei durch die Universitäten und Hochschulen des DACH-Raumes. Vom 19. bis 22. Juni 2025 fand die KonGeoS an der Universität Bonn statt.
Beim Ausstellerforum am Freitagnachmittag informierten Torsten Brassat, Torsten Friebe, Harald Schwarz und André Henn über Open-Source-GIS und OpenStreetMap. Zahlreiche Studierende kamen mit Interesse oder Fragen am Stand vorbei.
Fotoeindrücke
FOSSGIS-OSGeo-OSM-Stand ist nachgefragt (Foto Torsten B.)
FOSSGIS-OSGeo-OSM-Stand ist gut nachgefragt und hat auch mal Ruhe (Foto Harald S.) -
22:30
KAN T&IT Blog: Alianza Tecnológica
sur Planet OSGeoEstamos orgullosos de sumar nuestra experiencia en geointeligencia a esta alianza con Finnegans SA, integrando datos operativos y territoriales directamente en su ERP.
Con soluciones como formularios dinámicos y captura de datos en tiempo real (imágenes, ubicación, trazabilidad, notas de voz), llevamos la digitalización un paso más allá.
Gracias Finnegans por confiar en nosotros para seguir transformando industrias desde los datos.
#AlianzasFinnegans #FinnegansGOAgro #FinnegansGOConstructoras #Geointeligencia #TransformaciónDigital #ERP #KanTerritory
-
11:26
Insurers Retreating From Climate-Risk Zones
sur Google Maps ManiaFor many Americans, one of the consequences of climate change is higher insurance premiums. In Homeowners Insurance in an Era of Climate Change, the Brookings Institution maps U.S. Treasury Federal Insurance Office data to show where home insurance is becoming more costly and harder to obtain for millions of Americans.One way this is happening is through non-renewals of homeowners insurance. A
-
11:00
Mappery: La Via Dell’ Ambra
sur Planet OSGeoDoug spotted this “The amber trail in Europ – Bassano del Grappa Italy
-
8:26
Le Chatbot IA du Support Esri a répondu à 200 000 questions !
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Depuis sa sortie en 2023, Esri a régulièrement continuellement mis à jour les fonctionnalités du Chatbot IA de support aux utilisateurs. Nous sommes passés d'un simple modèle de questions-réponses à des fonctionnalités conversationnelles avancées, et Esri a diffusé le Chatbot sur le site web du support Esri et avons ajouté la possibilité d'analyser les messages d'erreur pour trouver rapidement des solutions. Esri enrichit également régulièrement la bibliothèque de ressources du Chatbot et l'intégre à davantage de systèmes d'information, comme par exemple le tableau de bord de santé d'ArcGIS Online. Plus récemment, nous avons veillé à ce qu'il soit parfaitement informé sur ArcGIS Pro 3.5 et ArcGIS Enterprise 11.5.
Aujourd'hui petit point d'étape, ces améliorations qualitatives ont encouragé les utilisateur ArcGIS à poser plus de 200 000 questions ! L'accès à cette vaste bibliothèque de documentation technique dépasse même la recherche traditionnelle.
Des solutions par produit
Avec 23 % des questions posées, les utilisateurs ont surtout posé des questions spécifiquement sur ArcGIS Pro. Pour garantir que le Chatbot apporte les solutions pertinentes, Esri le tient à jour avec les notes de version et les nouvelles fonctionnalités, ainsi qu'avec des informations détaillées sur toutes les versions précédentes. Le chatbot répondra à vos questions sur le cycle de vie de Pro, les correctifs et les problèmes courants : tout ce qui est disponible pour résoudre les problèmes dans Pro.
Bien entendu, Esri maintient ces informations à jour pour tous les autres produits. C'est pourquoi les utilisateurs peuvent compter sur le Chatbot pour obtenir des réponses à leurs questions sur ArcGIS Online et ArcGIS Enterprise, qui représentent chacun 15 % des questions. On notera aussi que 7 % des questions concernent ArcGIS Survey123.
Les 40 % restants concernent toutes les autres technologies, d'ArcGIS AllSource à ArcGIS Workforce en passant par ArcGIS Urban, ArcGIS Indoors, ArcGIS FieldMaps ou ArcGIS QuickCapture. Si des informations publiques, vérifiées par Esri, peuvent vous être utiles, nous avons tout mis en œuvre pour les inclure dans le chatbot.
Solutions par catégorie
Le Chatbot est également disponible pour gérer certains des problèmes les plus courants et les plus complexes rencontrés par les utilisateurs de SIG. La plupart des questions, quelle que soit la catégorie, concernent, bien entendu, les erreurs. C'est l'une des raisons pour lesquelles Esri a intégré dans le Chatbot la fonctionnalité d'analyse des erreurs dans l'application d'assistance Esri. Nous souhaitions vous aider à trouver des solutions rapidement et facilement.
Le Chatbot est également là pour vous aider dans la gestion des données, la publication, l'installation, la création de scripts et l'octroi de licences, ainsi que pour toute autre question que vous pourriez avoir concernant les produits Esri.
Obtenir des réponses toujours plus rapidement à ses questions
Esri fait le maximum pour que vous ayez toujours accès aux informations dont vous avez besoin. Grâce aux analystes du support Esri France et au Chatbot, vous avez l'assurance que votre projet SIG et ses implémentations bénéficient d'une prise en charge complète. En cas de problème, essayez d'abord le Chatbot sur le site d'assistance Esri ou via l'application mobile du support Esri.
Cette application propose également l'envoi de notifications en cas d'incidents sur la plateforme SaaS ArcGIS Online. Téléchargez-la dès maintenant sur l'App Store ou Google Play pour accéder à des outils de recherche de réponses.
Dans un avenir proche, vous pourrez également bénéficier d'assistants d'IA pour interagir, dans un mode conversationnel, avec à la documentation des applications ArcGIS. Nous en reparlerons le moment venu sur arcOrama...
-
7:00
Ecrire le code du numérique
sur Dans les algorithmesC’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un groupe de travail pour visibiliser le vécu collectif des souffrances individuelles des plus précaires face au déploiement du numérique, donnant naissance au Comité humain du numérique. “La digitalisation de la société n’a pas entraîné une amélioration généralisée des compétences numériques”, rappelle le Comité en s’appuyant sur le baromètre de l’inclusion numérique belge.
Le Comité humain du numérique s’installe alors dans les quartiers et, avec les habitants, décide d’écrire un Code de loi : “Puisque l’Etat ne nous protège pas, écrivons les lois à sa place”. Rejoints par d’autres collectifs, le Comité humain se met à écrire la loi avec les habitants, depuis les témoignages de ceux qui n’arrivent pas à accomplir les démarches qu’on leur demande. Manifestations, séances d’écriture publique, délibérations publiques, parlement de rues… Le Comité implique les habitants, notamment contre l’ordonnance Bruxelles numérique qui veut rendre obligatoire les services publics digitalisés, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnée par le collectif Lire et écrire et plus de 200 associations. Devant le Parlement belge, le Comité humain organise des parlements humains de rue pour réclamer des guichets ! Suite à leur action, l’ordonnance Bruxelles numérique est amendée d’un nouvel article qui détermine des obligations pour les administrations à prévoir un accès par guichet, téléphone et voie postale – mais prévoit néanmoins la possibilité de s’en passer si les charges sont disproportionnées. Le collectif œuvre désormais à attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numérique.
Mais l’essentiel n’est pas que dans la victoire à venir, mais bien dans la force de la mobilisation et des propositions réalisées. Le Code du numérique ce sont d’abord 8 articles de lois amendés et discutés par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problème”. Que cet accès doit être sans condition, c’est-à-dire gratuit, avec des temps d’attente limités, “sans rendez-vous”, sans obligation de maîtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coût ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller à cette accessibilité humaine et qu’il doit proposer aux citoyen.nes des procédures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est à l’Etat d’évaluer l’utilité et l’efficacité des nouveaux outils numériques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrôler. Que cette évaluation doit associer les utilisateurs, que leurs impacts doivent être contrôlés, limités et non centralisés. L’article 3 rappelle que l’Etat doit créer ses propres outils et que les démarches administratives ne peuvent pas impliquer le recours à un service privé. L’article 4 suggère de bâtir des alternatives aux solutions numériques qu’on nous impose. L’article 5 suggère que leur utilisation doit être contrainte et restreinte, notamment selon les lieux ou les âges et souligne que l’apprentissage comme l’interaction entre parents et écoles ne peut être conditionnée par des outils numériques. L’article 6 en appelle à la création d’un label rendant visible le niveau de dangerosité physique ou mentale des outils, avec des possibilités de signalement simples. L’article 7 milite pour un droit à pouvoir se déconnecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compétences humaines et de la rencontre physique, notamment dans le cadre de l’accès aux soins. “Tout employé.e/étudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face à face un responsable sur un lieu physique”. L’introduction de nouveaux outils numériques doit être développée et validée par ceux qui devront l’utiliser.
Derrière ces propositions de lois, simples, essentielles… la vraie richesse du travail du Comité humain du numérique est de proposer, de donner à lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontés à la transformation numérique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protéger de tout ça.” Anthony : “Internet devait être une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numérique me surresponsabilise et rend le public surdépendant de moi. Je suis le dernier maillon de la chaîne, l’échec social passe par moi. Je le matérialise”. Amina : “Je ne sais pas lire, je ne sais pas écrire. Mais je sais parler. Le numérique ne me laisse pas parler”. Aïssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numérique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numérique est utilisé pour décourager les démarches”, puisque bien souvent on ne peut même pas répondre à un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numérisées, car elles n’entrent pas dans les cases. La passation d’information est devenue très difficile”… Le Code du numérique nous “redonne à entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.
Le Code du numérique nous rappelle que désormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nécessaire pour presque la moitié de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrêter derrière un téléphone qui sonne dans le vide. Que “la digitalisation des services publics et privés donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prédéfinies.Le Code du numérique n’est pas qu’une expérience spécifique et située, rappellent ses porteurs. “Il est là pour que vous vous en empariez”. Les lois proposées sont faites pour être débattues, modifiées, amendées, adaptées. Les auteurs ont créé un jeu de cartes pour permettre à d’autres d’organiser un Parlement humain du numérique. Il détaille également comment créer son propre Comité humain, invite à écrire ses propres lois depuis le recueil de témoignages des usagers, en ouvrant le débat, en écrivant soi-même son Code, ses lois, à organiser son parlement et documente nombre de méthodes et d’outils pour interpeller, mobiliser, intégrer les contributions. Bref, il invite à ce que bien d’autres Code du numérique essaiment, en Belgique et bien au-delà ! A chacun de s’en emparer.
Le Code du numérique.
-
11:00
Mappery: The MapWoman at GeomobBER
sur Planet OSGeoEnclosure: [download]
Chiara Phillips presented at Geomob Berlin with a MapsInTheWild-approved dress code.
Tonight is the Geomob London event, will anyone wear maps in the wild?
-
10:11
The Reforestation Interactive Map
sur Google Maps ManiaThe Nature Conservancy has released a new interactive map identifying 195 million hectares around the world where forest cover could be restored."Reforesting these areas could capture 2.2 billion tonnes of CO? per year, equivalent to removing 481 million passenger vehicles driven for one year."Click on a country on the Reforestation Hub map to see how much land could be reforested, how many
-
9:00
Makina Corpus : conférence sur le DbToolsBundle au BreizhCamp 2025
sur Makina CorpusNotre expert Symfony anime une conférence sur le DbToolsBundle au BreizhCamp 2025, du 25 au 27 juin à Rennes.
-
7:00
Chatbots, une adoption sans impact ?
sur Dans les algorithmesDans sa dernière newsletter, Algorithm Watch revient sur une étude danoise qui a observé les effets des chatbots sur le travail auprès de 25 000 travailleurs provenant de 11 professions différentes où des chatbots sont couramment utilisés (développeurs, journalistes, professionnels RH, enseignants…). Si ces travailleurs ont noté que travailler avec les chatbots leur permettait de gagner du temps, d’améliorer la qualité de leur travail, le gain de temps s’est avéré modeste, représentant seulement 2,8% du total des heures de travail. La question des gains de productivité de l’IA générative dépend pour l’instant beaucoup des études réalisées, des tâches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus élevés pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiés ni incitations supplémentaires, la plupart des effets positifs sont vains”.
Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutôt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.
-
6:33
Map Myths, un blog à découvrir sur les mythes cartographiques
sur Cartographies numériquesLe blog Map Myths, créé par Henry Patton, s'intéresse aux histoires et légendes associées à des lieux figurant sur des cartes historiques aujourd'hui disparus. Pourquoi ont-ils disparu et comment les cartographes ont-ils imaginé ces espaces vides au-delà du monde connu ? Une carte interactive donne accès à l'ensemble des mythes cartographiques commentés sur le site.
Map Myths a débuté sous la forme d'une carte interactive, mêlant une géographie fantomatique à une vision du monde moderne. Le blog a été lancé fin 2024 pour approfondir l'histoire et les personnages de ces mythes.
Carte interactive donnant accès aux différentes histoires et légendes (source : Map Myths)
Henry Patton (@mapmyths.com), créateur et auteur de ce site web, est titulaire d'un doctorat en glaciologie. Il a toujours été passionné par les cartes et leur histoire. « J'adore passer des heures à fouiller dans les archives et les sources originales des cartographes, explorateurs, pirates, baleiniers du passé, pour vous livrer ces récits fascinants des profondeurs de l'histoire ».
Articles disponibles (juin 2025) :
- Les 5 erreurs de cartographie les plus notoires de l'ère moderne
- Meurtre au pôle Nord ?
- Ce qui était faux (et étonnamment vrai) dans la carte de l'Arctique de Mercator de 1595
- « Le plus grand menteur du Pacifique »
- Les Chinois ont-ils découvert l’Amérique 1 000 ans avant Colomb ?
- La rivalité autour du Groenland un siècle avant Trump
- L'homme derrière le mythe qui préfigurait l'Antarctique
- La ruée vers l'or du XVIe siècle qui a divisé le Groenland en deux
- Comment une île perdue a paniqué les astronomes
- La double vie de Giles Land
La Lémurie : le mythe d'un continent englouti. La cartographie entre science et imaginaire
Articles connexes
Le voyage d'Ulysse. Comment cartographier un mythe ?
Derrière chaque carte, une histoire. La cartographie du détroit de Magellan entre science et imaginaire
L'histoire par les cartes : entre faits et légendes, la cartographie du fleuve Amazone du XVIe au XVIIIe siècle (Gallica)
L'histoire par les cartes : les créatures marines monstrueuses d'Olaus Magnus
Les monts de Kong en Afrique : une légende cartographique qui a duré près d'un siècle !
Le Blanc des cartes. Quand le vide s'éclaire (Atlas Autrement)
Cartes et atlas historiques
Cartes et atlas imaginaires
-
22:43
Fernando Quadro: Instalação do GeoNode no Ubuntu 22.04
sur Planet OSGeoPrezados leitores,
Neste post irei apresentar como você pode instalar o GeoNode via Docker em uma máquina rodando o Ubuntu Linux 22.04. Ao final dessa instalação você estará com uma instância do GeoNode executando no seu localhost.
Sem enrolação, vamos aos passos:
1. Instalar os pacotes do S.O
> sudo add-apt-repository universe > sudo apt-get update -y > sudo apt-get install -y git-core git-buildpackage debhelper devscripts python3.10-dev python3.10-venv virtualenvwrapper > sudo apt-get install -y apt-transport [https] ca-certificates curl lsb-release gnupg gnupg-agent software-properties-common vim
2. Adicionar os repositórios do Docker
> sudo mkdir -p /etc/apt/keyrings > curl -fsSL [https:] | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg > sudo chmod a+r /etc/apt/keyrings/docker.gpg > echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] [https:] $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
3. Adicionar os pacotes do Docker
> sudo apt-get update -y > sudo apt-get install -y docker-ce docker-ce-cli containerd.io docker-compose > sudo apt autoremove --purge > sudo reboot
4. Adicionar seu usuário ao grupo docker
> sudo usermod -aG docker ${USER} > su ${USER}
5. Preparar o ambiente
> sudo mkdir -p /opt/geonode_custom/ > sudo usermod -a -G www-data geonode > sudo chown -Rf geonode:www-data /opt/geonode_custom/ > sudo chmod -Rf 775 /opt/geonode_custom/
Dica: Se o nome do seu usuário não for geonode, substitua pelo nome do seu usuário na linha 2 e 3 acima.
6. Clonar o código fonte
> cd /opt/geonode_custom/ > git clone [https:] -b 4.4.2
Dica: É importante ressaltar que o número que você passar após o -b é na realidade a versão que você quer baixar/instalar do GeoNode
7. Criar uma instância do Django
> source /usr/share/virtualenvwrapper/virtualenvwrapper.sh > mkvirtualenv --python=/usr/bin/python3 my_geonode > pip install Django==3.2.13 > django-admin startproject --template=./geonode-project -e py,sh,md,rst,json,yml,ini,env,sample,properties -n monitoring-cron -n Dockerfile my_geonode > cd /opt/geonode_custom/my_geonode
OBS: Chamaremos nossa instância de my_geonode. Você pode alterar o nome conforme desejar.
8. Criar o arquivo .env
> python create-envfile.py
9. Construa os containers
> docker-compose -f docker-compose.yml build --no-cache
10. Finalmente execute o container
> docker-compose -f docker-compose.yml up -d
Agora é só aguardar todos os containers aparecerem como done, e você já pode acessar o GeoNode no seu navegador digitando [localhost]
Se você quiser mais detalhes sobre a instalação basta acessar a documentação oficial do GeoNode, clicando aqui.
-
11:00
Mappery: Valpolicella
sur Planet OSGeoDoug shared this “Valpolicella Wine Region @ Tenuta Santa Maria di Gaetano Bertani Winery. Beautiful relief map
-
9:00
Où en est Geotrek-Admin en 2025 ?
sur Makina CorpusDepuis 2023, Goetrek-Admin connait de nombreuses évolutions tant du côté fonctionnel que technique et son écosystème continue de se structurer, de s’enrichir grâce aux contributions de la communauté, et de s’ouvrir à d’autres outils.
-
8:42
When Ocean Currents Collapse
sur Google Maps ManiaAMOC Collapse VisualizationA new study suggests that global warming could paradoxically plunge Europe into dramatic cooling, leading to severe winter cold spells, more intense storms, and reduced rainfall. Average winter temperatures could plunge, sea ice could spread as far south as the British Isles, and nearly half the year could see temperatures below freezing.The Atlantic Meridional
-
7:00
Pour une science de la subjectivité
sur Dans les algorithmes« J’aimerais vous confronter à un problème de calcul difficile », attaque Albert Moukheiber sur la scène de la conférence USI 2025. « Dans les sciences cognitives, on est confronté à un problème qu’on n’arrive pas à résoudre : la subjectivité ! »
Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary éditions 2019) et de Neuromania (Allary éditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau.
Où est le neurone ?« Contrairement à d’autres organes, un cerveau mort n’a rien à dire sur son fonctionnement. Et pendant très longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau ». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activité, sont assez récentes et demeurent bien peu précises. Pour cela, il faut être capable de mesurer son activité, de voir où se font les afflux d’énergie et l’activité chimique. C’est seulement assez récemment, depuis les années 1990 surtout, qu’on a développé des technologies pour étudier cette activité, avec les électro-encéphalogrammes, puis avec l’imagerie par résonance magnétique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les médecins vous prescrivent. Elle mesure la matière cérébrale permettant de créer une image en noir et blanc pour identifier des maladies, des lésions, des tumeurs. Mais elle ne dit rien de l’activité neuronale. Seule l’IRM fonctionnelle observe l’activité, mais il faut comprendre que les images que nous en produisons sont peu précises et demeurent probabilistes. Les images de l’IRMf font apparaître des couleurs sur des zones en activité, mais ces couleurs ne désignent pas nécessairement une activité forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentées en oxygène et en sang. L’IRMf fonctionne par soustraction des images passées. Le patient dont on mesure l’activité cérébrale est invité à faire une tâche en limitant au maximum toute autre activité que celle demandée et les scientifiques comparent ces images à des précédentes pour déterminer quelles zones sont affectées quand vous fermez le poing par exemple. « On applique des calculs de probabilité aux soustractions pour tenter d’isoler un signal dans un océan de bruits », précise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cérébrale pour une tâche donnée, mais « une reconstruction a posteriori de la probabilité qu’une aire soit impliquée dans cette tâche ». En fait, les couleurs indiquent des probabilités. « Ces couleurs n’indiquent donc pas une intensité d’activité, mais une probabilité d’implication ». Enfin, les mesures que nous réalisons n’ont rien de précis, rappelle le chercheur. La précision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygène, alors que la circulation sanguine est bien plus lente que les échanges chimiques de nos neurones. Enfin, le traitement de données est particulièrement complexe. Une étude a chargé plusieurs équipes d’analyser un même ensemble de données d’IRMf et n’a pas conduit aux mêmes résultats selon les équipes. Bref, pour le dire simplement, le neurone est l’unité de base de compréhension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications établies à partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance réelle qu’autre chose. D’où l’enjeu à prendre les résultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses à l’imagerie cérébrale » et c’est assurément ce qui explique qu’elle soit si utilisée.
Les données ne suffisent pasDans les années 50-60, le courant de la cybernétique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait étudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modéliser le cerveau à l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idées d’une théorie de l’information qui va permettre de créer des « neurones artificiels », qui ne portent ce nom que parce qu’ils ont été créés pour fonctionner sur le modèle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considéré comme la première machine à utiliser un réseau neuronal artificiel. Mais on a bien plus appliqué le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber.
Aujourd’hui, l’Intelligence artificielle et ses « réseaux de neurones » n’a plus rien à voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider à faire des prothèses adaptées comme les BCI, Brain Computer Interfaces.
Désormais, faire de la science consiste à essayer de comprendre comment fonctionne le monde naturel depuis un modèle. Jusqu’à récemment, on pensait qu’il fallait des théories pour savoir quoi faire des données, mais depuis l’avènement des traitements probabilistes et du Big Data, les modèles théoriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de même demandé si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. Malgré l’arsenal d’outils à leur disposition, les chercheurs qui s’y sont essayé ont été incapables de produire un modèle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nécessite pas seulement des informations techniques ou des données, mais avant tout des concepts pour les organiser. En fait, avoir accès à une quantité illimitée de données ne suffit pas à comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposé une expérience de pensée avec son article « Quel effet ça fait d’être une chauve-souris ? ». Même si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’être une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intérieure d’autrui. Que la subjectivité des autres nous échappe toujours. C’est là le difficile problème de la conscience.
Albert Moukheiber sur la scène d’USI 2025. La subjectivité nous échappe
Une émotion désigne trois choses distinctes, rappelle Albert Moukheiber. C’est un état biologique qu’on peut tenter d’objectiver en trouvant des modalités de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs très différentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nécessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent être émues par un même coucher de soleil, mais sont-elles émues de la même manière ? »
Notre réductionnisme objectivant est là confronté à des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problèmes, notamment dans le monde de l’entreprise comme dans celui de la santé mentale.
Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariés et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scène. Les notes des étudiants leurs rappellent que le but est de réussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liés au nombre d’opérations réussies, les chirurgiens réalisent bien plus d’opérations faciles que de compliquées. Quand on mesure les humains, ils ont tendance à modifier leur comportement pour se conformer à la mesure, ce qui n’est pas sans effets rebond, à l’image du célèbre effet cobra, où le régime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les éradiquer, mais qui a poussé à leur démultiplication pour toucher la prime. En entreprises, nombre de mesures réalisées perdent ainsi très vite de leur effectivité. Moukheiber rappelle que les innombrables tests de personnalité ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisé reste le MBTI qui a été développé dans les années 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre théorique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques années), mais surtout, « ce sont nos croyances qui sont déphasées. Beaucoup de personnes pensent que la personnalité des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs était surtout un bel enfoiré ! », comme nombre de ces « grands » entrepreneurs que trop de gens portent aux nues. Comme nous le rappelions nous-mêmes, la recherche montre en effet que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité. « Ces tests nous demandent d’y répondre personnellement, quand ce devrait être d’abord à nos collègues de les passer pour nous », ironise Moukheiber. Ils supposent surtout que la personnalité serait « stable », ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-être bien plus d’importance que la personnalité : les compétences, le fait de bien s’entendre avec les autres, le niveau de rémunération, le cadre de travail… Mais surtout, ils ont tous un effet « barnum » : n’importe qui est capable de se reconnaître dedans. Dans ces tests, les résultats sont toujours positifs, même les gens les plus sadiques seront flattés des résultats. Bref, vous pouvez les passer à la broyeuse.
Dans le domaine de la santé mentale, la mesure de la subjectivité est très difficile et son absence très handicapante. La santé mentale est souvent vue comme une discipline objectivable, comme le reste de la santé. Le modèle biomédical repose sur l’idée qu’il suffit d’ôter le pathogène pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogène. Bien sûr, ce n’est pas le cas. « Imaginez un moment, vous êtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise où vous êtes très valorisée. Vous êtes débauché par la concurrence, une entreprise encore plus brillante où vous allez pouvoir briller encore plus. Mais voilà, vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous développez un trouble anxieux. On va alors pousser la personne à se soigner… Mais le pathogène n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collègues qu’il faudrait pousser à se faire soigner ? »
En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.
Exemple d’échelle d’évaluation de la douleur.
« Mais deux personnes confrontés à la même blessure ne vont pas l’exprimer au même endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaître que les douleurs qu’on a vécu, à laquelle on les compare ». Mais chacun a une échelle de comparaison différente, car personnelle. « Et puis surtout, on est très doué pour ne pas croire et écouter les gens. C’est ainsi que l’endométriose a mis des années pour devenir un problème de santé publique. Une femme à 50% de chance d’être qualifiée en crise de panique quand elle fait un AVC qu’un homme »… Les exemples en ce sens sont innombrables. « Notre obsession à tout mesurer finit par nier l’existence de la subjectivité ». Rapportée à moi, ma douleur est réelle et handicapante. Rapportée aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phénoménologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivité et de la prendre plus au sérieux qu’elle n’est ».
La science de la subjectivité n’est pas dénuée de tentatives de mesure, mais elles sont souvent balayées de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander à quelqu’un comment il va est souvent plus parlant que les mesures électrodermales qu’on peut réaliser ». Reste que les mesures physiologiques restent toujours très séduisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM à un article pour le rendre plus sérieux qu’il n’est.
*
Pour conclure la journée, Christian Fauré, directeur scientifique d’Octo Technology revenait sur son thème, l’incalculabilité. « Trop souvent, décider c’est calculer. Nos décisions ne dépendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent à nous vendre la plus puissante. Nos décisions sont-elles le fruit d’un calcul ? Nos modèles d’affaires dépendent-ils d’un calcul ? Au tout début d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modèle économique à OpenAI. Pour lui, décider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer à tout. Certains espaces échappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout résoudre. Cela semble difficile à croire quand tout est désormais analysé, soupesé, mesuré« . « Il faut qu’il y ait dans le poème un nombre tel qu’il empêche de compter », disait Paul Claudel. Le poème n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, même chez le comptable, sinon à quoi bon faire ces métiers. « L’incalculable, c’est ce qui donne du sens ».
« Nous vivons dans un monde où le calcul est partout… Mais il ne donne pas toutes les réponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit à ses collègues de ne pas donner de sens et de signification dans les données. Turing qui invente l’ordinateur, explique que c’est une procédure univoque, c’est-à-dire qu’elle est reliée à un langage qui n’a qu’un sens, comme le zéro et le un. Comme si finalement, dans cette abstraction pure, réduite à l’essentiel, il était impossible de percevoir le sens ».
Hubert Guillaud
-
6:58
Vérifications et corrections géométriques et topologiques
sur OslandiaEnclosure: [download]
Crédits : Pixabay (Pixabay Content License)
L’importance de la mise en conformitéUne couche d’information géographique doit respecter de nombreuses règles de conformité.
Par exemple :
Géométriques Topologiques règles arbitraires – pas d’angle de moins de 15°
– pas de polygone de moins de 0.3 m²– pas de polygone à l’intérieur d’un autre
– pas de trouerreurs de dessin – polygone de moins de 3 points
– ligne unique dans une multi-ligne– nœud en double
– auto-intersectionsVérifier la conformité d’une couche géographique est une étape indispensable dans la validation des données, pour détecter des erreurs, ou pour s’assurer de ne pas corrompre le système d’information dans lequel elle sera intégrée.
Lorsque c’est possible, pouvoir corriger les erreurs automatiquement permet alors d’automatiser entièrement l’étape de mise en conformité des données.
Et dans QGIS ?Le plugin de vérification géométrique et topologique est disponible pour effectuer ces vérifications à l’aide d’un assistant pas-à-pas.
Après un long travail de mise à niveau du code, de création des traitements, et d’homogénéisation des méthodes, toutes ces vérifications et corrections ont été mises à disposition dans la boîte à outils de traitements !
À partir de QGIS 3.44 il est possible d’effectuer ces traitements en lot, et de les intégrer dans un modeleur graphique pour créer votre propre chaîne de vérification et correction.
Avec 21 traitements de vérification, et 10 traitements de correction, il est maintenant possible de créer des enchaînements automatiques de validation de conformité.
Ils sont disponibles dans la catégorie « Vérification de géométrie » et « Correction de géométrie ».
Les nouveaux traitementsDémonstration pour la détection et correction de petits polygones et petits angles :
document.createElement('video'); [https:]]Chaque traitement repose sur la même logique d’entrées/sorties, afin de pouvoir les enchaîner de la même manière.
Traitement global sur-mesure : démonstrationIl est ainsi possible de créer un traitement sur-mesure basé sur les blocs disponibles. Exemple ici d’un traitement qui vérifie et répare les petits polygones et les petits angles.
[https:]] Schéma des entrées-sorties des nouveaux traitementsChaque traitement suit la même logique d’entrée/sortie, ce qui les rend faciles à enchaîner dans les flux de travail.
Et ensuite…??La mise à disposition de ces traitements permet d’ouvrir la voie à l’amélioration d’outils comme QompliGIS (lien vers le plugin QGIS), d’envisager une version web où l’on pourra déposer des couches à vérifier et à réparer selon des contraintes sur-mesure, pré-définies.
N’hésitez pas à tester ces nouveaux algorithmes de traitement. Nous sommes à votre disposition pour vous accompagner, vous proposer des formations sur QGIS et les géo-traitements, ou pour configurer votre chaîne de vérification de conformité. N’hésitez pas à nous contacter à infos+qgis@oslandia.com
-
6:12
Terre Australe, projection d'un monde à l'envers vu depuis l'hémisphère sud
sur Cartographies numériques
Les cartes du monde ne sont pas forcément orientées avec le nord en haut. Tom Patterson propose une nouvelle carte du monde à l'envers, vu depuis l'hémisphère sud. Il s'agit d'une version spéciale de la projection Equal Earth, centrée sur l'Océanie (150° Est), qui a été inversée.
« Tout ce qui était autrefois familier semble désormais inconnu. L'eau domine l'hémisphère sud reculé, encerclant la planète sans interruption près de l'Antarctique. Je n'ai pas pu résister à l'envie d'y ajouter un albatros. »
Austral Earth, une vision du monde depuis l'hémisphère sud (source : Shaderelief, T. Patterson)
Choisissez la version qui vous convient le mieux :- Image JPEG de qualité moyenne, 200 DPI, 21 Mo (avec plus de 4 000 étiquettes)
- Fichier Adobe Illustrator en couches avec géoréférencement MAPublisher et art du terrain (193 Mo)
- Terrain géoréférencé avec hydrographie (GeoTIFF, 350 DPI, 187 Mo)
Visitez également le site web principal d'Equal Earth pour des versions de cette carte avec le Nord en haut, disponible en plusieurs langues.
Le site Shaderelief de Tom Patterson fournit de nombreuses autres cartes physiques à télécharger en haute résolution ainsi que des tutoriels pour les réaliser.
Articles connexes
La projection Equal Earth, un bon compromis ?
Le nord en haut de la carte : une convention qu'il faut parfois savoir dépasser
Désaxer la carte pour porter un autre regard, mais lequel ?
Andrew Rhodes et ses projections originales pour décentrer le regard sur l'Indopacifique
La projection cartographique Liquid Earth : une nouvelle projection à surfaces presque égales
Des usages de la projection Spilhaus et de notre vision du monde
Compare Map Projections. Un site pour comparer des projections cartographiques entre elles
La projection Peters, toujours aussi mal aimée ?
Projections vues de l'hémisphère sud
-
19:18
5 recommandations critiques de sécurité pour ArcGIS Enterprise 2025
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Les recommandations de sécurité pour les produits et opérations Esri évoluent à mesure que de nouvelles fonctionnalités sont disponibles et que des configurations moins sécurisées peuvent être supprimées. Cette annonce couvre trois nouvelles recommandations de configuration de sécurité essentielles que les administrateurs d'ArcGIS Enterprise doivent impérativement valider :
- Configurer les proxys autorisés
- Supprimer les clés API héritées
- Supprimer l'authentification du proxy direct
Je profite également de cet article pour rappeler deux autres recommandations de sécurité, plus générales et intemporelles :
- Importance des mises à jour de produits
- Suivre le site consacré à la sécurité des solutions Esri
1. Configurer la liste autorisée des proxys Portal for ArcGIS (allowedProxyHosts)
ArcGIS Enterprise inclut un proxy de partage qui doit toujours être configuré par l'administrateur IT afin de réduire le risque d'attaques par déni de service (DoS) ou par falsification de requête côté serveur (SSRF) exploitant ses opérations. La propriété allowedProxyHosts était initialement répertoriée comme élément de profil avancé dans le guide de renforcement d'ArcGIS Enterprise en raison de difficultés d'implémentation potentielles.
Esri l'a toutefois déplacée vers le profil de base, ce qui signifie que TOUTES les organisations doivent la configurer. Vous consulterez l'annexe J pour plus de détails sur les instructions de configuration dans le dernier guide de renforcement. On notera également qu'Esri travaille à la désactivation de l'utilisation du proxy de partage par défaut pour les nouveaux déploiements à partir de la version 12.0 d'ArcGIS Enterprise. En attendant, configurez toujours allowedProxyHosts.
2. Suppression des clés API héritées
Esri a introduit de nouvelles clés API dans ArcGIS Location Platform, ArcGIS Online et ArcGIS Enterprise. Ces clés intègrent des mécanismes de sécurité renforcés et peuvent être étendues pour une sécurité nettement renforcée. Bien qu'ArcGIS Enterprise ne puisse pas créer ni traiter de clés API héritées, certains clients les ont intégrées à leur déploiement ArcGIS Enterprise en les ajoutant à des URL appelant ArcGIS Online et Location Platform. Les clés API héritées sont intrinsèquement non sécurisées, car elles ne sont pas étendues et n'expirent jamais. Bien qu'Esri autorise les clés API héritées à fonctionner pour accéder aux services ArcGIS jusqu'à leur retrait en 2026, les clients doivent immédiatement adopter les nouvelles informations d'identification de clé API et supprimer les clés API héritées de tous les systèmes ArcGIS.
3. Éviter l'authentification par proxy direct
Si votre organisation nécessite le routage de tout le trafic Internet de vos systèmes ArcGIS Enterprise vers un proxy géré par votre organisation, veuillez vous assurer des points suivants. L'authentification de base utilisée entre ArcGIS Enterprise et le système de proxy direct d'un client a été intégrée il y a de nombreuses années pour réduire l'accès des systèmes utilisant le proxy direct pour communiquer avec les systèmes Internet. En raison de la fréquence à laquelle nous avons constaté des configurations incorrectes de proxys directs lors de l'utilisation de l'authentification de base, Esri recommande désormais fortement de NE PAS UTILISER l'authentification de base entre ArcGIS Enterprise et les proxys directs, et d'utiliser plutôt des communications restreintes standard entre les systèmes, telles que les contrôles d'accès réseau. Cette recommandation a été ajoutée dans le dernier guide de renforcement d'ArcGIS Enterprise en tant que recommandation de sécurité du profil de base (voir page 46). Esri envisage de supprimer la prise en charge de l'authentification de base avec les proxys directs des clients dans les prochaines versions en raison du risque qu'elle peut présenter.
4. L'importance des mises à jour de produits
Rappelons ici que l'utilisation de produits dont le cycle de vie est mature ou retiré constitue un déploiement extrêmement risqué et ne doit PAS être exposée au réseau Internet. Cela inclut par exemple ArcGIS Enterprise 11.0 et ArcGIS Enterprise 10.9 et bien entendu des versions antérieures. Esri recommande vivement de maintenir vos systèmes à jour avec au moins les versions de disponibilité générale de nos produits, voire la dernière version.
5. Suivre les informations de sécurité publiées sur le Trust Center ArcGIS
Suivre les annonces publiées par Esri sur le Trust Center ArcGIS est essentiel pour garantir l'intégrité, la confidentialité et la disponibilité des systèmes ArcGIS que vous administrez. Ce portail centralise les alertes de sécurité, les correctifs critiques, les mises à jour logicielles et les meilleures pratiques en matière de cybersécurité pour l’ensemble des produits Esri. En consultant régulièrement ces informations ou en souscrivant au flux RSS des annonces, vous pouvez anticiper les vulnérabilités, appliquer les correctifs à temps et vous conformer aux exigences réglementaires ou sectorielles en matière de sécurité informatique.
Vous y trouverez par exemple l'outil ArcGIS Security Adviser créé par l'équipe Esri "Software Security and Privacy" et fournit des outils aux administrateurs d'organisation dans ArcGIS Online ou ArcGIS Enterprise Server pour examiner divers aspects de la posture de sécurité de leur organisation, tout en fournissant des suggestions d'amélioration.
Le Trust Center ArcGIS vous aide à protéger les données sensibles de vos utilisateurs et partenaires. Pour les administrateurs de portails ArcGIS Online ou Enterprise, cette veille permet de maintenir un haut niveau de confiance dans les services SIG proposés. Le Trust Center ArcGIS joue ainsi un rôle clé dans une démarche proactive de gestion des risques liés à la sécurité des systèmes d'information géographiques.
-
12:06
Cartographie des Zones Climatiques Locales (LCZ) dans les aires urbaines françaises
sur Cartographies numériques
Source : « Cartographie des zones climatiques locales (LCZ) de 83 aires urbaines de plus de 50 000 habitants en France » (Cerema)
Le Cerema met à disposition l’outil Zones climatiques locales (LCZ), qui permet d’accéder aux données et cartes indiquant le degré d’exposition au phénomène d’îlot de chaleur des quartiers de 12 000 communes de France : 88 aires urbaines les plus densément peuplées sont ainsi couvertes, soit 44 millions d’habitants. Ce service est unique car il donne pour tous les territoires un accès gratuit et compréhensible à des données uniformisées, permettant de classer les zones urbaines en fonction de leur exposition potentielle au phénomène d’îlot de chaleur.
Visualisateur cartographique des Zones climatiques locales (Cerema)
Le Cerema répond ainsi à un besoin essentiel des territoires et une priorité du Plan national d’adaptation au changement climatique (PNACC3). L’évolution du climat en cours (+1,7°C en moyenne en France hexagonale depuis 1900) s’accompagne d’épisodes de forte chaleur plus fréquents et plus intenses. Le 3e Plan national d’adaptation au changement climatique (PNACC3) rendu public le 10 mars 2025 par le Ministère de la Transition écologique, de la Biodiversité, de la Forêt, de la Mer et de la Pêche, retient l’un des scénarios de référence du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), pour préparer la France : une hausse des températures moyennes de 4 °C en 2100 par rapport à l’ère préindustrielle. L’outil « LCZ » du Cerema répond à la mesure 13 du PNACC3 : « Renaturer les villes pour améliorer leur résilience face au changement climatique ».
État des lieux de la sensibilité des 88 plus grandes aires urbaines de l’Hexagone aux fortes chaleurs
L’outil dit « LCZ » couvre 88 plus grandes aires urbaines de l’Hexagone, soit 44 millions d’habitants (Outre-mer à l’étude en 2025). Il est disponible pour 12 000 communes (sur 34 826 en Hexagone) dont 248 communes de 20 000 à 50 000 habitants, 79 communes de 50 à 100 000 habitants et les 40 communes de plus de 100 000 habitants.- Plus de 5 millions d’habitants vivent dans des quartiers à forte sensibilité aux fortes chaleurs
- Plus de 20 000 hectares (200 km2, soit 2 fois la surface de la ville de Paris) de zones bâties sont à forte ou très forte sensibilité à l’effet d’îlot de chaleur et demanderaient des actions d’adaptation importantes.
- Dans les plus grandes villes (> 400 000 habitants), ces zones représentent près de 20 % des tissus urbanisés.
- Sur l’ensemble des villes de plus de 20 000 habitants, 4,2 millions de personnes vivent dans des quartiers à forte ou très forte sensibilité, soit 20 % de la population totale de ces communes
- Sur les villes de plus de 400 000 habitants, 2 millions de personnes vivent dans des secteurs à forte ou très forte sensibilité, soit 50 % de la population
- Sur les villes de 200 à 400 000 habitants, 350 000 personnes sont dans des secteurs à forte ou très forte sensibilité, soit 18 % de la population
- Ce taux est de 16 % pour les villes de 100 000 à 200 000 habitants, et il est plus faible (7 %) pour les villes de 20 000 à 50 000 habitants
L'outil LCZ. Un pré-diagnostic simple pour agir face aux fortes chaleurs
Une Zone Climatique Locale (ou LCZ pour "Local Climate Zone" en anglais), concept adopté par la communauté scientifique internationale du climat urbain depuis les travaux de Stewart et Oke [2012], est une unité de surface urbaine, de la taille de quelques îlots ou d’un quartier, avec une homogénéité de composition urbaine entraînant un comportement climatique homogène. 17 classes de LCZ différentes, réparties en deux grandes catégories selon qu’il s’agit d’une zone artificialisée ou non, permettent de qualifier l’exposition de chaque zone à la surchauffe urbaine.Ce concept se fonde sur une classification géo-climatique des territoires urbanisés ; une classification éprouvée et internationalement reconnue, issue de travaux de recherche. Il consiste à découper un territoire en zones uniformes du point de vue de l’occupation du sol (artificialisée ou naturelle), de la structure urbaine, des matériaux, et des activités humaines en supposant que ces zones ont un comportement climatique homogène. Ces zones peuvent s’étendre de quelques centaines de mètres à plusieurs kilomètres de large. 17 classes de LCZ permettant de caractériser les territoires ont été définies par des travaux de recherche : 10 classes LCZ « bâties » et 7 classes LCZ « naturelles ».
Le pôle satellitaire du Cerema a développé une méthode originale basée sur des images satellite à très haute résolution spatiale ainsi que des bases de données ouvertes pour cartographier les LCZ et identifier ainsi les quartiers particulièrement exposés à la surchauffe urbaine et susceptibles de contribuer à l’effet d’îlot de chaleur urbain.
Accès aux ressources- Visualiseur cartographique
- Données téléchargeables sur Data.gouv.fr
- Guide méthodologique
- Guide utilisateurs
- Webinaire de présentation
Cette donnée LCZ peut être utilisée comme diagnostic à grande échelle du phénomène d'Îlot de Chaleur Urbain (ICU) sur votre territoire. Elle constitue un pré-diagnostic climatique tenant compte de la morphologie urbaine et de l'occupation du sol : le but est de localiser les îlots/quartiers à enjeux sur lesquels affiner les analyses et prioriser les actions.
La plateforme CartoClimate de la Fondation CNRS Geomanum permet également d'accéder à une cartographie des Zones Climatiques Locales (LCZ). La cartographie des LCZ permet d'appréhender la réponse d’un territoire aux vagues de chaleur estivale (comportement thermique, potentiel de rafraîchissement d’une zone) et de connaître in fine les secteurs potentiellement propices à l’effet d'Îlot de Chaleur Urbain (ICU). Il convient de noter cependant que la cartographie des LCZ n'est pas une modélisation de l'Îlot de Chaleur Urbain.
En cliquant sur un îlot de la carte, vous accédez au détail de celui-ci (CartoClimate)
Références scientifiques
La typologie LCZ (Stewart et Oke, 2012) est une typologie urbaine universelle qui permet de distinguer les zones urbaines, en tenant compte de la combinaison des couvertures terrestres à micro-échelle et des propriétés physiques associées. Le schéma LCZ se distingue des autres schémas d'utilisation et d'occupation du sol par l'accent mis sur les types de paysages urbains et ruraux, qui peuvent être décrits par l'une des 17 classes qu'il contient. Sa forte valeur ajoutée réside dans la diversité des classes urbaines, facilement interprétables et globalement cohérentes, qui capturent la variabilité intra-urbaine des formes de surface et des fonctions du sol.
Stewart, I. D., and T. R. Oke, 2012: Local Climate Zones for Urban Temperature Studies [Zones climatiques locales pour les études de température urbaine]. Bull. Amer. Meteor. Soc., 93, 1879–1900, https://doi.org/10.1175/BAMS-D-11-00019.1
Demuzere, M., Kittner, J., Martilli, A., Mills, G., Moede, C., Stewart, ID, van Vliet, J., et Bechtel, B. (2022). A global map of local climate zones to support earth system modelling and urban-scale environmental science [Une carte mondiale des zones climatiques locales pour soutenir la modélisation du système terrestre et la science environnementale à l'échelle urbaine]. Earth Syst. Sci. Data, 14, 3835-3873, [https:]]
Le site LCZ-generator fournit une cartographie mondiale des zones climatiques locales à une résolution spatiale de 100 m, dérivée de plusieurs ensembles de données d'observation de la Terre et d'étiquettes de classe LCZ expertes.
Carte des zones climatiques locales à l'échelle mondiale (source : LCZ-generator)
Sur les 17 classes de ZCL, 10 reflètent l'environnement bâti, et chaque type de ZCL est associé à des descriptions numériques génériques des principaux paramètres de la canopée urbaine, essentiels à la modélisation des réponses atmosphériques à l'urbanisation. De plus, les ZCL ayant été initialement conçues comme un nouveau cadre pour les études sur les îlots de chaleur urbains , elles contiennent également un ensemble limité (7) de classes d'occupation du sol « naturelles » pouvant servir de zones de « témoin » ou de « référence naturelle ». Ces sept classes naturelles du schéma ZCL ne permettant pas de saisir l'hétérogénéité des écosystèmes naturels existants, il est conseillé, si nécessaire, de combiner les classes de ZCL construites avec tout autre produit d'occupation du sol offrant un éventail plus large de classes d'occupation du sol naturelles.
Ensemble des données disponibles à l'échelle mondiale en téléchargement sur Zenodo.
Pour compléter
Iungman et al. (2024). Impact des configurations urbaines sur les îlots de chaleur urbains, la pollution atmosphérique, les émissions de CO2 et la mortalité en Europe : une approche fondée sur la science des données. The Lancet Planetary Health 8(7), p. 489-505. [https:]]
Articles connexes
Ilots de chaleur et inégalités urbaines en France
Adapt’Canicules. Identifier les vulnérabilités des quartiers populaires face aux canicules
CAPAMOB, un guide du Cerema pour réaliser des diagnostics de mobilités en territoire rural ou péri-urbain
La France est-elle préparée aux dérèglements climatiques à l'horizon 2050 ?
Renforcer l'atténuation, engager l'adaptation (3e rapport du Haut Conseil pour le climat - 2021)
Rapport du Giec 2021 : le changement climatique actuel est « sans précédent »
Les villes face au changement climatique et à la croissance démographique
Le choc climatique frappe déjà les villes les plus peuplées du monde (rapport WaterAid)
Surmortalité attribuée à la chaleur et au froid : étude d'impact sur la santé dans 854 villes européennes
R4RE, une plateforme cartographique d'analyse de résilience pour les bâtiments (Observatoire de l'immobilier durable)
-
11:30
Représentations des risques d’inondation, adaptation et évacuation en Île-de-France
sur CybergeoL’étude des déterminants des représentations liées aux risques et leurs effets sur les niveaux de préparation des populations exposées conduit à des conclusions souvent contradictoires d’une étude de cas à une autre. De nombreuses théories et hypothèses concurrentes ont été formulées dans des disciplines différentes, mais aucune n’est parvenue à s’imposer empiriquement. La validation croisée des résultats est complexe et le champ des risk perception s’apparente souvent à une collection d’études de cas indépendantes et peu comparables. À partir d’une enquête par questionnaire sur les représentations liées au risque inondation à Paris et en Île-de-France sur un échantillon de grande taille (n=2976), cet article propose une réflexion théorique et méthodologique pour consolider le positionnement de la géographie dans le champ des représentations des risques, pour mieux démêler les facteurs sociaux et territoriaux. Les questions de recherche se structurent autour du rôle de l’exposition ...
-
11:30
Mark Monmonier, 2023, Comment faire mentir les cartes, Paris, Flammarion, 304 p.
sur CybergeoInitialement publié en 1991 et rapidement traduit en français (1993), Comment faire mentir les cartes de Mark Monmonier est un livre dont l’auteur admet lui-même qu’il n’a pas complètement atteint son objectif. Il voulait en faire un ouvrage pour le grand public et surtout pas un manuel étudiant. C’est pourtant, en France du moins, ce qu’il est devenu. La troisième édition, sortie aux États-Unis en 2018, a été traduite dès 2019 dans la collection Autrement de Flammarion. Cinq ans plus tard, le même éditeur ressort aujourd’hui cet ouvrage en format poche dans sa collection Champs/essais. Si les illustrations pâtissent de la réduction du format et de la qualité de la reprographie, le format et le prix le rendent plus accessible. Cela pourrait enfin lui ouvrir les portes du lectorat initialement visé : "Le lecteur intelligent et non-initié qui s’intéresse à la cartographie" (p.14).
Car, il faut le rappeler, et le titre nous le suggère, ce n’est pas d’un traité de cartographie dont il s’...
-
11:30
Les échanges fonciers agricoles, levier pour la transition agroécologique de l’élevage ?
sur CybergeoL’agriculture contribue aux dérèglements climatiques et à l’érosion de la biodiversité autant qu’elle en subit les conséquences Les pratiques agricoles évoluent pour y remédier, notamment à travers la transition agroécologique qui propose de combiner les savoirs de l’agronomie et de l’écologie. La dimension foncière (distribution et droits d’usage des parcelles) de ces pratiques est peu explorée par la recherche, en dépit de son caractère déterminant pour cette transition. Cet article examine les avantages et limites des échanges de foncier agricole pour la diminution des émissions de gaz à effet de serre et pour le maintien d’habitats favorables à la biodiversité, mais aussi pour les conditions de travail des agriculteurs. Il s’appuie sur l’analyse de l’élevage laitier dans la Zone Atelier Armorique, à partir d’entretiens auprès de services (para-)publics en charge du foncier agricole en Ille-et-Vilaine. Combinant des approches en écologie, en géographie et en droit, cette étude pr...
-
11:30
Hervé Théry, 2024, Amazone. Un monde en partage, Paris, CNRS Éditions, 229 p.
sur CybergeoAprès le Congo, le Tigre et l’Euphrate, le Mississippi et la Volga, voici l’Amazone. Ce livre est publié dans la collection Géohistoire d’un fleuve, dirigée par Thierry Sanjuan. Hervé Théry, grand spécialiste du Brésil et de l’Amérique latine, s’attaque à un véritable monument, le plus grand fleuve du monde, par la taille de son bassin, par son débit et par sa longueur même si, chiffres à la clé, il montre que ce dernier record est contesté par le Nil.
C’est un livre de facture classique que nous livre le géographe. Le style est précis, très clair, sans jargon. Hervé Théry expose des faits, donne des chiffres (et les compare avec d’autres avec une volonté didactique affichée), décrit des lieux avant de se livrer à des analyses et de pointer quelques enjeux majeurs. Citons-les tout de suite : le "partage" de cet immense territoire, les incendies, la déforestation, l’accessibilité et les voies de circulation, la mondialisation des problèmes amazoniens, les droits des peuples autochtone...
-
11:30
La passation des marchés publics : une entrée utile pour l’analyse des interactions spatiales dans l’espace français
sur CybergeoL’ouverture récente des données concernant la passation des marchés publics à l’échelle européenne permet d’accéder à des informations sur les acheteurs publics et sur les entreprises prestataires sélectionnées. Le « nettoyage » et géoréférencement de la base de données à l’échelle européenne Tenders Electronic Daily (TED) sur les marchés publics a permis de créer et mettre à disposition de tous une base à l’échelle du territoire français, la base French Open Public Procurement Award Notices (FOPPA). Cette base permet d’explorer de manière inédite les interactions entre des unités spatiales de différentes échelles. Elle offre la possibilité d’identifier les acteurs impliqués dans les marchés, leurs partenaires, ainsi que le type de marché, afin d’analyser et d’expliquer ces relations.
Dans cet article, nous illustrons les possibilités offertes par la base FOPPA, en produisant des analyses essentiellement descriptives des interactions, au prisme de la commande publique, aux échelles r... -
11:30
Searching for Data: Nature and Flow of Information Underlying Urban Wild Boar Management Policies. Bordeaux (France) as a Case Study
sur CybergeoNature in the city harbours a wide range of biodiversity. While some species are welcomed, others have settled in uninvited. This is the case with wild boar. The challenge of managing large urban wildlife is not only ecological but also cultural, political, and ethical. This study, driven by the general uncertainty surrounding the socio-ecological issues of coexistence with urban wild boar and potential solutions, explores and discusses the nature and flow of information underlying the specie’s management policies. Our approach is based on a field survey conducted in Bordeaux Metropolis, aimed at tracking the shared information between local stakeholders. The objectives are twofold: i) to gather and analyse existing data on urban wild boar, the problems generated by their presence in the city, and the management systems; ii) to model information flows between social groups facing the challenges of coexistence with wild boar or involved in their management. The study points to a lack...
-
11:30
Les micropolluants émergents dans les eaux littorales : représentations et enjeux de gestion d’un problème complexe. Le cas du Pays basque français
sur CybergeoLa qualité de l’eau du littoral basque français est un enjeu crucial pour les gestionnaires locaux. Parmi les dégradations qu’elle subit, les micropolluants représentent un défi majeur. Ces substances chimiques, aussi appelées polluants émergents, peuvent nuire à la santé humaine et à l’environnement malgré leur présence en faibles concentrations. Leur gestion est complexe en raison de leur diversité, de leurs origines multiples, d’une absence massive de réglementation et de la nécessité d’une approche globale et multi-niveaux pour réduire leur impact, ce qui en fait un "problème épineux". Cet article a pour objectif d’appréhender les dynamiques et les défis de la gestion de ces polluants en portant la focale sur les acteurs locaux et leurs représentations du problème. La gestion de l’eau implique divers acteurs publics et privés, chacun ayant des intérêts et des responsabilités variés. Pour cette étude, 65 acteurs ont été interrogés sur leurs visions de la situation locale et de la...
-
11:30
Digues et “nature”. Résultats d’une enquête sur la perception des digues et de leur évolution en France au XXIe siècle
sur CybergeoLe paradigme classique de la gestion des digues est centré sur la défense contre les eaux. Souhaitant proposer une vision multifonctionnelle et durable de ces ouvrages, nous avons retenu sept tronçons de digues maritimes et fluviales en France. Nous présentons ici une enquête menée auprès de 828 riverains et usagers de digues pour analyser leur perception et représentations. Si la fonction défensive de ces ouvrages demeure bien connue, la perception des digues urbaines et rurales diverge en matière de connaissance des digues et de liens entre digues et nature. Les enquêtés mettent en avant la naturalité des digues – objet pourtant artificiel. Cinq scénarios d’évolution des digues à l’avenir ont été proposés aux enquêtés : renforcer les digues, les ouvrir/abaisser, les végétaliser davantage, les aménager davantage, ou ne rien y changer. Le scénario le plus souhaité est celui d’un maintien à l’identique et le moins refusé, celui de la végétalisation des digues ; le renforcement des di...
-
11:30
Nepthys Zwer, 2024, Pour un spatio-féminisme, De l'espace à la carte, Paris, La découverte, 216 p.
sur CybergeoAvec pour ambition d’inscrire son ouvrage Pour un spatio-féminisme, De l'espace à la carte (2024) au sein de la quatrième vague féministe (Dagorn, 2011), Nepthys Zwer propose de déconstruire les discours spatiaux genrés. Richement illustré par les photographies et cartes de l’autrice ou des acteur.rice.s rencontré.e.s, l’ouvrage selon Zwer n’est pas à classer avec les manuels d’épistémologie et de concepts géographiques. Nourri par les théories féministes, il offre aux géographes spécialistes du genre un état des lieux autour des pratiques spatiales genrées, tandis que d’autres y trouveront une première entrée pour comprendre les racines des comportements sexués et des usages différenciés de l’espace.
À travers les ateliers animés par l’autrice et la méthode de la contre-cartographie ("contre-carte", Peluso, 1995), Zwer mobilise plusieurs cas d’études en milieu urbain, en France et à l’étranger. Le choix de cette méthode permet de rendre compte d’espaces et/ou de phénomènes absents d...
-
11:30
Postal horse relays and roads in France, from the 17th to the 19th centuries
sur CybergeoLa base de données présentée ici résulte d’un travail collectif mené depuis une vingtaine d’années, réunissant géographes, géohistoriens et géomaticiens, autour d’un des premiers réseaux de transport rapide créé en France, celui de la poste à cheval. Les objectifs de recherche ont varié au cours des années, comme nous le montrons dans cet article, mais se sont constamment appuyés sur l’exploitation de la saisie du réseau à différentes dates dans un système d’information géographique (SIG). La base fournit les informations permettant la modélisation du réseau des routes de la poste à cheval et leur relais (où les montures étaient changées) sur ce SIG Historique, de 1632 à 1833, à sept dates. Quatre fichiers peuvent être téléchargés : la localisation et le nom des relais et des communes actuelles dans lesquels ils sont localisés en 1632, 1708, 1733, 1758, 1783, 1810 et 1833 (numérisés à partir d’une carte de 1632 et des Livres de Poste) ; les routes numérisées selon une distance à vol...
-
11:00
Mappery: You arrrr here
sur Planet OSGeoAnita shared this neat little pirate map which comes with an attached cocktail
-
10:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
10:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
10:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
10:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
10:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
10:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
10:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
10:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
10:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
10:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:43
Nuit sportive
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueL’ING Night Marathon Luxemburg est l’un des marathons urbains les plus exigeants d‘Europe. Le circuit des 42.195 km mène les coureurs par les quartiers du Kirchberg, Limpertsberg, Belair, Merl, Hollerich, Gare et centre-ville pour les reconduire au point de départ. Comme chaque année, le Service Topographie et géomatique de la ville de Luxembourg a proposé pour la course du 31 mai une carte interactive du parcours officiel en se basant sur sa plate-forme « Citymap - Ville de Luxembourg » basée sur ArcGIS. Le tracé apparait selon le mode de consultation choisi, en 2D ou 3D, et en fonction des calques choisis, par exemple en ajoutant le modèle urbain 3D ou des ombrages. Avec la topo gris foncé, l’immersion nocturne est garantie !
+ d'infos :
urls.fr/vVwV_v
-
8:16
When is the sun directly overhead?
sur Google Maps ManiaThe longest day of the year occurs this coming Saturday. In the Northern Hemisphere, the summer solstice is on June 21st. This is the day when the subsolar point - the location on Earth where the Sun is directly overhead at solar noon - reaches its northernmost position, directly above the Tropic of Cancer. The subsolar point moves north and south throughout the year as the Earth orbits the
-
7:00
“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”
sur Dans les algorithmesAlors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple à Abilene au Texas, où OpenAI (associé à Oracle et SoftBank) construit un data center géant, premier des 10 mégasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coûter quelque 12 milliards de dollars (voir également le reportage de 40 minutes en vidéo qui revient notamment sur les tensions liées à ces constructions). Mais plus que de centres de données, il faut désormais parler « d’usine à IA », comme le propose le patron de Nvidia, Jensen Huang.
“De 2005 à 2017, la quantité d’électricité destinée aux centres de données est restée relativement stable grâce à des gains d’efficacité, malgré la construction d’une multitude de nouveaux centres de données pour répondre à l’essor des services en ligne basés sur le cloud, de Facebook à Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivée de l’IA, cette consommation s’est envolée. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est désormais destinée aux centres de données. “Compte tenu de l’orientation de l’IA – plus personnalisée, capable de raisonner et de résoudre des problèmes complexes à notre place, partout où nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA à elle seule pourrait consommer chaque année autant d’électricité que 22 % des foyers américains.
“Les chiffres sur la consommation énergétique de l’IA court-circuitent souvent le débat, soit en réprimandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux réactions esquivent l’essentiel : l’IA est incontournable, et même si une seule requête est à faible impact, les gouvernements et les entreprises façonnent désormais un avenir énergétique bien plus vaste autour des besoins de l’IA”. ChatGPT est désormais considéré comme le cinquième site web le plus visité au monde, juste après Instagram et devant X. Et ChatGPT n’est que l’arbre de la forêt des applications de l’IA qui s’intègrent partout autour de nous. Or, rappelle la Technology Review, l’information et les données sur la consommation énergétique du secteur restent très parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraînement des modèles est énergétiquement coûteux, c’est désormais son utilisation qui devient problématique, notamment, comme l’explique très pédagogiquement Le Monde, parce que les requêtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui évaluent la consommation énergétique de requêtes selon les moteurs d’IA utilisés, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de données qu’on estime en activité aux Etats-Unis, de plus en plus d’espaces sont consacrés à des infrastructures dédiées à l’IA, notamment avec des serveurs dotés de puces spécifiques qui ont une consommation énergétique importante pour exécuter leurs opérations avancées sans surchauffe.
Calculer l’impact énergétique d’une requête n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modèle, le type de résultat généré et d’innombrables variables indépendantes de votre volonté, comme le réseau électrique connecté au centre de données auquel votre requête est envoyée et l’heure de son traitement, peuvent rendre une requête mille fois plus énergivore et émettrice d’émissions qu’une autre”. Outre cette grande variabilité de l’impact, il faut ajouter l’opacité des géants de l’IA à communiquer des informations et des données fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modèles, la complexité des questions sont autant d’éléments qui influent sur la consommation énergétique. Bien évidemment, la production de vidéo consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidéo générative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas démontrée et ne prend pas en compte l’effet rebond que génèrerait les vidéos génératives si elles devenaient peu coûteuses à produire.
La Techno Review propose donc une estimation d’usage quotidien, à savoir en prenant comme moyenne le fait de poser 15 questions à un modèle d’IA génératives, faire 10 essais d’image et produire 5 secondes de vidéo. Ce qui équivaudrait (très grossièrement) à consommer 2,9 kilowattheures d’électricité, l’équivalent d’un micro-onde allumé pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dépend beaucoup de sa localisation, selon que les réseaux sont plus ou moins décarbonés, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalités de calcul mobilisées par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricité produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette même électricité en Virginie-Occidentale pourrait faire grimper le total à plus de 1 150 grammes”. On peut généraliser ces estimations pour tenter de calculer l’impact global de l’IA… et faire des calculs compliqués pour tenter d’approcher la réalité… “Mais toutes ces estimations ne reflètent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisées l’année prochaine ou la suivante dans les “usines à IA” que déploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissémine autour du monde. Dans cette course au nombre de token générés par seconde, qui devient l’indicateur clé de l’industrie, c’est l’architecture de l’informatique elle-même qui est modifiée. Huang parle de passage à l’échelle qui nécessite de générer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le déploiement d’une IA toujours plus puissante. Cela passe bien évidemment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces.
« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modèles d’IA au cours de la journée, ni de leur demander de générer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tâches pour nous, où nous discutons en continue avec des agents, où nous “confierons des tâches complexes à des modèles de raisonnement dont on a constaté qu’ils consomment 43 fois plus d’énergie pour les problèmes simples, ou à des modèles de « recherche approfondie”, qui passeront des heures à créer des rapports pour nous ». Nous disposerons de modèles d’IA “personnalisés” par l’apprentissage de nos données et de nos préférences. Et ces modèles sont appelés à s’intégrer partout, des lignes téléphoniques des services clients aux cabinets médicaux… Comme le montrait les dernières démonstrations de Google en la matière : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possède les modèles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce côté, là course démarre à peine. Google prévoit par exemple d’intégrer l’IA partout, pour créer des résumés d’email comme des mailings automatisés adaptés à votre style qui répondront pour vous. Meta imagine intégrer l’IA dans toute sa chaîne publicitaire pour permettre à quiconque de générer des publicités et demain, les générer selon les profils : plus personne ne verra la même ! Les usages actuels de l’IA n’ont rien à voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidéo que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent déjà au passé. Le succès et l’intégration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimé des utilisateurs de l’IA de 700 millions en mars à 3,5 milliards en mai 2025.
”Tous les chercheurs interrogés ont affirmé qu’il était impossible d’appréhender les besoins énergétiques futurs en extrapolant simplement l’énergie utilisée par les requêtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent à construire des centrales nucléaires est d’ailleurs le révélateur qu’elles prévoient, elles, une explosion de leurs besoins énergétiques. « Les quelques chiffres dont nous disposons peuvent apporter un éclairage infime sur notre situation actuelle, mais les années à venir sont incertaines », déclare Sasha Luccioni de Hugging Face. « Les outils d’IA générative nous sont imposés de force, et il devient de plus en plus difficile de s’en désengager ou de faire des choix éclairés en matière d’énergie et de climat. »
La prolifération de l’IA fait peser des perspectives très lourdes sur l’avenir de notre consommation énergétique. “Entre 2024 et 2028, la part de l’électricité américaine destinée aux centres de données pourrait tripler, passant de 4,4 % actuellement à 12 %” Toutes les entreprises estiment que l’IA va nous aider à découvrir des solutions, que son efficacité énergétique va s’améliorer… Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est déjà le cas, assure-t-il en vantant les mérites des prochaines génération de puces à venir. Mais sans données, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du département de l’énergie américain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle étude, les particuliers pourraient finir par payer une partie de la facture de cette révolution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysé les accords entre les entreprises de services publics et les géants de la technologie comme Meta, qui régissent le prix de l’électricité dans les nouveaux centres de données gigantesques. Ils ont constaté que les remises accordées par les entreprises de services publics aux géants de la technologie peuvent augmenter les tarifs d’électricité payés par les consommateurs. Les impacts écologiques de l’IA s’apprêtent donc à être maximums, à mesure que ses déploiements s’intègrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le réseau électrique et le monde qui nous entoure”.
L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifères que le magazine dresse, la TechReview rappelle bien sûr que les modèles d’IA vont devenir plus efficaces, moins chers et moins gourmands énergétiquement, par exemple en entraînant des modèles avec des données plus organisées et adaptées à des tâches spécifiques. Des perspectives s’échaffaudent aussi du côté des puces et des capacités de calculs, ou encore par l’amélioration du refroidissement des centres de calculs. Beaucoup d’ingénieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, à mesure que la technologie à l’origine de ces révolutions s’est améliorée, les coûts de l’énergie sont restés plus ou moins stables, malgré l’explosion du nombre d’utilisateurs”. Pas sûr que réitérer ces vieilles promesses suffise.
Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux à venir sont avant toutes coincées dans le présent. Et elles le sont d’autant plus que les mesures de la consommation énergétique de l’IA sont coincées dans les mesures d’hier, sans être capables de prendre en compte l’efficience à venir et que les effets rebonds de la consommation, dans la perspective de systèmes d’IA distribués partout, accessibles partout, voire pire d’une IA qui se substitue à tous les usages numériques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience énergétique va s’améliorer, le rebond des usages par l’intégration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbés voir totalement dépassés avec l’extension et l’accroissement des usages.
-
1:52
Sean Gillies: Bear training week 17 recap
sur Planet OSGeoI didn't do a lot of running in week 17, but none of it was flat. I did a solid uphill treadmill run on Thursday and a hot trail run at Lory State Park on Saturday.
12.8 miles running
10 hours, 40 minutes all training
3,667 ft D+ running
In addition to those two runs, I did a hard elliptical workout and rode a bike three days. I did some weight training at home and at the gym, and did two sauna sessions. I'm trying to do 2-3 20-minute sessions a week in June to get ready for potentially hot weather at Never Summer. Andrew Huberman has a nice long podcast episode about the science of deliberate heat exposure that I found super interesting. If you haven't heard it, it's well worth a listen.
I went out for 2.5 hours in sunny 30 °C conditions yesterday and felt warm, but okay. The modest amount of heat training that I've been doing seems to be working. I'm going to stick with passive heating in the sauna a few times a week and one hot run every week. As much as I enjoy hearing about David Roche's extreme heat traing regimen, I won't be buying a heat suit or core temperature sensor.
Like I said last week, I've found it hard to adapt to downhill running when I'm not doing much downhill running. Today my quads are quite sore after yesterday's three miles of steep descents. I need to do more, that's all there is to it!
A faint 4WD trail through grass and flowers over the top of a small summit under a mostly blue summer sky.
-
11:00
Mappery: Frozen Four
sur Planet OSGeoEnclosure: [download]
Doug shared this “The location of Western Michigan University on the shoulder of their jerseys”
-
8:58
Cartes et complotisme. Quand les cartes de pieuvres déploient leurs nombreuses tentacules
sur Cartographies numériquesSource : Puerta, E., Spivak, S. C., Correll, M. (2025). « The Many Tendrils of the Octopus Map ». CHI '25: Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, n° 970, 1-20, [https:]] (article en accès libre).
Dans cet article, des chercheurs américains explorent le fonctionnement des cartes de pieuvres comme arguments visuels à travers l'analyse d'exemples historiques et une étude participative sur la façon dont les données sous-jacentes et l'utilisation de métaphores visuelles peuvent contribuer à des interprétations négatives ou conspirationnistes. Ils montrent que certaines caractéristiques de données ou de styles visuels peuvent conduire à une pensée « de type pieuvre » dans les visualisations, même sans l'utilisation explicite d'un motif de pieuvre. Ils concluent en appelant à une analyse plus approfondie de la rhétorique visuelle de ces cartes, en soulignant le potentiel des datavisualisations à contribuer à une pensée néfaste ou conspirationniste.
En représentant une entité centrale aux multiples bras tentaculaires, ces cartes-pieuvre suggèrent un contrôle diffus, hostile et souvent dissimulé. L'un des premiers exemples connus de carte de pieuvre a été publié par Fred W. Rose en 1877 pendant la guerre russo-ottomane. La carte représente les pays européens par des figures humaines, tandis que la Russie est représentée par une pieuvre déployant ses tentacules sur les pays voisins. Ce type de cartes est à rattacher au courant de la cartographie persuasive qui s'intéresse au pouvoir rhétorique des cartes. L'une des fonctions de ces cartes sensationnalistes est de présenter l'ennemi comme une menace, ce qui peut être également réalisé à travers l'utilisation de lignes ou de flèches, de la couleur, de l'ombrage ou encore de la projection. On peut retrouver la métaphore visuelle de la pieuvre dans la visualisation des graphes ayant émergé au XIXe siècle avec les organigrammes, et au XXe siècle avec les sociogrammes. Ces sociogrammes ont établi de nombreuses conventions de conception dans les diagrammes de nœuds-liens modernes, telles que l'utilisation de la couleur et de la forme pour désigner les attributs des nœuds et des arêtes.
Les métaphores aident à la compréhension d'un domaine en l'ancrant dans un autre, ce qui est particulièrement le cas avec l'utilisation d'images anthropomorphes et zoomorphes. L'utilisation de monstres ou d'autres animaux en cartographie a une longue histoire, par exemple pour désigner (ou peupler) des régions inconnues du monde sur les cartes européennes depuis au moins la Renaissance. Dans d'autres cas, l'entité elle-même est utilisée comme métonymie pour un pays dans son ensemble, avec des exemples bien connus comme l'Europa Regina du XVIe siècle (où le continent européen est représenté sous la forme d'une reine avec divers pays dessinant ses parties constitutives) ou encore Leo Belgicus (où les Pays-Bas sont représentés sous la forme d'un lion, avec des informations géographiques représentées à l'intérieur de son « corps »). Bien que de nombreux animaux aient été utilisés pour symboliser des empires, des pays, des religions et des entités sociales et politiques, la pieuvre est unique par son utilisation répandue et cohérente à travers les époques, les régions et les cultures. Elle a été utilisée pour susciter la peur, l’indignation, la sympathie, le dégoût et le nationalisme, généralement dans le cadre d’un appel à l’action.
Les cartes de pieuvres peuvent être réparties en différentes sous-catégories. Bien qu'il puisse exister des pieuvres bienveillantes, ces cartes présentent généralement le même argument visuel implicite : un organisme centralisé et néfaste utilise de multiples leviers de contrôle pour envahir ou affaiblir de larges pans d'une région ou d'un système. Il existe occasionnellement des variations ou des exceptions à cette forme générale, par exemple, en établissant un lien entre la pieuvre et la gorgone ou l'hydre, sémiotiquement similaires. L'étude participative qui a été conduite auprès de 256 participants avait pour objectif d'évaluer l'impact rhétorique des composantes visuelles et structurelles d'une carte-pieuvre d'un territoire fictif le Huskiland, à partir de 6 composantes :- Centralité : Huskiland est une puissance militaire centrale dans la région.
- Tentacularité : Huskiland étend sa portée militaire.
- Portée : Huskiland est déjà présent dans de nombreux pays de la région.
- Intentionnalité : le placement des bases de Huskiland fait partie d'une stratégie militaire intentionnelle.
- Saisie : Huskiland utilise ces bases pour exercer un contrôle militaire ou politique sur ses voisins.
- Menace : Huskiland constitue une menace pour la paix et la stabilité de la région.
Les concepteurs de visualisations (notamment académiques) sont tentés de considérer (à tort) leur travail comme « le simple compte rendu ou la structuration de faits objectifs », la persuasion ou les appels rhétoriques étant considérés comme l'apanage exclusif d'acteurs malveillants ou manipulateurs. Les résultats suggèrent cependant que la cartographie et la visualisation ne peuvent être clairement distinguées entre cartes et graphiques sensationnalistes et « persuasifs » et graphiques plus « neutres » sans intention rhétorique manifeste. Les lecteurs, eux aussi, apportent leurs propres attentes et contextes aux cartes et aux graphiques, ce qui rend impossible une dichotomie claire entre visions neutres ou sensationnalistes des données. La bonne intention des concepteurs de visualisations ne suffit pas à éviter la culpabilité morale quant à la manière dont les visualisations peuvent être mal interprétées ou détournées à des fins conspirationnistes. Un exemple est l'utilisation rhétorique des visualisations de données sur la COVID-19, où des activités de littératie des données apparemment bien conduites, comme le questionnement des sources, l'évaluation du positionnement et la réalisation d'analyses alternatives, ont été utilisées pour étayer la pensée conspirationniste.
Articles connexes
Cartes et caricatures. Recension de cartes satiriques et de cartes de propagande
La rhétorique derrière les cartes de propagande sur le coronavirus
Étudier l'expansion de la Chine en Asie du Sud-Est à travers des cartes-caricatures
La carte, objet éminemment politique. Carte-caricature et dispositif narratif
Les nouvelles façons de « faire mentir les cartes » à l'ère numérique
Bouger les lignes de la carte. Une exposition du Leventhal Map & Education Center de Boston
L'histoire par les cartes : les créatures marines monstrueuses d'Olaus Magnus
Les animaux sur les cartes géographiques anciennes (1500-1800)
Utiliser le lion pour politiser la géographie (blog de la Bibliothèque du Congrès)
La carte, objet éminemment politique
-
12:18
Quelles seraient les conséquences d'un effondrement de l'AMOC ?
sur Cartographies numériques
Que se passerait-il si la principale circulation océanique de l’Atlantique, qui régule le climat mondial et européen, venait à s’effondrer ? C'est ce qu'analyse une étude néerlandaise parue en juin 2025 dans la revue Geophysical Research Letters en proposant plusieurs scénarios :René M. van Westen, Michiel L. J. Baatsen (2025). European Temperature Extremes Under Different AMOC Scenarios in the Community Earth System Model, Geophysical Research Letters, vol. 52, 12, 11 June 2025.
La circulation méridienne de retournement Atlantique (en anglais AMOC) est le principal système de courants océaniques de l'Atlantique. Une grande partie du transfert de chaleur dans l'Atlantique est due au Gulf Stream, un courant de surface qui transporte l'eau chaude vers le nord depuis les Caraïbes. Alors que le Gulf Stream dans son ensemble est uniquement entraîné par les vents, son segment le plus septentrional, le courant nord-atlantique tire une grande partie de sa chaleur des échanges thermohalins dans l'AMOC. Ainsi, l'AMOC transporte jusqu'à 25 % de la chaleur totale vers l'hémisphère nord, jouant un rôle majeur dans le climat de l'Europe du nord-ouest.
La circulation méridionale de retournement de l'Atlantique (AMOC) modère le climat européen. Un affaiblissement substantiel de l'AMOC sous l'effet du changement climatique pourrait entraîner une Europe plus froide dans un monde plus chaud. L'objectif dans cet article scientifique est de quantifier l'évolution des températures européennes selon différents scénarios d'AMOC et de changement climatique à l'aide du Modèle Communautaire du Système Terrestre (CESM).
Températures extrêmes en Europe selon différents scénarios d'AMOC à partir du Modèle communautaire du système terrestre (source : van Westen & Baatsen, 2025)
Lorsque l'AMOC s'effondre complètement sans les effets du changement climatique, les extrêmes de température hivernale en Europe du Nord-Ouest s'intensifient (avec une chute pouvant atteindre 15 °C par endroits). L'intensification des extrêmes de froid est liée à la présence de glace de mer près de l'Europe du Nord-Ouest. Si l'on considère un AMOC réduit sous des conditions intermédiaires de réchauffement climatique : la limite de la banquise recule vers le nord et les impacts sur la température sont moindres, mais restent considérables. Outre les variations de température, les tempêtes hivernales devraient s'intensifier et entraîner d'importantes fluctuations de températures quotidiennes dans le cadre d'un AMOC nettement plus faible. Les températures européennes du futur seront déterminées par la force de l'AMOC et l'ampleur du réchauffement climatique.
L'article est accompagné d’une carte interactive qui permet de visualiser les changements avec +2° de réchauffement climatique et un AMOC effondré. Les données de cet outil en ligne sont issues du Modèle Communautaire du Système Terrestre. Les simulations climatiques ont été réalisées sur le supercalculateur national néerlandais Snellius dans le cadre du projet NWO-SURF 2024.013. Les données complètes sont disponibles sur Zenodo.Articles connexes
Vers un affaiblissement du Gulf Stream dans l'Atlantique nord
Rapport du Giec 2021 : le changement climatique actuel est « sans précédent »
Densité du trafic maritime mondial et effets sur le réchauffement climatique
Comment la cartographie animée et l'infographie donne à voir le réchauffement climatique
CLIWOC. Une base de données climatologiques des océans à partir des journaux de bord des navires (1750-1850)
Faut-il relancer les Zones marines d'importance écologique ou biologique (ZIEB) ?
-
11:00
Mappery: Ukrainian Poems
sur Planet OSGeoReinder spotted this in a thrift shop. It’s a book of Ukrainian poems translated into English. We are wondering if the map is Kiev or …? Maybe one of our Ukrainian followers can help us out? Regardless this is a high impact book cover and could become one of my favourites.
-
7:42
Prosecuting Crimes Against Humanity
sur Google Maps ManiaThe Universal Jurisdiction Interactive Map (UJIM), developed by TRIAL International, is a comprehensive and accessible digital tool designed to track and display criminal cases related to serious international crimes such as genocide, war crimes, crimes against humanity, torture, enforced disappearances, and the crime of aggression.Universal Jurisdiction is a legal principle that allows states
-
14:00
Revue de presse du 13 juin 2025
sur GeotribuUne GeoRDP rédigée à 100% par des plumes humaines, comme d'habitude. Au menu : une enquête sur la qualité de vos données géo, de la géo en Romandie, des nouvelles de la galaxie QGIS locale et globale, des tuiles, de l'art, et des vaches.
-
11:49
Nouveautés d'ArcGIS Reality Studio 2025.1
sur arcOrama, un blog sur les SIG, ceux d ESRI en particulier
Avec de nombreuses évolutions et innovations depuis près de 2 ans maintenant, le moteur de photogrammétrie numérique du système ArcGIS devient désormais une des références du marché. Ce dernier permet, à travers différentes applications comme ArcGIS Drone2Map, Site Scan for ArcGIS, ArcGIS Reality for Pro ou ArcGIS Reality Studio, de créer des contenus 2D et 3D de haute-qualité à partir d'images collectées par drone, par avion ou satellite. Ce moteur de "Reality Capture" évolue rapidement et je m'en fait l'écho régulièrement à l'occasion de la mise à jour de ces différentes applications.
Aujourd'hui, Esri annonce la version 2025.1 d'ArcGIS Reality Studio, l'application la plus complète pour réaliser vos workflows de création de photomaillages 3D, d'orthophotos "vraies", de MNT/MNS, de nuages de points,... à partir de données d'imagerie aéroportée (drone, avion, satellite). Je vous propose un aperçu des principales fonctionnalités et améliorations de la version de mai 2025.
Utiliser des données LiDAR comme entrée supplémentaire
Vous pouvez désormais compléter vos images en entrée avec des données LiDAR pour améliorer les reconstructions 3D, notamment en zone urbaine ou pour les bâtiments à surfaces réfléchissantes. Cette amélioration garantit de meilleurs résultats dans les zones fortement occultées, comme les zones urbaines avec de grands immeubles, et permet de reconstruire plus précisément les bâtiments aux surfaces hautement réfléchissantes. L'utilisation du lidar comme entrée supplémentaire peut également améliorer les résultats dans les zones fortement ombragées.
Vous en apprendrez plus sur cette nouvelle fonctionnalité dans ce court tutoriel :
Nouvelles capacités d'édition des photomaillages 3D (3D Meshes)
De nouveaux outils intégrés font leur apparition pour vous permettent de modifier des photomaillages 3D directement dans ArcGIS Reality Studio. Ces outils vous aideront à corriger rapidement les problèmes, comme les espaces vides sur les surfaces réfléchissantes, sans avoir à retraiter l'intégralité du photomaillage 3D.
Vous en apprendrez plus sur cette nouvelle fonctionnalité dans ce court tutoriel :
De plus, vous pouvez créer des "géométries de contrôle qualité" pour marquer des zones spécifiques pour un retraitement ciblé, les exporter pour des modifications avancées à l'aide d'applications tierces, puis réimporter les nouveaux modèles dans Reality Studio pour un retraitement, qui les intègre ensuite dans le photomaillage final.
Vous en apprendrez plus sur cette amélioration dans ce court tutoriel :
Les nouveaux outils et fonctionnalités ajoutés pour l'édition de maillage sont passionnants et si vous souhaitez en savoir plus sur ces améliorations, un prochain article arcOrama expliquera ce processus en détails.
Plus de capacités lors de l'export de vos photomaillages 3D
Les fonctionnalités de l'outil d'export ont été étendues pour offrir davantage d'options. Vous pouvez désormais générer des formats de photomaillage supplémentaires, exporter des zones plus petites, appliquer des corrections de couleur pour les rendre plus vives ou supprimer les effets atmosphériques, et appliquer des décalages verticaux pour corriger les problèmes d'élévation. Ces fonctionnalités offrent une plus grande flexibilité et un meilleur contrôle sur vos résultats finaux.
Améliorations de l'alignement
-
Vue "Galerie" : La vue "Galerie" affiche désormais davantage d'images
simultanément, permettant une mesure manuelle plus rapide des points de
contrôle au sol et des contrôles de précision plus rapides.
Vous pouvez regarder ce court tutoriel pour en savoir plus sur cette amélioration :
- Optimisation d'image distribuée et extraction d'entités : les étapes d'optimisation et d'extraction d'entités sont désormais plus rapides grâce au traitement distribué. Cela réduit considérablement le temps nécessaire à l'alignement des images.
- Prise en charge de la séquence d'angles de rotation Phi-Omega-Kappa : les utilisateurs peuvent désormais importer directement les angles d'orientation donnés dans l'ordre de rotation Phi-Omega-Kappa, ce qui est typique des systèmes de caméra Vexcel.
Autres améliorations
- Mises à jour plus rapides des résultats de reconstruction : l'application de géométries de correction ou de géométries de plan d'eau est désormais plus rapide, car seules les zones affectées sont retraitées.
- Photomaillages 3D optimisés pour un meilleur streaming : les maillages sont désormais optimisés pour des performances de rendu améliorées, en particulier pour les applications mobiles, Web et AR/VR, et ils occupent moins de stockage sur disque.
- Sélecteur de référence spatiale : lorsque vous importez ou créez de nouveaux éléments, vous pouvez désormais choisir de copier la référence spatiale d'un élément existant de votre projet. Cela simplifie l'importation.
- Le gestionnaire de processus a été simplifié grâce au regroupement des tâches selon leur état de traitement. Cela facilite la recherche et la gestion de vos projets.
J'espère que ces nouvelles fonctionnalités et ces améliorations optimiseront vos flux de travail de photogrammétrie umérique et vous permettront d'optimiser encore davantage vos performances avec ArcGIS Reality Studio. Pour plus de détails sur ces fonctionnalités, vous pouvez également consulter cette page de la documentation.
Si vous avez des questions ou des idées, n'hésitez pas à les communiquer aux équipes ArcGIS Reality Studio d'Esri via les pages dédiées la communauté Esri.
-
Vue "Galerie" : La vue "Galerie" affiche désormais davantage d'images
simultanément, permettant une mesure manuelle plus rapide des points de
contrôle au sol et des contrôles de précision plus rapides.
-
11:00
Mappery: Walking on the World in Valencia
sur Planet OSGeoAngel Arenas sent me this pic of his latest giant interactive map in a square in Valencia. The map is 230 square metres, that’s pretty massive. Maybe the biggest ever?
-
9:12
800K Galaxies - 1 Map
sur Google Maps ManiaThe newly unveiled COSMOS-Web is the largest, most detailed map of the universe ever created. The map plots nearly 800,000 galaxies, and almost spans the entire 13.8-billion-year history of the cosmos.The map is the result of a multinational collaboration led by astrophysicists at UC Santa Barbara and the Rochester Institute of Technology - using data collected by the James Webb Space Telescope.