Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
4393 éléments (149 non lus) dans 55 canaux
- Cybergeo (30 non lus)
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (6 non lus)
- Mappemonde (30 non lus)
- Dans les algorithmes (17 non lus)
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN (1 non lus)
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier (9 non lus)
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée (2 non lus)
- Geotribu (1 non lus)
- Les cafés géographiques (2 non lus)
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO) (10 non lus)
- Datafoncier, données pour les territoires (Cerema) (1 non lus)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (11 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques (15 non lus)
- Veille cartographie (1 non lus)
- Makina Corpus (7 non lus)
- Oslandia (6 non lus)
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Dans la presse (82 non lus)
-
7:30
A quoi sert l’innovation si elle ne fonctionne pas pour tout le monde ?
sur Dans les algorithmesA quoi sert l’innovation si elle ne fonctionne pas pour tout le monde ? interrogent, dans un essai provocateur, Rachel Coldicutt et Matt Dowse. La politique d’innovation au Royaume-Uni (mais c’est également le cas bien au-delà) se concentre sur deux priorités que sont la croissance des entreprises et l’amélioration de la recherche. Des perspectives qui négligent le monde réel de l’innovation, celle qui se déploie au quotidien, alimentée par l’ingéniosité, l’expérimentation et l’adaptation des technologies existantes. Pourtant, l’innovation communautaire a un impact plus local, une application plus disparate et une intention plus régénératrice que de nombreuses grandes technologies et percées primées – ce qui signifie qu’elle est également plus difficile à classer dans des tableaux ou à traduire en gros titres accrocheurs. En tant que telle, elle est moins visible pour les décideurs politiques.
« Pourtant, l’innovation communautaire – qui permet la résolution de problèmes contextuels, le développement d’infrastructures sociales et la création de biens communs de la connaissance – se produit partout au Royaume-Uni, souvent avec peu ou pas de soutien. Nous pensons que soutenir et encourager l’innovation locale et indépendante est essentiel pour relancer l’économie de l’innovation au Royaume-Uni de manière à ce qu’elle profite à davantage de personnes à travers le pays. Cela permettra de développer des compétences, des capacités et des équipements locaux qui ne dépendent pas d’un petit nombre d’entreprises de la Silicon Valley, de construire une infrastructure sociale solide et de créer de nouvelles opportunités pour davantage de personnes, dans davantage d’endroits – en fin de compte, de construire une économie de l’innovation plus diversifiée avec des niveaux plus élevés d’avantages publics et de participation ».
Changer d’échelleLes technologies à plus petite échelle sont pourtant un élément essentiel de la résilience à long terme, en particulier dans le contexte de l’urgence climatique.
« Plutôt que de faire profiter un petit groupe d’innovateurs appartenant à l’élite sociale, une économie de l’innovation véritablement moderne doit chercher à créer des opportunités plus plurielles et équitables, accessibles au-delà des grandes institutions de recherche et des grandes entreprises technologiques, qui privilégient la régénération plutôt que l’extraction, et qui élèvent et autonomisent les personnes et les communautés dans leur diversité ».
Petite dans ce cas ne signifie pas un manque d’ambition. Des technologies à plus petites échelles signifient des technologies peu concentrées et plurielles, c’est-à-dire des technologies qui puissent apporter une alternative à la nature intensive en ressources des technologies modernes à grande échelle. La question écologique rend ce changement d’échelle urgent, et il est probable qu’un passage à des approches informatiques à plus petite échelle et plus distribuées deviendra un impératif au cours de la prochaine décennie. C’est particulièrement vrai des technologies d’IA, comme le rappelaient récemment Gael Varoquaux, Alexandra Sasha Luccioni et Meredith Whittaker dans un article, soulignant que l’IA a développé un « goût malsain pour l’échelle », excluant structurellement les petits acteurs. Nous devons œuvrer à ce que le passage à grande échelle ne soit pas la solution universelle à tous les problèmes et nous concentrer plutôt sur des modèles qui peuvent être exécutés sur du matériel largement disponible, à des coûts modérés. « Cela permettra à davantage d’acteurs de façonner la manière dont les systèmes d’IA sont créés et utilisés, offrant une valeur plus immédiate dans des applications allant de la santé aux services aux entreprises, tout en permettant une pratique plus démocratique de l’IA ».
Pour y parvenir, estiment Coldicutt et Dowse, il est nécessaire d’opter pour un changement de culture et un changement de discours, afin que l’innovation à petite échelle et à long terme qui construit l’infrastructure sociale, cultive les compétences et autonomise les personnes et les communautés puisse être célébrée, recevoir des investissements et jouer un rôle actif. Les deux auteurs estiment que pour cela, il faut modifier l’investissement technologique, pour donner la priorité aux rendements sociaux à long terme plutôt qu’aux profits à court terme. Qu’il faut produire des infrastructures pour favoriser les investissements à long terme en faveur de sociétés équitables, plutôt que de soutenir les rendements d’un petit nombre d’entreprises et d’investisseurs de la Silicon Valley. Cela nécessite également de réfléchir à adapter nos modalités d’organisation pour faciliter cette autre économie de l’innovation. « Faisons en sorte que la technologie fonctionne pour 8 milliards de personnes et non pour 8 milliardaires ».
Des technologies pour tous dans une économie du soinL’enjeu est de favoriser des technologies qui améliorent la qualité de vie, la santé, le bien être, le travail, les loisirs, les relations sociales et les opportunités économiques pour tous, partout. Nous devons passer d’une innovation top-down à une innovation communautaire, comme le propose Careful Trouble, l’initiative que Coldicutt a lancé, à la fois cabinet de conseil et entreprise sociale communautaire – rappelons que Rachel Coldicutt a été longtemps l’animatrice de DotEveryone, le think tank britannique dédié au développement de technologies responsables, dont les activités ont été continuées par l’Ada Lovelace Institute et l’Open Data institute. Carfeul Trouble vient soutenir des personnes et des communautés qui gèrent des coopératives d’énergie responsables, des collectifs de soins sociaux, des pubs et des bibliothèques communautaires, des studios de technologie et des centres artistiques, des programmes de rénovation de logements et des entreprises de médias locaux. Autant d’exemples et d’initiatives qui servent à renforcer le réseau technologique communautaire et qui montrent que les technologies peuvent être utilisées pour renforcer les liens sociaux, la résilience et créer de la valeur économique de proximité, s’ils ne manquaient pas de soutiens et d’investissements (à New York également, Community Tech propose de reconstruire la technologie pour bâtir des communautés, en développant également une autre approche et un autre rapport à la technologie).
Coldicutt et Dowse rappellent que la population reste pessimiste quant à l’impact actuel des technologies. Et elle a raison : les opportunités créées par l’innovation technologique, telle qu’on la pratique, ne sont pas réparties équitablement, bien au contraire. Pour résoudre ce problème, il est nécessaire de repenser les normes d’innovation, ce qui ne se fera pas simplement par des investissements accrus dans les grandes entreprises ou dans l’innovation de pointe. « Si l’on ne peut pas compter sur un petit nombre d’entreprises pour créer la prospérité pour tous, il faut alors promouvoir un autre modèle d’innovation », plus inclusif, défendent-ils.
Bien sûr, il reste difficile de traduire la nécessité d’un pluralisme d’innovation en politique. Dans le domaine technologique, on considère que l’innovation ne se déroule que dans un contexte capitaliste, déconnecté des contextes sociaux, économiques et politiques où les technologies opèrent. Le passage à l’échelle et le rendement financier sont partout les principaux indicateurs de réussite et ne bénéficient qu’à un petit nombre d’initiatives. A l’inverse, les approches sociotechniques plus complexes reçoivent relativement peu de soutien, ce qui signifie qu’elles sont plus susceptibles de rester au stade pilote ou de démonstrateur, ou d’être reclassées comme des initiatives « Tech for Good » à faibles enjeux qui dépendent du financement caritatif. Mis en concurrence avec des investissements technologiques de plusieurs milliards visant à fournir des solutions universelles à grande échelle, l’innovation communautaire peut sembler pittoresque et quelque peu amateur, avec peu de portée ou d’impact ; cependant, cela est simplement dû au cadrage que nous portons sur l’innovation – « une grande partie de la vie réelle, en ligne et hors ligne, se déroule dans le plurivers des relations plutôt que dans des transactions ou des bilans d’entreprises, et les technologies que nous développons et utilisons devraient refléter et améliorer cela ».
Il n’existe pas de solution miracle, de modèle, de pilote ou d’innovation qui puisse résoudre les défis systémiques qui sont devant nous, rappellent les auteurs. Le changement de système nécessite de multiples innovations transformatrices à différents moments et niveaux.
Mais, fondamentalement, soutenir un modèle mixte d’innovation signifie s’éloigner d’une tendance à faire de gros paris sur une seule technologie ou un seul mécanisme réglementaire et s’engager à gérer une variété d’interventions à des vitesses et des rythmes différents, comme le disent l’ethnographe Vanessa Lefton et la designer Alex Fleming du Policy Lab. Pour Hilary Cottam, auteure de Radical Help (Virago, 2018), une société florissante ne peut pas être atteinte en maintenant une vision économique du monde figée et unique, expliquait-elle dans une tribune : « Nous avons besoin d’un code de conception – les valeurs et les paramètres qui permettent aux petites solutions à échelle humaine de se développer dans un cadre national. Il s’agit d’un processus d’élaboration des politiques qui repose sur une vision claire, des réseaux et des relations humaines. Il est à l’opposé du processus actuel d’élaboration des politiques de commandement et de contrôle industriel. Les paramètres définiront de nouvelles formes de mesures et de réglementation, au sein d’une culture dans laquelle nos relations les uns avec les autres sont ce qui compte le plus. Cela nécessite à son tour un nouveau cadre économique : une économie du soin.«
Les technologies et l’innovation n’existent pas seulement comme des intensificateurs économiques. « Les interventions communautaires sont essentielles pour concevoir et créer des infrastructures qui reflètent notre vie réelle au-delà des exigences de la croissance économique ; pour réaliser le plein potentiel des initiatives existantes et cultiver les conditions nécessaires à un changement plus axé sur la communauté, l’innovation communautaire doit être visible, avec une place à la table des grandes entreprises, avec un investissement proportionnel et un soutien politique ».
Pour y parvenir, Coldicutt et Dowse proposent de rediriger une partie significative de l’investissement et du soutien politique vers ces autres formes d’innovation. « Une bonne croissance nécessite les bonnes conditions pour prendre racine. L’innovation communautaire est un excellent compost, mais elle a besoin de la lumière du soleil des investissements et d’une bonne politique pour s’épanouir et se développer. » -
9:53
Vers l’IA « physique »
sur Dans les algorithmesL’IA transforme la façon dont les robots apprennent à se déplacer et à naviguer dans les environnements. Ils acquièrent des compétences plus rapidement que jamais et s’adaptent d’une manière que l’on pensait auparavant impossible. Le Financial Times fait le point sur les progrès de l’IA robotique, celle qui comprend les lois de la physique pour travailler avec nous. Des robots qui tournent les pages d’un livre ou qui mettent des tee-shirts sur un cintre. L’article explique, très graphiquement, que la méthode utilisée pour que l’IA génère des images ou du texte, est désormais utilisée pour produire des actions. « Cela signifie que les robots peuvent apprendre une nouvelle tâche, comme utiliser un marteau ou tourner une vis, puis l’appliquer dans différents contextes ». Le problème pour l’instant reste encore de passer d’une tâche à l’autre, mais pour cela l’espoir consiste à construire des Large Action Models, c’est-à-dire de très grands modèles d’actions et de produire les données pour y parvenir.
De là à avoir des robots domestiques capables d’évoluer dans nos environnements complexes, il y a encore quelques progrès à faire. Mais l’idée d’un robot capable de faire le ménage dans nos intérieurs semble plus près de se réaliser qu’hier.
-
8:53
Eaux sous contrôle
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa ville de Montréal met en ligne sa nouvelle carte interactive du Réseau de suivi du milieu aquatique (RSMA). Cette plate-forme vise à publier les résultats d’analyse des échantillons prélevés de mai à novembre dans les eaux autour et sur l’île de Montréal. Ces prélèvements sont effectués dans le cadre des programmes Qualo et Ruisso. Le premier vise à faire des analyses bactériologiques de l’eau pendant vingt semaines dans des zones stratégiques afin de déterminer les endroits propices à la création de nouveaux aménagements visant à favoriser la réappropriation, par les citoyens, des usages liés à la qualité de l’eau. Le second mesure la qualité des eaux des ruisseaux et des plans d’eau intérieurs en milieu urbain pour prioriser les actions de protections de ces derniers. La qualité des eaux est évaluée d’excellente à polluée et détaille les données de prélèvement comme la température ou le pH.
+ d'infos :
donnees.montreal.ca
-
7:30
Où est passée la grande désinformation de l’IA ?
sur Dans les algorithmesL’effondrement de l’information a-t-il eu lieu ? En tout cas, la submersion des contenus par l’IA générative qu’annonçaient de nombreux médias au début de la campagne électorale américaine n’a semble-t-il pas eu lieu, ou pas comme on l’a escompté, explique Matteo Wong pour The Atlantic. C’est ce qu’explique un trio de chercheurs de l’université de Purdue, Christina Walker, Daniel Schiff et Kaylyn Jackson Schiff, qui ont collecté les images et vidéos politiques générées par l’IA depuis juin 2023. Les contenus générés par l’IA durant la campagne électorale ont été nombreux, mais ils ont surtout été utilisés sous forme de satire ou de divertissement que comme outils de désinformation. Leur usage a été bien plus transparent qu’attendue. Les images étaient fausses mais ne faisaient pas semblant d’être vraies.
Reste qu’on mesure mal l’impact de ces partages, modèrent les chercheurs. « Ces images et vidéos générées par l’IA sont instantanément lisibles et ciblent explicitement le partage d’émotions plutôt que les informations (…). » Ces images ont peut-être finalement très bien accompagné la disparition des faits, du consensus et de la rationalité. Elles ont d’abord permis de faire primer l’émotion sur la rationalité dans un moment où la vérité était particulièrement malmenée… mais d’abord par les discours politiques eux-mêmes.
MAJ du 21/11/2024 : « L’IA semble avoir moins contribué à façonner la façon dont les gens ont voté et bien plus à éroder leur foi dans la réalité », rapporte le Washington Post. Elle a été plus utilisée pour consolider les croyances partisanes que pour influencer les mentalités, brouillant la réalité. Des chercheurs de l’Institute for Strategic Dialogue ont constaté que les utilisateurs croyaient plus souvent que le contenu authentique était généré par l’IA que l’inverse. Nous sommes bien plus dans une crise de la réalité que dans une crise de désinformation.
-
7:30
L’État artificiel : la vie civique automatisée
sur Dans les algorithmesLe philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur.
Vers des machines pour délibérer à notre placeDans leur expérimentation, les chercheurs rapportent que les participants ont préféré les déclarations générées par les IA à celle des humains. Pour Horning, cela signifie peut-être que les gens « sont plus susceptibles d’être d’accord avec une position lorsqu’il semble que personne ne la défende vraiment qu’avec une position articulée par une autre personne ». Effectivement, peut-être que le fait qu’elles soient artificielles et désincarnées peut aider, mais peut-être parce que formulées par la puissance des LLM, ces propositions peuvent sembler plus claires et neutres, comme le sont souvent les productions de l’IA générative, donc plus compréhensibles et séduisantes. Les chercheurs mettent en avant l’efficacité et la rapidité de leur solution, par rapport aux délibérations humaines, lentes et inefficaces – mais reconnaissent que les propositions et les synthèses faites par les outils nécessiteraient d’être vérifiées. 404 media rapportait il y a peu le développement d’une IA pour manipuler les réseaux sociaux permettant de cibler les messages selon les discours politiques des publics. Pas sûr effectivement qu’il y ait beaucoup de différence entre les machines d’Habermas de Google et ces outils de manipulation de l’opinion.
Ces efforts à automatiser la sphère publique rappellent à Horning le livre de Hiroki Azuma, General Will 2.0 (2011) qui défendait justement l’utilisation de la surveillance à grande échelle pour calculer mathématiquement la volonté générale de la population et se passer de délibération. « Nous vivons à une époque où tout le monde est constamment dérangé par des « autres » avec lesquels il est impossible de trouver un compromis », expliquait Azuma, en boomer avant l’heure. Il suffit donc d’abandonner la présomption d’Habermas et d’Arendt selon laquelle la politique nécessite la construction d’un consensus par le biais de discussions… pour évacuer à la fois le compromis et les autres. D’où l’idée d’automatiser la politique en agrégeant les données, les comportements et en les transformant directement en décisions politiques.
Rob Horning voit dans cette expérimentation un moyen de limiter la conflictualité et de lisser les opinions divergentes. Comme on le constate déjà avec les réseaux sociaux, l’idée est de remplacer une sphère publique par une architecture logicielle, et la communication interpersonnelle par un traitement de l’information déguisé en langage naturel, explique-t-il avec acuité. « Libérer l’homme de l’ordre des hommes (la communication) afin de lui permettre de vivre sur la base de l’ordre des choses (la volonté générale) seule », comme le prophétise Azuma, correspond parfaitement à l’idéologie ultra rationaliste de nombre de projets d’IA qui voient la communication comme un inconvénient et les rencontres interpersonnelles comme autant de désagréments à éviter. « Le fantasme est d’éliminer l’ordre des humains et de le remplacer par un ordre des choses » permettant de produire la gouvernance directement depuis les données. Les intentions doivent être extraites et les LLM – qui n’auraient aucune intentionnalité (ce qui n’est pas si sûr) – serviraient de format ou de langage permettant d’éviter l’intersubjectivité, de transformer et consolider les volontés, plus que de recueillir la volonté de chacun. Pour Horning, le risque est grand de ne considérer la conscience de chacun que comme un épiphénomène au profit de celle de la machine qui à terme pourrait seule produire la conscience de tous. Dans cette vision du monde, les données ne visent qu’à produire le contrôle social, qu’à produire une illusion d’action collective pour des personnes de plus en plus isolées les unes des autres, dépossédées de la conflictualité et de l’action collective.
Mais les données ne parlent pas pour elles-mêmes, nous disait déjà danah boyd, qui dénonçait déjà le risque de leur politisation. La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. Seule la rétroaction attentionnelle vient forger les communautés politiques, consistant à soumettre ceux qui sont en désaccord aux opinions validées par les autres. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active. Pour les ingénieurs de Google, la délibération politique pourrait devenir une question où chacun prêche ses opinions dans une application et attend qu’un calculateur d’opinion décide de l’état de la sphère publique. Et le téléphone, à son tour, pourrait bombarder les utilisateurs de déclarations optimisées pour modérer et normaliser leurs opinions afin de lisser les dissensions à grande échelle. Bref, une sorte de délibération démocratique sous tutelle algorithmique. Un peu comme si notre avenir politique consistait à produire un Twitter sous LLM qui vous exposerait à ce que vous devez penser, sans même s’interroger sur toutes les défaillances et manipulations des amplifications qui y auraient cours. Une vision de la politique parfaitement glaçante et qui minimise toutes les manipulations possibles, comme nous ne cessons de les minimiser sur la façon dont les réseaux sociaux organisent le débat public.
Dans le New Yorker, l’historienne Jill Lepore dresse un constat similaire sur la manière dont nos communications sont déjà façonnées par des procédures qui nous échappent. Depuis les années 60, la confiance dans les autorités n’a cessé de s’effondrer, explique-t-elle en se demandant en quoi cette chute de la confiance a été accélérée par les recommandations automatisées qui ont produit à la fois un électorat aliéné, polarisé et méfiant et des élus paralysés. Les campagnes politiques sont désormais entièrement produites depuis des éléments de marketing politique numérique.
En septembre, le Stanford Digital Economy Lab a publié les Digitalist papers, une collection d’essais d’universitaires et surtout de dirigeants de la Tech qui avancent que l’IA pourrait sauver la démocratie américaine, rien de moins ! Heureusement, d’autres auteurs soutiennent l’exact inverse. Dans son livre Algorithms and the End of Politics (Bristol University Press, 2021), l’économiste Scott Timcke explique que la datafication favorise le néolibéralisme et renforce les inégalités. Dans Théorie politique de l’ère numérique (Cambridge University Press, 2023), le philosophe Mathias Risse explique que la démocratie nécessitera de faire des choix difficiles en matière de technologie. Or, pour l’instant, ces choix sont uniquement ceux d’entreprises. Pour Lepore, nous vivons désormais dans un « État artificiel », c’est-à-dire « une infrastructure de communication numérique utilisée par les stratèges politiques et les entreprises privées pour organiser et automatiser le discours politique ».
Une société vulnérable à la subversionLa politique se réduit à la manipulation numérique d’algorithmes d’exploration de l’attention, la confiance dans le gouvernement à une architecture numérique appartenant aux entreprises et la citoyenneté à des engagements en ligne soigneusement testés et ciblés. « Au sein de l’État artificiel, presque tous les éléments de la vie démocratique américaine – la société civile, le gouvernement représentatif, la presse libre, la liberté d’expression et la foi dans les élections – sont vulnérables à la subversion », prévient Lepore. Au lieu de prendre des décisions par délibération démocratique, l’État artificiel propose des prédictions par le calcul, la capture de la sphère publique par le commerce basé sur les données et le remplacement des décisions des humains par celles des machines. Le problème, c’est qu’alors que les États démocratiques créent des citoyens, l’État artificiel crée des trolls, formule, cinglante, l’historienne en décrivant la lente montée des techniques de marketing numérique dans la politique comme dans le journalisme.
À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils ne sont démocratiques. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède. Dans l’État artificiel, l’essentiel des discours politiques sont le fait de bots. Et X semble notamment en avoir plus que jamais, malgré la promesse de Musk d’en débarrasser la plateforme. « L’État artificiel est l’élevage industriel de la vie publique, le tri et la segmentation, l’isolement et l’aliénation, la destruction de la communauté humaine. » Dans sa Théorie politique de l’ère numérique, Risse décrit et dénonce une démocratie qui fonctionnerait à l’échelle de la machine : les juges seraient remplacés par des algorithmes sophistiqués, les législateurs par des « systèmes de choix collectifs pilotés par l’IA ». Autant de perspectives qui répandent une forme de grande utopie démocratique de l’IA portée par des technoprophètes, complètement déconnectée des réalités démocratiques. Les Digitalist Papers reproduisent la même utopie, en prônant une démocratie des machines plutôt que le financement de l’éducation publique ou des instances de représentations. Dans les Digitalists Papers, seul le juriste Lawrence Lessig semble émettre une mise en garde, en annonçant que l’IA risque surtout d’aggraver un système politique déjà défaillant.
La grande difficulté devant nous va consister à démanteler ces croyances conclut Lepore. D’autant que, comme le montre plusieurs années de problèmes politiques liés au numérique, le risque n’est pas que nous soyons submergés par le faux et la désinformation, mais que nous soyons rendus toujours plus impuissants. « L’objectif principal de la désinformation n’est pas de nous persuader que des choses fausses sont vraies. Elle vise à nous faire nous sentir impuissants », disait déjà Ethan Zuckerman. Dans une vie civique artificielle, la politique devient la seule affaire de ceux qui produisent l’artifice.
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...
-
10:30
Digital twins: a territorial mediation to watch
sur CybergeoDigital technological solutions, supposedly turnkey and always effective, are regularly offered to cities. They can however attract many criticisms: for example, if they are "smart cities" - which work with difficulty when they clash with the diversity of urban forms and functions (Caruso, Pumain & Thomas, 2023); or if it is the concept of "mobility-as-a-service" that induces unanticipated effects on accessibility equity (Pangbourne et al., 2020); or "city dashboards" that ultimately offer only a very limited view of urban processes and raise ethical issues (Kitchin & McCardle, 2017). In this vein, it is the concept of Digital Twin that becomes the most fashionable for cities and territories. Would this new instrument be more convincing?
In the strict sense, the digital twin of a system is a computerized representation that simulates its internal processes and interacts with it in real time by two-way coupling (Batty, 2018). When it applies to the city, the practical meaning of the c...
-
10:30
Les jumeaux numériques : une médiation territoriale à surveiller
sur CybergeoDes solutions technologiques numériques, supposées clé-en-main et toujours efficaces sont régulièrement proposées aux villes. Pourtant, elles s’attirent maintes critiques : par exemple si ce sont des “smart cities” - qui fonctionnent difficilement quand elles se heurtent à la diversité des formes et fonctions urbaines (Caruso, Pumain & Thomas, 2023) ; ou s’il s’agit du concept de “mobility-as-a-service” qui induit des effets non anticipés sur l’équité d’accessibilité (Pangbourne et al., 2020) ; ou encore des “city dashboards” qui n’offrent finalement qu’une vue très limitée des processus urbains et qui soulèvent des enjeux éthiques (Kitchin & McArdle, 2017). Dans cette veine, c’est le concept de Jumeau Numérique qui devient le plus à la mode pour les villes et les territoires. Ce nouvel instrument serait-il plus probant ?
Au sens strict, le jumeau numérique d’un système est une représentation informatisée qui simule ses processus internes et interagit avec celui-ci en temps réel par ...
-
10:30
Couplage de données et méthodes, une approche méthodologique originale de modélisation de la trame noire
sur CybergeoAlors que les impacts anthropiques sur la biodiversité urbaine et péri-urbaine sont étudiés depuis au moins cinquante ans, les effets de la pollution par l'éclairage artificiel sur la biodiversité nocturne par les politiques publiques est moins explorée. Cet article présente une cartographie des surfaces éclairées sur le territoire de Brest métropole, fondée sur les données de gestion du parc d'éclairage public, et son croisement avec les données d'occupation du sol pour construire un modèle de trame noire. La cartographie est d'abord générée en combinant une typologie des distributions photométriques avec les valeurs de flux lumineux. Puis, le modèle est construit par le calcul d'indices de biodiversité carroyés (méthode déductive) et par le calcul de graphes paysagers (méthode intégrative) expérimenté sur une espèce de chauve-souris. Un facteur de correction est intégré afin de permettre d'affiner le modèle par des mesures de terrain. Les résultats obtenus montrent que la cartogra...
-
10:30
Le domaine public, une réserve d’urbanisation invisible ? Application d’une méthode géomatique aux cas d’étude de Rennes et de Bordeaux
sur CybergeoAlors que la propriété foncière publique constitue un levier pour la maîtrise de l’aménagement du territoire, sa connaissance demeure partielle. Une partie seulement de la propriété foncière publique est consignée dans les données cadastrales. En effet, le domaine public, majoritairement non cadastré, n’est de fait pas pris en compte dans les principales bases de données existantes. Cet article propose une méthode d’identification de ces espaces et de leur évolution à partir d’une chaîne de traitements géomatiques. La méthode améliore les données cadastrales historicisées permettant en creux d’identifier l’espace non cadastré et sa correspondance avec le domaine public. À partir des cas d’étude de Bordeaux Métropole et de Rennes Métropole, les résultats montrent que, s’il est théoriquement inaliénable et imprescriptible, le domaine public enregistre, dans les faits, de nombreuses transformations, et est le support de dynamiques d’urbanisation qui échappent à l’actuelle mesure instit...
-
10:30
Une trame communale immuable ? La nécessaire géohistoire des communes françaises (1800-2024)
sur CybergeoLes communes constituent la plus petite des mailles de l’administration territoriale française depuis la Révolution. Ces entités sont également les plus nombreuses. L’évolution de ce maillage est peu connue. Cet article propose une approche spatialisée de l’évolution du nombre de communes françaises. Les données exploitées sont extraites de la base dite "Cassini" qui est ici présentée, tout en pointant ses limites. L’article analyse tout d’abord les rythmes de l’évolution du nombre de communes françaises. On note trois périodes de diminution rapide du nombre de communes : 1800-années 1830, années 1960-1970 et années 2010. Chaque période présente une géographie spécifique, qui invite à penser le département comme un cadre pertinent pour penser l’échelon communal, en raison du rôle que joue l’administration déconcentrée de l’État et particulièrement le préfet. Partant de ce constat, l’article propose une typologie des départements du point de vue de l’évolution du nombre de communes.
-
10:30
Vélo et pandémie du Covid-19 : une structuration multiscalaire du réseau associatif en Île-de-France
sur CybergeoLes travaux réalisés autour de la pandémie de Covid-19 présentent cette dernière comme une période de changement radical en matière de mobilité. La crise sanitaire a permis de renouveler les discours sur le vélo comme mode de déplacement quotidien et de franchir de nouvelles étapes en matière de politiques publiques (aides à la réparation de vélos, aménagements cyclables provisoires tels que les "coronapistes"). Cet article étudie la structuration du réseau associatif pro-vélo en Île-de-France, en analysant ses dynamiques spatiales et son évolution de 1970 à 2023. Dans quelle mesure la crise du Covid-19 a-t-elle constitué un accélérateur des processus en cours, ou bien un levier de changements plus radicaux ? L’article mobilise des données quantitatives (recensement d’associations) et qualitatives (récits d’histoires associatives, entretiens d’acteur.rice.s associatifs, de collectivités territoriales et institutions) issues de deux corpus : l’un constitué avant 2020, l’autre après c...
-
10:30
De la adaptación urbana a la escasez del agua en Phoenix y Tucson (Arizona): una aproximación desde la ecología política
sur CybergeoEn el contexto del cambio climático, las sequias aumentan y los territorios sufren un grave estrés hídrico. Este artículo examina la gestión del desequilibrio entre la disponibilidad de agua y la creciente demande en Phoenix y Tucson, en el árido oeste de Estados Unidos. A partir de un estudio de caso que pone de relieve las cuestiones socioecologicas de la escasez, esta investigación propone considerar las ciudades de Phoenix y Tucson como laboratorios de adaptación urbana al cambio climático para explorar diferentes modalidades de adaptación. El análisis moviliza los conceptos de la ecología política urbana para examinar las relaciones de poder entre los actores de la gestión del agua en un contexto en el que se cuestiona cada vez más el sistema de infraestructuras hídricas que sustenta el crecimiento urbano. Por un lado, el artículo muestra que los actores dominantes aplican estrategias de adaptación para mantener la trayectoria de crecimiento de ciudades especialmente atractivas...
-
10:30
Katja Schicht, 2023, Alexander von Humboldts Klimatologie in der Zirkulation von Wissen. Historisch-kritische Edition der Berliner Briefe (1830-1859) und ihre Kontexte, Hildesheim, Zürich, New York, Olms, 577 p.
sur CybergeoAlexander von Humboldt (1769-1859) était l'un des naturalistes les plus productifs de son époque. L'explorateur a notamment contribué dans les domaines de la géologie et du magnétisme terrestre, ainsi que dans ceux de la connaissance de la biodiversité et de la géographie de l'Amérique du Sud. Ses travaux sur le climat ont récemment reçu une attention accrue. Le naturaliste lui-même n'a en effet jamais rassemblé ses thèses météorologiques et climatologiques dans une publication intégrale. Il est donc d'autant plus appréciable que soient parus presque simultanément plusieurs volumes contenant une sélection d'écrits de Humboldt sur la climatologie ainsi qu'une présentation des débuts de la recherche climatique moderne à l'aide de documents choisis dans le fonds (Nachlass) de Humboldt à la Bibliothèque d'État de Berlin (Erdmann, Brönnimann, 2023 ; Humboldt, 2023a ; Humboldt 2023b). Cette édition critique de trois correspondances d'Alexander von Humboldt datant des années 1830 à 1859 es...
-
10:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:30
Moisson de prix francophones
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueÀ l’occasion de la conférence internationale des utilisateurs Esri, les organisations de plusieurs francophones ont été récompensées par le Special Achievement in GIS (SAG) Award 2024. À commencer par l’Agence algérienne du service géologique qui a été primée pour la modernisation et la mise en valeur du produit de la Banque Nationale des Données géologiques (BNDG) et de ses applications. Le ministère des Mines et de la géologie du Sénégal fait partie des lauréats du SAG, comme le projet d’urgence de développement territorial et de résilience du Burkina Faso et la Compagnie ivoirienne d’Électricité. En Europe, la Société Nationale des Chemins de fer luxembourgeois a été saluée pour son projet de numérisation de l’entièreté de ses anciens plans d’accès et leur transformation en une carte SIG interactive. En Belgique, le ministère de la Défense est aussi à l’honneur cette année, comme la section géospatiale de l’OTAN. En Suisse, outre les organisations onusiennes OCHA et INSARAG, c’est le travail de l’équipe SIG de la Ville de Genève (photo) qui a été applaudie pour son environnement SIG moderne et unifié des différents départements de l’administrationpublique de la ville. Enfin, le gouvernement de Nouvelle Calédonie a été salué pour son utilisation globale des SIG depuis 1995 à travers son portail GEOREP.
+ d'infos :
events.esri.com
-
17:41
« Musk n’est pas notre projet »
sur Dans les algorithmes« La régulation est le prolongement de la démocratie et un moyen d’en assurer la défense », rappelle Jean Cattan, secrétaire général du Conseil national du numérique. « L’approfondissement de la portabilité des données, des contacts, graphes sociaux, historiques, préférences, etc. devrait être la priorité de la Commission européenne dans la mise en œuvre du règlement sur les marchés numériques à l’heure de la bascule des réseaux sociaux dominants dans un environnement politique potentiellement hors de contrôle. En soutien et en parallèle à l’élaboration de ce cadre, encourageons le déploiement des outils de portabilité. Certains existent, d’autres doivent encore être développés. » Et Cattan d’inviter à déployer des alternatives aux Big Tech libres et ouvertes, à repenser le panorama médiatique et à miser sur la proximité.
-
8:39
Tout pour se développer
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiquearcOpole a publié une nouvelle ressource dédiée aux Zones d’activités économiques (ZAE) afin d’accompagner les collectivités dans leur stratégie foncière. En ce sens, il est nécessaire de faire l’inventaire et de caractériser ces ZAE tout en identifiant les solutions d’implantation de nouvelles activités économiques. La ressource propose un guide utilisateur pour offrir une première approche de la solution et de son contenu. Cet outil dispose d’un modèle conceptuel de données détaillé, réalisé en suivant les travaux du CNIG d’octobre 2023. Il s’agit d’une donnée standardisée, offrant de l’homogénéité à l’ensemble des acteurs sur l’ensemble du territoire. Un projet d’exemple est proposé avec une base de travail et un fichier de style exploitable dans ArcGIS Pro, facilitant la prise en main de la ressource. Elle aborde aussi le volet Zéro artificialisation nette en complétant celle existante sur les friches.
+ d'infos :
arcopole.fr
-
11:09
Ciblage publicitaire : l’atténuation ne suffit pas
sur Dans les algorithmesTrès intéressant article de recherche sur l’usage de variables de substitution pour le ciblage publicitaire politique. Les chercheurs rappellent que les plateformes ont déployé ces dernières années des politiques d’atténuation pour limiter l’accès aux attributs de ciblage jugés problématiques, tels que l’orientation politique, la religion ou l’origine ethnique. Mais les annonceurs les ont largement contourné par le recours à des substituts, comme le fait d’apprécier certaines personnalités ou certains sports (le tir, la chasse…), des marques de voitures ou d’alcool – voir également l’analyse des catégories utilisées par les annonceurs qu’avait détaillé The Markup et dont nous parlions en analysant l’ouvrage de Tim Hwang. Les chercheurs proposent de mieux mesurer les biais de ciblage en observant la popularité des critères de ciblage utilisées par les annonceurs. Ils démontrent que les politiques mises en place par les plateformes sont inefficaces et constatent que les proxies utilisés par les annonceurs, eux, sont efficaces pour déterminer l’affiliation politique ou l’origine ethnique. Pour les chercheurs, l’étude montre qu’il est nécessaire de restreindre encore le ciblage publicitaire à des paramètrages larges et « sûrs » et invitent les plateformes à mettre en place des alertes de ciblage problématiques à l’attention des utilisateurs et des annonceurs. Une autre piste consisterait à réduire la visibilité des interactions des utilisateurs avec les contenus payants afin qu’il ne soit pas visibles aux autres utilisateurs. L’enquête est en tout cas assez éclairante sur les enjeux de granularité qu’offre la publicité numérique.
-
6:22
Des silos qui réunissent BIM et SIG
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueInstallé au Québec, l’entrepreneur général Pomerleau jongle avec les technologies pour mieux superviser ses chantiers. Une approche futuriste, prometteuse et récompensée... Avec près de 200 chantiers actifs au Canada, l’entrepreneur général Pomerleau intervient sur tous types de projets de construction, notamment les projets d’infrastructures de grande ampleur. Chez Pomerleau, le service SIG existe officiellement depuis quelques années seulement. Française d’origine, Zoé Sabourin est l’une des premières arrivées de l’équipe, il y a quatre ans et demi . « Le département SIG est là pour supporter les opérations et créer des outils dans le but d’améliorer les processus et la prise de décision pour toutes les phases d’un projet », explique l’analyste SIG. Aujourd’hui, elle travaille avec six autres experts aux profils multiples et Anthony le Guen, le chef d’équipe. L’équipe développe les SIG au sein de l’entreprise pour faciliter la collaboration et le partage des données. « Une des phases clés dans le service a été l’intégration de l’IoT en complément des SIG et du BIM, confie Anthony le Guen. On s’intéresse au jumeau numérique depuis très longtemps, c’était le sujet d’un de nos axes de recherche. »
Retrouvez la suite de cette enquête dans le magazine SIGMAG N°42
-
14:52
Registre citoyen des algos publics
sur Dans les algorithmes« Seuls 4% des algorithmes répertoriés dans l’inventaire ont fait l’objet d’une évaluation interne diffusée publiquement. Il est également presque impossible de savoir combien ces systèmes ont coûté (3 projets seulement sur 72 ont diffusé un budget), sur quelles données ils ont été entrainés, ou pourquoi un algorithme a été choisi plutôt qu’un autre ». L’Observatoire (citoyen) des algorithmes publics est en ligne !
-
11:59
Défenseur des droits : pour une maîtrise de l’intervention humaine et une transparence effective des algorithmes
sur Dans les algorithmesLes risques algorithmiques sont invisibles, notamment parce que « les citoyens contestent davantage les résultats des décisions dont ils sont l’objet que le processus qui y conduit », rappelle le Défenseur des droits dans un rapport très juridique sur algorithmes, IA et services publics qui défend le respect des droits des usagers. Le rapport constate « l’algorithmisation de l’administration » et tente de dresser un bilan des garanties offertes aux usagers, notamment en observant la maîtrise de l’intervention humaine dans la décision et dans son atténuation. Le Défenseur des droits rappelle que faire valider une décision d’un système sans vérification, ne peut pas être considérée comme une intervention. Et le Défenseur de constater que l’exclusion par le calcul automatique de dossiers de candidats dans Parcoursup ou dans Affelnet est à ce sens problématique (tout comme le sont également les corrections auxquelles procède l’algorithme central qui redistribue les dossiers pour prendre en compte les quotas hors Académie et de boursiers, sans que les Commissions d’examen aient leurs mots à dire, pourrait-on faire remarquer).
Sur la question de la transparence des décisions, le Défenseur des droits rappelle qu’elle est un élément clef et un prérequis pour assurer la loyauté des traitements et qu’elle est un enjeu d’intelligibilité de l’action administrative. Le rapport invite les autorités à mettre en place des sanctions en cas de non publication des règles de traitements et à produire des modèles de demande d’information pour les usagers.
-
7:30
IA aux impôts : vers un « service public artificiel » ?
sur Dans les algorithmesLes publications syndicales sur l’IA sont nombreuses. Souvent, elles sont assez généralistes… et peu spécifiques. C’est-à-dire qu’elles interrogent la place des technologies dans les transformations à venir, font des recommandations pour améliorer les modalités de gouvernance, mais ne regardent pas toujours ses déploiements concrets, préférant poser un cadre général pour en comprendre les effets, comme le montrait, parmi les plus récents, le Plaidoyer pour un dialogue social technologique de FO, les réflexions de la CGT sur le sujet ou celles de la CFE-CGC (voir également le manifeste commun de plusieurs organisations syndicales qui défend un dialogue social technologique ainsi que le tout récent site dédié DIAL-IA).
C’est un peu l’inverse que propose Solidaires Finances Publiques dans le court livre que le syndicat publie aux éditions Syllepse, L’IA aux impôts. Les syndicalistes y évoquent d’abord ce que le déploiement de l’intelligence artificielle change pour les agents et les usagers à la Direction générale des finances publiques (DGFIP), l’une des administrations françaises pionnières dans le développement des outils numériques et de l’IA.
L’opacité comme principe, la désorganisation comme résultatL’IA y est déployée depuis 2014 notamment pour évaluer les risques et les schémas de fraude en modélisant les fraudes passées. Solidaires rappelle d’ailleurs les limites de ces schémas, qui peinent à détecter les fraudes atypiques et ses nouvelles modalités. Mais l’IA à la DGFIP, c’est d’abord de très nombreux projets que le syndicat lui-même ne parvient pas à recenser.
Ce sont d’abord des outils pour détecter la fraude des entreprises et des particuliers, notamment en repérant des anomalies ou des incohérences déclaratives depuis les déclarations de revenus, les comptes bancaires, les données patrimoniales et les informations provenant d’autres administrations, via le projet CFVR (« Ciblage de la fraude et valorisation des requêtes »). C’est également le projet Signaux faibles, pour détecter et identifier les entreprises en difficulté qui produit un score de risque depuis des données financières économiques et sociales des entreprises provenant de plusieurs services publics, afin d’évaluer leur rentabilité, leur endettement, leur niveau d’emploi, leurs difficultés à régler leurs cotisations sociales. C’est aussi un projet pour prédire les difficultés financières des collectivités locales à partir d’indicateurs comme l’endettement des communes. Un autre projet encore vise à estimer la valeur vénale et locative des biens immobiliers exploitant les données de transaction immobilières pour produire de meilleures estimations. Le projet Foncier innovant, lui, vise à détecter depuis des images aériennes, les piscines et bâtiments non déclarés par les contribuables (voir la très bonne synthèse sur ce programme réalisé par le projet Shaping AI). Le projet TAAP (« Traitement d’analyse auto prédictive ») vise à contrôler les dépenses à risques que l’Etat doit payer à ses fournisseurs afin d’accélérer ses règlements. Enfin, on trouve là aussi un voire des projets de chatbot pour répondre aux demandes simples des usagers sur impots.gouv.fr… (l’administration fiscale reçoit chaque année 12 millions de demandes par mail des contribuables, cependant une première expérimentation de réponses automatisées sur les biens immobiliers a produit 70% de réponses erronées ou fausses).
La liste n’est pourtant pas exhaustive. De nombreux autres projets sont en phase d’expérimentations, même si leur documentation fait bien souvent défaut, à l’image de l’utilisation des réseaux sociaux pour lutter contre la fraude (que beaucoup affublent du doux nom de Big Brother Bercy), dont le bilan est très limité, mais qui a pourtant été accéléré, comme l’évoquait Le Monde. Lors d’une récente cartographie des systèmes d’intelligence artificielle en cours de déploiement au ministère des finances, les premiers échanges auraient révélé que l’administration avait du mal à recenser tous les projets.
Même sur les principaux projets qu’on vient d’énumérer, l’information disponible est très lacunaire, non seulement au grand public mais également aux agents eux-mêmes. L’IA publique se déploie d’abord et avant tout dans la plus grande opacité.
Pour Solidaires, cette opacité est entretenue. L’omerta a une composante politique, nous expliquent les représentants du personnel. Elle permet de désorganiser les luttes des personnels. Les nouveaux agents, qu’ils soient contractuels ou statutaires, sont privés de la connaissance de leurs missions, ils ont moins de compréhension de la chaîne de travail, ils ne savent pas pourquoi ils font ce qu’on leur dit de faire. « Le travail automatique empêche la conscientisation du service public, comme du travail. Il place les agents dans une routine qui les noie sous des canaux informatiques de dossier à traiter », nous expliquent-ils. L’IA permet de faire le job, sans avoir de connaissance métier. Il suffit de traiter les listes d’erreurs, de valider des informations. « Le risque, c’est de ne plus avoir d’agents qualifiés, mais interchangeables, d’un service l’autre ». Mis en difficultés par les objectifs de productivité, par des formations très courtes quand elles ne sont pas inexistantes, ils ne peuvent comprendre ni résister au travail prescrit.
L’IA : des projets venus d’en hautLe développement de l’IA à la DGFIP « part rarement d’un besoin « terrain » », constatent les syndicalistes, c’est-à-dire que les agents sont rarement associés à l’expression des besoins comme à la réalisation des projets. Ceux-ci sont surtout portés par une commande politique et reposent quasi systématiquement sur des prestataires externes. Pour lancer ces projets, la DGFIP mobilise le Fonds pour la transformation de l’action publique (FTAP), lancé en 2017, qui est le catalyseur du financement des projets d’IA dans l’administration. Pour y prétendre, les projets doivent toujours justifier d’économies prévisionnelles, c’est-à-dire prédire les suppressions de postes que la numérisation doit produire. Dans l’administration publique, l’IA est donc clairement un outil pour supprimer des emplois, constate le syndicat. L’État est devenu un simple prestataire de services publics qui doit produire des services plus efficaces, c’est-à-dire rentables et moins chers. Le numérique est le moteur de cette réduction de coût, ce qui explique qu’il soit devenu omniprésent dans l’administration, transformant à la fois les missions des agents et la relation de l’usager à l’administration. Il s’impose comme un « enjeu de croissance », c’est-à-dire le moyen de réaliser des gains de productivité.
Intensification et déqualificationPour Solidaires, ces transformations modifient les missions des personnels, transforment l’organisation comme les conditions de travail des personnels, changent « la façon de servir le public ». Le déploiement de l’IA dans le secteur public n’est pas capacitante. « L’introduction de l’IA émane de choix centralisés » de la seule direction, sans aucune concertation avec les personnels ou ses représentants. Les personnels (comme les publics d’ailleurs) ne reçoivent pas d’information en amont. La formation est rare. Et la transformation des métiers que produit l’intégration numérique consiste surtout en une intensification et une déqualification, en adéquation avec ce que répètent les sociologues du numérique. Ainsi par exemple, les agents du contrôle des dépenses de l’État sont désormais assignés à leurs écrans qui leur assènent les cadences. Les nouvelles dépenses à contrôler passent au rouge si elles ne sont pas vérifiées dans les 5 jours ! Les agents procèdent de moins en moins à leurs propres enquêtes, mais doivent valider les instructions des machines. Ainsi, les agents valident les dépenses, sans plus contrôler les « conditions de passation de marché public ». Même constat au contrôle fiscal, rapportent les représentants du personnel : les agents doivent accomplir les procédures répétitives et peu intéressantes que leurs soumettent les machines. Les personnels sont dessaisis de la connaissance du tissu fiscal local. Ils ne peuvent même plus repérer de nouveaux types de fraudes. « On détecte en masse des fraudes simples, mais on délaisse les investigations sur la fraude complexe ». Les erreurs demandent des vérifications chronophages, puisque nul ne sait plus où elles ont lieu. Le risque, prévient Solidaires, c’est de construire un « service public artificiel », ou la modernisation conduit à la perte de compétences et à la dégradation du service. Où l’administration est réduite à une machine statistique. Le risque, comme s’en prévenait le Conseil d’Etat, c’est que la capacité à détecter les erreurs soit anesthésiée.
Cette déqualification ne touche pas que les agents, elle touche aussi les administrations dans leur capacité même à mener les projets. Les investissements sont transférés au privé, à l’image du Foncier innovant, confié à Capgemini et Google. Les projets d’IA sont largement externalisés et les administrations perdent leurs capacités de maîtrise, comme le notaient très bien les journalistes Matthieu Aron et Caroline Michel-Aguirre dans leur livre, Les infiltrés. Certains projets informatiques ont un taux d’externalisation supérieur à 80% explique Solidaires – quand la Dinum estime qu’un taux supérieur à 70% constitue déjà un risque de défaillance majeur.
Enfin, la numérisation éloigne les administrés de l’administration, comme le pointait la sociologue Clara Deville. Les agents estiment que les risques d’inexactitudes augmentent avec le remplissage automatique des déclarations de revenus. Avant, quand les agents recevaient les déclarations remplies par les usagers, ils pouvaient parfois détecter des erreurs manifestes, par exemple le fait de mettre des enfants mineurs en occupant de propriétés générant une taxe d’habitation à leur destination. Désormais, les données ne sont plus vérifiées. Les contribuables ne sont plus en obligation de reremplir leur déclaration s’il n’y a pas eu de changement de revenus ou de situation. Si le contribuable ne renvoie rien, on reprend les éléments fournis automatiquement. Le risque c’est de ne plus voir les défaillances de déclaration ou les difficultés que peuvent avoir certains publics, sans revenir vers eux. L’automatisation peut devenir un piège pour certains usagers.
Ce que produit l’automatisation des contrôlesMais surtout, répètent les militants de Solidaires, les personnels sont confrontés à une opacité totale des projets. L’absence d’information sur les projets est d’abord le signe d’un dialogue social inexistant, particulièrement problématique. Mais l’opacité à d’autres conséquences, notamment une déqualification des agents. Les dépenses à contrôler sont désormais sélectionnées par la machine, mais les agents ignorent sur quels critères. « Pourquoi certaines dépenses insignifiantes qui n’étaient jamais contrôlées auparavant, le sont à présent, alors que d’autres sont validées en masse quand elles étaient scrupuleusement regardées avant l’IA. »
« Le TAAP a pour but d’améliorer les délais de paiement de l’Etat, un objectif louable. Il vise à alléger la sélection des dépenses à contrôler », nous expliquent en entretien les responsables de Solidaires Finances Publiques. Le problème, c’est que le critère n’est plus l’importance, mais le risque. Alors que les agents avaient toute latitude pour contrôler les dépenses qu’ils jugeaient problématiques ou prioritaires, le système leur impose désormais de regarder certaines dépenses plutôt que d’autres. C’est ainsi que des agents se sont vus par exemple devoir contrôler les dépenses d’essence des ambassades qui étaient jusqu’à présent des dépenses à faibles enjeux. La détermination des contrôles par les algorithmes est désormais organisée par en haut. Les data scientists en centrale fournissent aux agents des « listes Data Mining », c’est-à-dire des fichiers avec des listes d’entreprises ou des contribuables à contrôler et vérifier selon des axes de recherche, par exemple des listes d’entreprises soupçonnées de minorer leur TVA ou des listes de particuliers soupçonnés de faire une déclaration de valeur immobilière qui n’est pas au niveau du marché… Le risque, c’est qu’on pourrait dévoyer ces listes pour contrôler certaines catégories de populations ou d’entreprises, préviennent les syndicalistes, qui mettent en garde contre l’absence de garde-fous que produit cette centralisation du contrôle, qui pourrait demain devenir plus politique qu’elle n’est.
Les listes Data Mining sont générées par les data scientist du service central depuis des croisements de données. Ce sont des listes d’entreprises ou de particuliers à regarder. Ces listes doivent d’abord être apurées par les agents… Quand ils reçoivent des listes d’entreprises qui feraient trop de provisions par exemple (ce qui qui pourrait être un moyen de faire baisser leurs bénéfices), ils doivent les trier, par exemple sortir les compagnies d’assurances, qui, par nature, sont des entreprises qui font plus de provisions que d’autres. Dans ces listes, les anomalies détectées ne sont pas toutes compréhensibles aux agents chargés du contrôle et parfois le critère de recherche détecté par l’IA ne donne rien. Mais si l’agent trouve un autre axe de recherche de fraude, le dossier est statistiquement compté comme relevant d’une réussite du data mining. Ce qui a pour but d’augmenter les résultats que produit la recherche de fraude automatisée, alors qu’elle demeure bien souvent le résultat d’un travail spécifique des agents plutôt que le produit d’une liste fournie par les machines.
Le contrôle fiscal automatisé représente aujourd’hui 50% du contrôle, mais les résultats notifiés (et non pas recouvrés) eux n’ont pas beaucoup progressé depuis l’expansion de l’automatisation. Ils stagnent à 13-14%, c’est-à-dire environ 2 milliards d’euros, quand le contrôle fiscal atteint environ 13 milliards. Réaliser 50% de contrôle automatisé est devenu un objectif, nous expliquent les syndicalistes. Si un service n’arrive pas à l’atteindre, les agents doivent prioriser le traitement des listes Data mining plutôt que de réaliser des contrôles d’initiatives. La vérification de ces listes produit surtout un travail fastidieux et chronophage, que les agents jugent souvent bien peu intéressant et qui ne produit pas beaucoup de résultats.
Le grand problème, estime encore Solidaires, c’est que le contrôle automatisé n’est pas très efficace sur la fraude complexe. A la direction de l’international qui s’occupe des fraudes les plus difficiles, il y a très peu d’utilisation de l’IA par exemple. Pour parvenir à mieux détecter les fraudes les plus évoluées, il faudrait que les agents de terrain qui en sont souvent les meilleurs observateurs, soient mieux associés aux orientations du contrôle centralisé des data-scientists. Ce n’est pas le cas. Alors que les outils pourraient venir aider les agents à faire leur travail, trop souvent, ils proposent surtout de le faire à leur place.
La DGFIP soutient qu’elle n’aurait pas mis en place de score de risque sur le contrôle fiscal… mais « certains agents rapportent que le traitement de listes Data mining fait ressortir régulièrement certains types de contribuables ». On peut malgré tout douter de cette absence de scoring, puisque le fait de lister des contribuables ou des entreprises selon des critères consiste bien à produire des listes classées selon un score.
Les personnels de la DGFIP sont inquiets, rapporte Solidaires. Pour eux, les outils d’IA ne sont pas aussi fiables qu’annoncés. Les contrôles engagés suite à des problèmes détectés « automatiquement » ne sont pas si automatiques : il faut des humains pour les vérifier et les traiter. Bien souvent, c’est l’enrichissement de ces dossiers par les services qui va permettre de donner lieu à une notification ou à un recouvrement. Enfin, le taux de recouvrement lié à l’automatisation est bien faible. L’IA peut s’avérer probante pour des fraudes ou des erreurs assez simples, mais ne sait pas retracer les fraudes élaborées.
Dans la surveillance des finances communales, les indicateurs remplacent les relations avec les personnels de mairie. Solidaires dénonce une industrialisation des procédés et une centralisation massive des procédures. L’IA change la nature du travail et génère des tâches plus répétitives. La DGFiP a perdu plus de 30 000 emplois depuis sa création, dénonce le syndicat. L’IA amplifie les dysfonctionnements à l’œuvre et prolonge la dégradation des conditions de travail. Quant au rapport coût/bénéfice des innovations à base d’IA, le syndicat pose la question d’une innovation pour elle-même. Dans le cadre du projet Foncier Innovant, la mise en oeuvre à coûté 33 millions. La maintenance s’élève à quelques 2 millions par an… Alors que le projet aurait rapporté 40 millions de recettes fiscales. Le rapport coût bénéfice est bien souvent insuffisamment documenté.
Couverture du livre, l’IA aux impôts, par Solidaires Finances Publiques. Face à l’IA, réinventer les luttesPour Solidaires, ces constats invitent à réinventer le syndicalisme. Le syndicat estime qu’il est difficile de discuter des techniques mobilisées, des choix opérés. Solidaires constate que l’administration « s’exonère » de la communication minimale qu’elle devrait avoir sur les projets qu’elle déploie : coûts, bilans des expérimentations, communication sur les marchés publics passés, points d’étapes, documentation, rapports d’impacts… Pour Solidaires, l’omerta a bien une composante politique. Faire valoir le dialogue social technologique est une lutte constante, rapporte Solidaires. Trouver de l’information sur les projets en cours nécessite de mobiliser bien des méthodes, comme de surveiller le FTAP, les profils Linkedin des responsables des administrations, leurs interventions… mais également à mobiliser la CADA (commission d’accès aux documents administratifs) pour obtenir des informations que les représentants des personnels ne parviennent pas à obtenir autrement.
Ce patient travail de documentation passe aussi par le travail avec d’autres organisations syndicales et militantes, pour comprendre à quoi elles sont confrontées. Pour Solidaires, l’omerta volontaire de l’administration sur ses projets organise « l’obsolescence programmée du dialogue social » qui semble avoir pour but d’exclure les organisations syndicales du débat pour mieux externaliser et dégrader les services publics.
Pourtant, les personnels de terrains sont les mieux à même de juger de l’efficacité des dispositifs algorithmiques, insiste Solidaires. La difficulté à nouveau consiste à obtenir l’information et à mobiliser les personnels. Et Solidaires de s’inquiéter par exemple de l’expérimentation Sicardi, un outil RH qui vise à proposer une liste de candidats pour des postes à pourvoir, automatiquement, au risque de rendre fonctionnel des critères discriminatoires. Solidaires observe comme nombres d’autres organisations les dysfonctionnements à l’œuvre dans l’administration publique et au-delà. « Aujourd’hui, Solidaires Finances Publiques n’a aucun moyen pour confirmer ou infirmer que les algorithmes auto-apprenants utilisés dans le contrôle fiscal sont vierges de tout biais. À notre connaissance, aucun mécanisme n’a été institué en amont ou en aval pour vérifier que les listes de data mining ne comportaient aucun biais ».
Avec le déploiement de l’IA, on introduit un principe de rentabilité du contrôle fiscal, estiment les représentants du personnel. Ce souci de rentabilité du contrôle est dangereux, car il remet en cause l’égalité de tous devant l’impôt, qui est le principal gage de son acceptation.
Solidaires conclut en rappelant que le syndicat n’est pas contre le progrès. Nul ne souhaite revenir au papier carbone. Reste que la modernisation est toujours problématique car elle vient toujours avec des objectifs de réduction massive des moyens humains. Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé.
« L’apparente complexité de ces outils ne saurait les faire échapper au débat démocratique ». En tout cas, ce petit livre montre, à l’image du travail réalisé par Changer de Cap auprès des usagers de la CAF, plus que jamais, l’importance de faire remonter les difficultés que les personnes rencontrent avec ces systèmes.
Bien souvent, quand on mobilise la transformation numérique, celle-ci ne se contente pas d’être une transformation technique, elle est aussi organisationnelle, managériale. A lire le petit livre de Solidaires Finances Publiques, on a l’impression de voir se déployer une innovation à l’ancienne, top down, peu impliquante, qui ne mobilise pas les savoir-faire internes, mais au contraire, les dévitalise. Les syndicalistes aussi ne comprennent pas pourquoi le terrain n’est pas mieux mobilisé pour concevoir ces outils. Certes, la fonction publique est structurée par des hiérarchies fortes. Reste que les transformations en cours ne considèrent pas l’expertise et les connaissances des agents. Les décideurs publics semblent répondre à des commandes politiques, sans toujours connaître les administrations qu’ils pilotent. Dans le discours officiel, ils disent qu’il faut associer les personnels, les former. Dans un sondage réalisé auprès des personnels, le syndicat a constaté que 85% des agents qui utilisent l’IA au quotidien n’ont pas reçu de formation.
Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...
-
10:30
Digital twins: a territorial mediation to watch
sur CybergeoDigital technological solutions, supposedly turnkey and always effective, are regularly offered to cities. They can however attract many criticisms: for example, if they are "smart cities" - which work with difficulty when they clash with the diversity of urban forms and functions (Caruso, Pumain & Thomas, 2023); or if it is the concept of "mobility-as-a-service" that induces unanticipated effects on accessibility equity (Pangbourne et al., 2020); or "city dashboards" that ultimately offer only a very limited view of urban processes and raise ethical issues (Kitchin & McCardle, 2017). In this vein, it is the concept of Digital Twin that becomes the most fashionable for cities and territories. Would this new instrument be more convincing?
In the strict sense, the digital twin of a system is a computerized representation that simulates its internal processes and interacts with it in real time by two-way coupling (Batty, 2018). When it applies to the city, the practical meaning of the c...
-
10:30
Les jumeaux numériques : une médiation territoriale à surveiller
sur CybergeoDes solutions technologiques numériques, supposées clé-en-main et toujours efficaces sont régulièrement proposées aux villes. Pourtant, elles s’attirent maintes critiques : par exemple si ce sont des “smart cities” - qui fonctionnent difficilement quand elles se heurtent à la diversité des formes et fonctions urbaines (Caruso, Pumain & Thomas, 2023) ; ou s’il s’agit du concept de “mobility-as-a-service” qui induit des effets non anticipés sur l’équité d’accessibilité (Pangbourne et al., 2020) ; ou encore des “city dashboards” qui n’offrent finalement qu’une vue très limitée des processus urbains et qui soulèvent des enjeux éthiques (Kitchin & McArdle, 2017). Dans cette veine, c’est le concept de Jumeau Numérique qui devient le plus à la mode pour les villes et les territoires. Ce nouvel instrument serait-il plus probant ?
Au sens strict, le jumeau numérique d’un système est une représentation informatisée qui simule ses processus internes et interagit avec celui-ci en temps réel par ...
-
10:30
Couplage de données et méthodes, une approche méthodologique originale de modélisation de la trame noire
sur CybergeoAlors que les impacts anthropiques sur la biodiversité urbaine et péri-urbaine sont étudiés depuis au moins cinquante ans, les effets de la pollution par l'éclairage artificiel sur la biodiversité nocturne par les politiques publiques est moins explorée. Cet article présente une cartographie des surfaces éclairées sur le territoire de Brest métropole, fondée sur les données de gestion du parc d'éclairage public, et son croisement avec les données d'occupation du sol pour construire un modèle de trame noire. La cartographie est d'abord générée en combinant une typologie des distributions photométriques avec les valeurs de flux lumineux. Puis, le modèle est construit par le calcul d'indices de biodiversité carroyés (méthode déductive) et par le calcul de graphes paysagers (méthode intégrative) expérimenté sur une espèce de chauve-souris. Un facteur de correction est intégré afin de permettre d'affiner le modèle par des mesures de terrain. Les résultats obtenus montrent que la cartogra...
-
10:30
Le domaine public, une réserve d’urbanisation invisible ? Application d’une méthode géomatique aux cas d’étude de Rennes et de Bordeaux
sur CybergeoAlors que la propriété foncière publique constitue un levier pour la maîtrise de l’aménagement du territoire, sa connaissance demeure partielle. Une partie seulement de la propriété foncière publique est consignée dans les données cadastrales. En effet, le domaine public, majoritairement non cadastré, n’est de fait pas pris en compte dans les principales bases de données existantes. Cet article propose une méthode d’identification de ces espaces et de leur évolution à partir d’une chaîne de traitements géomatiques. La méthode améliore les données cadastrales historicisées permettant en creux d’identifier l’espace non cadastré et sa correspondance avec le domaine public. À partir des cas d’étude de Bordeaux Métropole et de Rennes Métropole, les résultats montrent que, s’il est théoriquement inaliénable et imprescriptible, le domaine public enregistre, dans les faits, de nombreuses transformations, et est le support de dynamiques d’urbanisation qui échappent à l’actuelle mesure instit...
-
10:30
Une trame communale immuable ? La nécessaire géohistoire des communes françaises (1800-2024)
sur CybergeoLes communes constituent la plus petite des mailles de l’administration territoriale française depuis la Révolution. Ces entités sont également les plus nombreuses. L’évolution de ce maillage est peu connue. Cet article propose une approche spatialisée de l’évolution du nombre de communes françaises. Les données exploitées sont extraites de la base dite "Cassini" qui est ici présentée, tout en pointant ses limites. L’article analyse tout d’abord les rythmes de l’évolution du nombre de communes françaises. On note trois périodes de diminution rapide du nombre de communes : 1800-années 1830, années 1960-1970 et années 2010. Chaque période présente une géographie spécifique, qui invite à penser le département comme un cadre pertinent pour penser l’échelon communal, en raison du rôle que joue l’administration déconcentrée de l’État et particulièrement le préfet. Partant de ce constat, l’article propose une typologie des départements du point de vue de l’évolution du nombre de communes.
-
10:30
Vélo et pandémie du Covid-19 : une structuration multiscalaire du réseau associatif en Île-de-France
sur CybergeoLes travaux réalisés autour de la pandémie de Covid-19 présentent cette dernière comme une période de changement radical en matière de mobilité. La crise sanitaire a permis de renouveler les discours sur le vélo comme mode de déplacement quotidien et de franchir de nouvelles étapes en matière de politiques publiques (aides à la réparation de vélos, aménagements cyclables provisoires tels que les "coronapistes"). Cet article étudie la structuration du réseau associatif pro-vélo en Île-de-France, en analysant ses dynamiques spatiales et son évolution de 1970 à 2023. Dans quelle mesure la crise du Covid-19 a-t-elle constitué un accélérateur des processus en cours, ou bien un levier de changements plus radicaux ? L’article mobilise des données quantitatives (recensement d’associations) et qualitatives (récits d’histoires associatives, entretiens d’acteur.rice.s associatifs, de collectivités territoriales et institutions) issues de deux corpus : l’un constitué avant 2020, l’autre après c...
-
10:30
De la adaptación urbana a la escasez del agua en Phoenix y Tucson (Arizona): una aproximación desde la ecología política
sur CybergeoEn el contexto del cambio climático, las sequias aumentan y los territorios sufren un grave estrés hídrico. Este artículo examina la gestión del desequilibrio entre la disponibilidad de agua y la creciente demande en Phoenix y Tucson, en el árido oeste de Estados Unidos. A partir de un estudio de caso que pone de relieve las cuestiones socioecologicas de la escasez, esta investigación propone considerar las ciudades de Phoenix y Tucson como laboratorios de adaptación urbana al cambio climático para explorar diferentes modalidades de adaptación. El análisis moviliza los conceptos de la ecología política urbana para examinar las relaciones de poder entre los actores de la gestión del agua en un contexto en el que se cuestiona cada vez más el sistema de infraestructuras hídricas que sustenta el crecimiento urbano. Por un lado, el artículo muestra que los actores dominantes aplican estrategias de adaptación para mantener la trayectoria de crecimiento de ciudades especialmente atractivas...
-
10:30
Katja Schicht, 2023, Alexander von Humboldts Klimatologie in der Zirkulation von Wissen. Historisch-kritische Edition der Berliner Briefe (1830-1859) und ihre Kontexte, Hildesheim, Zürich, New York, Olms, 577 p.
sur CybergeoAlexander von Humboldt (1769-1859) était l'un des naturalistes les plus productifs de son époque. L'explorateur a notamment contribué dans les domaines de la géologie et du magnétisme terrestre, ainsi que dans ceux de la connaissance de la biodiversité et de la géographie de l'Amérique du Sud. Ses travaux sur le climat ont récemment reçu une attention accrue. Le naturaliste lui-même n'a en effet jamais rassemblé ses thèses météorologiques et climatologiques dans une publication intégrale. Il est donc d'autant plus appréciable que soient parus presque simultanément plusieurs volumes contenant une sélection d'écrits de Humboldt sur la climatologie ainsi qu'une présentation des débuts de la recherche climatique moderne à l'aide de documents choisis dans le fonds (Nachlass) de Humboldt à la Bibliothèque d'État de Berlin (Erdmann, Brönnimann, 2023 ; Humboldt, 2023a ; Humboldt 2023b). Cette édition critique de trois correspondances d'Alexander von Humboldt datant des années 1830 à 1859 es...
-
10:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
9:46
Campus inclusif
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa cartographie se faufile au sein de l’école polytechnique fédérale l’ETH Zurich qui déploie un SIG intérieur avec ArcGIS Indoors. Le campus devient un espace intelligent dans lequel il est possible de visualiser, d’analyser et de gérer toutes les données de ses infrastructures au sein d’un même espace. Ses espaces sont cartographiés de manière interactive pour une meilleure gestion et un meilleur partage des informations. Une fonctionnalité basée sur ArcGIS IPS permet même la navigation en temps réel dans les locaux à l’aide d’une application mobile, de balises Bluetooth et d’émetteurs radio. Ce jumeau numérique a pour objectif premier d’augmenter l’inclusivité. Près de 58 bâtiments, 412 étages et 400.000 m2 répartis sur deux sites sont désormais digitalisés. Cette initiative s’inscrit dans le cadre du déploiement d’un jumeau numérique orientée accessibilité à l’échelle de la ville. Un jumeau qui a été construit en un temps record : à peine 7 jours.
+ d'infos :
ethz.ch
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:56
Modération sur X : de 2,1% à 0,003%
sur Dans les algorithmesEntre 2021 et 2024, la suspension de comptes sur Twitter est passée de 105 000 comptes pour 5 millions de signalements pour harcèlements à 2361 pour 66 millions de signalements. Effectivement, Musk a fait de l’un des problèmes les plus flagrants de Twitter une fonctionnalité essentielle de X.
MAJ du 21/11/2024 : Quant au programme participatif de vérifications des faits mis en place par X (Community Notes), souvent salué par la critique pour son aspect innovant, en vérité, la majorité des propositions de vérifications ne sont jamais exposées au public, rapporte le Washington Post. En fait, les participants aux notes communautaires, après avoir vu leur participation acceptée, votent pour déterminer quelles annotations peuvent être jointes à quelles publications. Ce vote algorithmisé ne met en avant que les notes qui « reçoivent le consensus d’utilisateurs ayant l’habitude de voter différemment », explique une analyse du Center for Countering Digital Hate. Et cette recherche de consensus écarte 91% des propositions d’ajouts de notes sur des messages problématiques. Sans compter qu’il faut en moyenne 11 heures pour qu’une note soit ajoutée à un tweet, ce qui lui laisse largement le temps d’atteindre l’essentiel de son public. Pire, la proportion d’ajout de notes communautaires a tendance à baisser plutôt qu’à se développer. Le crowdsourcing de la modération ne peut pas remplacer la modération traditionnelle faite par des employés, soulignent les experts. En tout cas, dans la pratique, pour l’instant, la modération communautaire sur X ne fonctionne pas ! Enfin, souligne le Post, seulement 24 tweet de Musk ont reçu une note de vérification, soit un peu moins de 4% de ses tweets signalés comme problématiques par la communauté.
Dans sa newsletter, Julia Angwin constate que les réseaux sociaux ont largement renoncé à la modération politique. Les plateformes ne seront pas les gardiennes de la vérité des faits qui remettent en cause le pouvoir. Il est « devenu évident que les plateformes technologiques ne risqueront pas leurs profits ou leur pouvoir politique en rejoignant la lutte pour la protection de l’information de bonne qualité. Et le gouvernement américain – désormais fermement sous le contrôle du parti républicain – ne les y poussera pas.
En d’autres termes, personne ne viendra nous sauver de cet environnement d’information pollué – ni le gouvernement ni les entreprises. Si nous voulons un environnement d’information de bonne qualité, nous allons devoir en construire un nouveau au-delà des murs des plateformes de médias sociaux existantes des Big Tech ».
-
7:30
Y aura-t-il une alternative au technofascisme ?
sur Dans les algorithmesLe livre du journaliste Thibault Prévost, Les prophètes de l’IA (Lux éditeur, 2024), a une grande vertu : nettoyer notre regard de ce qui l’embrume.
Il permet d’abord de comprendre que la technologie ne mobilise pas tant des imaginaires, comme on l’entend trop souvent, mais bien des idéologies. Imaginaire, le terme fait référence à quelque chose qui n’existerait que dans l’imagination, qui serait sans réalité, comme dévitalisé, sans effet autre que sûr le rêve et l’irréel. Rien ne me semble moins vrai. Ce que nous sommes capables de composer dans nos esprits à une puissance d’évocation sans précédent, qui mobilise et galvanise les énergies et façonne le réel. Le terme d’imaginaire dépolitise ce que nos esprits façonnent, quand les récits que nous brodons et partageons construisent d’abord des ralliements, des adhésions ou leur exact inverse, des rejets, des défections, des oppositions. Ce que nous imaginons ne flotte pas dans l’éther, bien au contraire. Nos imaginaires reflètent tout le temps des idées et conduisent nos agissements, décrivent des façons de voir le monde, de le régir, de le gouverner. Imaginaire : le terme ne vise qu’à dépolitiser ce qui est à l’oeuvre dans la mise en représentation du monde, à savoir dévitaliser les luttes idéologiques par des récits neutralisés qui ont pour but de les rendre plus séduisants, plus accrocheurs, plus malléables, plus appropriables, plus diffusables. Mais derrière le storytelling, les récits que l’on construit sur l’IA, les discours que l’on porte sur la technologie, il n’est question de rien d’autre que d’une lutte idéologique.
A mesure que la technologie a pris une place prépondérante dans nos sociétés, le discours qui la porte s’est chargé de promesses, de prophéties, de mythes, de prédictions qui se sédimentent en idées politiques qui annoncent, au choix, la fin du monde ou le retour des Lumières. L’un comme l’autre d’ailleurs n’ont qu’un objectif : nous éloigner de la réalité et nous faire adhérer à leur promesse. À savoir qu’il n’y a pas d’alternative au futur que propose la technologie. Qu’il soit rose ou sombre, c’est la technologie qui le façonne, c’est l’élite technologique qui le construit. Le futur est devenu une religion.
Prévost rappelle trop rapidement la longue histoire de l’avènement des religions technologiques, schismes du rêve transhumaniste, pour se concentrer surtout sur les courants et les figures les plus récents. Ce qui l’intéresse, c’est de regarder les habits les plus neufs du transhumanisme, cette consécration de la science et de la technologie, qui promet d’améliorer la condition humaine. Qui souhaite rendre la religion, le capitalisme et le colonialisme fonctionnels, effectifs, comme pour les faire perdurer à jamais. Ces courants qui déifient les sciences de l’ingénierie ne proposent pas qu’une transcendance, c’est-à-dire un dépassement de l’homme par la technique, mais bien l’avènement d’une technocratie toute puissante. L’essai, qui se présente sous forme d’un catalogue des idées du secteur, devient vite épuisant à lire, tant ces délires mis bout à bout se concatènent dans leur logique rance, qui ne produit rien d’autre qu’un total mépris pour la société comme pour les individus qui la composent.
Un monde de… tarésLe livre de Thibault Prévost a une autre vertu. Il nous montre que les grands ingénieurs, les grands investisseurs, les grands entrepreneurs et les grands penseurs de l’IA sont tous complètement… tarés ! Excusez du peu ! Les récits de dépassement, de conquête, de croisade, de puissance ou d’IApocalypse qu’ils nous vendent forment un ramassis de technodélires qui n’ont rien de sérieux ou de rationnel, malgré le fait qu’ils se présentent ainsi. Ces délires sur l’intelligence artificielle générale, sur la transcendance par la machine comme sur l’effondrement, nous abreuvent d’idéologies hors-sol, sectaires, fanatiques et vides pour mieux invisibiliser leur autoritarisme et leur cupidité débridées (à l’image de celle qu’exprimait Mustafa Syleyman dans son livre particulièrement confus, La déferlante). Tous les grands gourous de la tech que Prévost évoque dans son livre (et il n’y a pas que Musk) semblent d’abord et avant tout des individus totalement perchés et parfaitement lunaires. Ils sont tous profondément eugénistes, comme le répète le chercheur Olivier Alexandre (voir aussi dans nos pages). Ils sont obsédés par le QI et la race. Ils ont à peu près tous tenu à un moment ou à un autre des propos racistes. Ils sont tous profondément opposés à la démocratie. Ils partagent tous des discours autoritaires. Derrière leurs récits, aussi barrés les uns que les autres, tous n’oeuvrent qu’à leur propre puissance. A peu près tous partagent l’idée que ceux qui ne croient pas en leurs délires sont des parasites. Leur délire élitiste, eugéniste et cupide a de quoi inquiéter. Le futur qu’ils nous vendent n’a rien d’un paradis, puisqu’il ne remet en rien en cause des privilèges qui sont les leurs, bien au contraire. Tous nient les biens communs. Tous veulent détruire la régulation, à moins qu’ils en soient en maîtres. Ils nous exhortent à penser un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé, ce qui permet de totalement le dépolitiser. Tous cachent les enjeux politiques qu’ils défendent sous des questions qui ne seraient plus que technologiques. Remplacer le discours politique par un discours technique permet d’abord de déplacer son caractère politique, comme pour l’aseptiser, l’invisibiliser.
A le lire, Prévost nous donne l’impression de nous plonger dans les disputes sectaires, rances et creuses… qui anônent un « cocktail d’arrogance élitiste et de naïveté qui défend férocement la légitimité morale des inégalités ». Qu’ils se définissent comme altruistes efficaces, longtermistes, doomers, ultralibertariens, extropiens ou rationalistes… (tescralistes, comme les ont qualifié Timnit Gebru et Emile Torres), ils semblent avant tout en voie de fascisation avancée.
L’IA ne va pas sauver le monde, elle vise à sauver leur monde !L’IA ne va pas sauver le monde. Elle vise à sauver leur monde, celui d’une caste de milliardaires au-dessus des lois qui cherchent à se garder du reste de l’humanité qu’elle abhorre. « L’IA n’est que le paravent technique d’une entreprise tout à fait classique de privatisation et de captation des richesses ». L’IA vise d’abord la préservation du taux de profit.
La Tech a longtemps été Démocrate et pro-démocratie, rappelle le journaliste, mais c’est de moins en moins le cas. La perspective que la Silicon Valley perde de sa puissance, explique en partie son réalignement. Le techno-solutionnisme progressiste qu’ils ont longtemps poussé a fait long feu : la Tech n’a produit aucun progrès social, bien au contraire. Ses solutions n’ont amélioré ni la démocratie, ni l’économie, ni l’égalité, ni l’espérance de vie… surtout quand on les compare aux technologies sociales du XXe siècle comme l’hygiène publique, le développement des services publics ou la justice économique.
Si ces évolutions politiques ont plusieurs origines, l’influence de grandes figures, de financeurs milliardaires, sur le secteur, semble déterminant, à l’image des Marc Andreessen et Peter Thiel, qui ne sont pas tant des évangélistes de la tech, que des évangélistes néolibéraux ultra-conservateurs, qui promeuvent par leurs discours et leurs investissements des projets anti-régulation et autoritaires. Prévost rappelle que la grande caractéristique de cette élite financière est d’être férocement opposée à la démocratie. Ces milliardaires rêvent d’un monde où une poignée d’individus – eux – captent toutes les richesses et tous les pouvoirs. « La tech est un système immunitaire développé par le capitalisme pour lutter contre tout ce qui pourrait le mettre en crise », disait déjà Antoinette Rouvroy. Ces gens sont tous admirateurs de régimes autoritaires. Ils rêvent d’un progrès technique sans démocratie tel qu’ils le font advenir dans les outils qu’ils façonnent et les entreprises qu’ils dirigent.
En compilant toutes ces petites horreurs qu’on a déjà croisé, éparses, dans l’actualité, Prévost nous aide à regarder ce délire pour ce qu’il est. Nous sommes confrontés à « un groupe radicalisé et dangereux », d’autant plus dangereux que leur fortune astronomique leur assure une puissance et une impunité politique sans précédent. Leurs exploits entrepreneuriaux ou financiers ne peuvent suffire pour les absoudre des horreurs qu’ils prônent. Prévost les montre comme ce qu’ils sont, un freak-show, des sortes de monstres de foire, complotistes, fascistes, prêts à rejoindre leurs bunkers et dont le seul rêve est de faire sécession. Le journaliste décrit un monde réactionnaire qui ne craint rien d’autre que son renversement. « Ces patrons méprisent nos corps, nos droits, nos existences ». Leur discours sur les risques existentiels de l’IA permet de masquer les effets déjà bien réels que leurs outils produisent. « L’IA est une métaphore du système politique et économique capitaliste qui menace l’espèce humaine ». Pour sécuriser leur avenir, cette élite rêve d’un technofascisme qu’elle espère mettre en œuvre. Notamment en manipulant les peurs et les paniques morales pour en tirer profit.
Le pire finalement c’est de constater la grande audience que ces pensées rances peuvent obtenir. La réussite fait rêver, la domination fait bander… oubliant qu’il s’agit de la domination et de la réussite d’un petit monde, pas de celui de l’Occident ou de tous les entrepreneurs du monde. En nous répétant que le futur est déjà décidé et qu’ils en sont les maîtres, ils nous intoxiquent. « A force de se faire dire que le futur est déjà plié, que c’est la Silicon Valley qui décide de l’avenir de l’humanité, le public, convaincu qu’il n’a pas son mot à dire sur des enjeux qui le dépassent, remet son destin entre les mains des Google, Microsoft, Meta ou Amazon. » Ce déplacement permet d’orienter la régulation vers des dangers futurs pour mieux laisser tranquille les préjudices existants. Derrière la promotion de leur agenda néolibéral pour maximiser leurs profits aux dépens de l’intérêt général, se profile le risque d’une bascule vers un capitalisme autoritaire qui contamine le monde au-delà d’eux, comme le notait la chercheuse Rachel Griffin. « A l’instar de la Silicon Valley, l’Union européenne semble être en train de mettre à jour son logiciel idéologique vers un capitalisme autoritaire qui privilégie l’économie de la rente et les monopoles à l’économie de marché et la concurrence ». Cette transformation du capitalisme est assurée par la technologie. Les systèmes s’immiscent dans nos institutions, à l’image de leurs LLM que les acteurs publics s’arrachent en permettant aux entreprises de la Silicon Valley « d’étendre leur intermédiation sur un corps social médusé ». Qu’importe si ChatGPT raconte n’importe quoi. Les prophètes de l’IA, ces « bullionaires » (contraction de bullshitters et de millionnaires) eux aussi mentent avec assurance. Derrière leurs délires apparents, un transfert de pouvoir est en cours. Pas seulement une privatisation du futur, mais bien son accaparement par quelques individus qui font tout pour n’avoir de compte à rendre à personne. La fétichisation de l’individu rationnel, tout puissant, du génie solitaire, du milliardaire omnipotent, du grotesque individualiste ne nous conduit à aucune société qu’à son délitement. La métaphore computationnelle qui permet d’affirmer que la seule intelligence est désormais celle de la machine, vise à nous reléguer, à nous transformer en une marchandise dévaluée, puisque nos esprits valent désormais moins que le calcul, tout comme notre force de travail a été dévaluée par l’énergie fossile.
Couverture du livre de Thibault Prévost. Du grand leurre de l’IA au risque technofascistePrévost rappelle que les machines nous trompent. Que l’automatisation est un leurre qui masque les ingénieurs et les travailleurs du clic qui font fonctionner les machines à distance. L’IA générative aussi. Nombre d’utilisateurs de ChatGPT l’abandonnent au bout d’une quarantaine de jours, comme un jouet qu’on finit par mettre de côté. Google SGE produit des fausses informations après plus d’un an de tests. Par essence, la prédiction statistique ne permet pas de produire de résultats fiables. Partout où ils se déploient, ces systèmes se ridiculisent, obligeant à les surveiller sans cesse. Notre avenir sous IA n’est pas soutenable. Il repose sur un pillage sans précédent. Les « cleptomanes de la Valley » ne cessent de nous dire que l’IA doit être illégale pour être rentable. L’IA est une bulle financière qui risque de finir comme le Metavers (que McKinsey évaluait à 5000 milliards de dollars d’ici 2030 !).
« Arrêtons pour de bon de donner du crédit aux entrepreneurs de la tech. Depuis le début de la décennie 2020, le technocapitalisme ne fonctionne plus que par vagues d’hallucinations successives, suivies de (très) brèves périodes de lucidité. La Silicon Valley semble bloquée dans un trip d’acide qui ne redescent pas, et dont l’IA n’est que la plus récente hallucination », rappelle, cinglant, Thibault Prévost, fort des punchlines saisissantes auxquelles il nous a habitués dans ses articles pour Arrêt sur Images.
L’IA n’est que la nouvelle ligne de front de la lutte des classes, où les systèmes d’analyse dégradent les conditions d’existence des plus mal notés, ce lumpenscoretariat. Sa grande force est d’avancer masqué, opaque, invisible à ceux qu’il précarise. Nous n’utilisons pas l’IA, mais nous y sommes déjà assujettie, explique très justement Prévost. Les systèmes de calculs se démultiplient partout. « Aucun d’entre eux n’est fiable, transparent ou interprétable. Nous vivons tous et toutes à la merci de l’erreur de calcul sans recours ».
« Les systèmes d’IA sont le reflet des oligopoles qui les commercialisent : privés, opaques, impénétrables, intouchables, toxiques et dangereux. » L’IA prolonge le continuum des discriminations et de l’injustice sociale et raciale. La faute aux données bien sûr, jamais « à leurs beaux algorithmes neutres et apolitiques ».
« Comme l’idéologie d’extrême droite, l’IA échoue à représenter le monde. Elle ne fonctionne que par archétypes et biais, par catégorisation a priori ». Elle rappelle aux humains la distance qui les sépare de la norme masculine, blanche et riche. L’IA n’est rien d’autre qu’une « prothèse pour le maintien de l’ordre social racial et l’avancée des projets capitalistes impérialistes », comme le dit Yarden Katz dans son livre Artificial Whiteness. Elle n’est rien d’autre que le nouvel auxiliaire du pouvoir. Elle exploite la violence structurelle comme une grammaire et un grand modèle d’affaires. « Si la Silicon Valley essaie de nous vendre l’apocalypse, c’est parce que son projet technique, économique et politique en est une ». Ce que veulent les milliardaires de la tech, c’est la fin du monde social pour imposer le leur.
Avec l’élection de Trump, c’est exactement là où nous sommes. La Silicon Valley a obtenu ce qu’elle voulait, dit Brian Merchant.
Dan McQuillan nous avait mis en garde du risque fasciste de l’IA. Les opportunités politiques sont devenues des prises de risques financières. La victoire de Trump vient d’assurer à Musk et quelques autres la rentabilité de tous leurs investissements. Son rachat de Twitter n’était rien d’autre que l’achat d’une arme qu’il a transformé en site suprémaciste, pour amplifier ses délires, permettant d’attiser la haine en ligne et la traduire en vote et en violence dans le monde physique. Comme l’explique Martine Orange pour Mediapart, l’enjeu, désormais, consiste à éradiquer la régulation et mettre l’ensemble de l’appareil d’Etat à la disposition de la Tech, c’est-à-dire assurer la mainmise de la Tech sur le pouvoir politique.
Face au technofascisme qui vient, le risque est que nous soyons démunis d’alternatives technologiques et donc idéologiques. Sans récit et réalisations progressistes de la tech, la seule option pour beaucoup ne consistera qu’en une chose : abandonner la technologie et arrêter les machines.Hubert Guillaud
MAJ du 19/11/2024 : Allez lire également ce très bon entretien avec Thibault Prévost qui explique que l’IA n’est pas qu’un outil de puissance au service des technoprophètes, il est aussi un outil d’asservissement et de déresponsabilisation de la puissance publique.
-
16:09
Des routes bien suivies
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueEn 2018, le projet « Main courante électronique » était lancé par l’Établissement public interdépartemental (EPI) des Yvelines et des Hauts-de-Seine. Ce dernier correspond à un ensemble d’applications visant à digitaliser la surveillance du réseau routier départemental de ces deux territoires et faciliter l’intervention des agents pour l’entretien des chaussées. Une étape vient finaliser ce projet, il s’agit de l’intégration de la fonctionnalité « Trace », développée avec ArcGIS Tracker. Cette dernière permet d’enregistrer, avec géolocalisation et horodatage, les passages des patrouilleurs et leurs parcours. L’outil représente une aide supplémentaire pour répondre aux mises en causes et pour justifier de la surveillance et de l’entretien courant du réseau, en cas de contentieux. Les Yvelines et les Hauts-de-Seine totalisent douze unités et centres d’entretiens pour 1.915 kilomètres de routes.
+ d'infos :
epi78-92.fr
-
12:49
Impartiale, l’IA ?
sur Dans les algorithmesMalgré le fait que les grands volumes de données utilisés pour générer les grands modèles de l’IA générative soient sensiblement les mêmes, les LLM ont des visions du monde sensiblement différentes, expliquent un collectif de chercheurs qui ont interrogé un large panel de systèmes. Ces visions du monde changent selon la langue depuis laquelle ils sont interrogés, mais également selon les modèles utilisés : ils sont plus prochinois si vous les interrogez en chinois par exemple et certains modèles fourbissent des résultats plus libéraux que d’autres. « Les positions idéologiques des LLM reflètent souvent celles de ses créateurs ». L’impartialité réglementaire va être bien difficile à atteindre.
-
11:10
« Un algorithme ne peut pas déterminer une intentionnalité »
sur Dans les algorithmesDans le 3e épisode d’Algorithmique, l’excellent podcast de Next, la journaliste Mathilde Saliou s’entretient avec Valérie, la responsable des enjeux du numérique du collectif Changer de Cap. Celle-ci revient très clairement sur les relations problématiques entre les usagers et la CAF que l’association a fait remonter dès 2021 par le recueil de témoignages d’allocataires. A savoir, la démultiplication des interruptions de versement des droits du fait de contrôles automatisés et l’envolée des indus, notamment sur les aides au logements, où les personnes se voient obliger de rembourser des trop perçus sans explications de l’administration. En 2013 déjà, l’IGAS soulignait pourtant que 30% des indus n’étaient pas le fait des allocataires mais pouvaient provenir d’une erreur de réglementation ou d’erreurs de la CAF elle-même.
Les allocataires ciblés par ce scoring sont souvent accusées de fraude, c’est-à-dire de fausse déclaration intentionnelle. Or, comme le rappelle Mathilde Saliou, pour une machine, la différence entre erreur et fraude est minime, les deux correspondent à des écarts par rapport au comportement normal. Pour les gens pourtant, la situation est très différente, surtout que quand l’accusation de fraude est déclenchée, la procédure de recours est plus complexe que lorsqu’on tente de faire corriger une erreur. « Lorsqu’il y a une accusation de fraude, on ne peut pas faire de recours amiable ni obtenir d’explication », explique la responsable numérique de Changer de Cap, qui rappelle que c’est la raison qui motive Changer de Cap à réclamer un droit aux explications algorithmiques. « On a repéré rapidement que les publics vulnérables étaient ciblés » ce qui impliquait un algorithme et un score de risque. Le score de risque amène à la démultiplication des contrôles, avec des allocataires qui peuvent subir plusieurs contrôles dans la même année. Quant au non-respect du reste à vivre que pratique la CAF, elle fait reposer sur les associations et les collectivités locales la précarité qu’elle renforce, celles-ci devant compenser l’interruption des droits que pratique la CAF.
Pour les indus, la recherche d’indus ou les contrôles, les CAF peuvent remonter jusqu’à 2 ans en arrière et 5 ans en arrière en cas de suspicion de fraude. Les retenues sur les aides sociales pour que les gens remboursent les indus dépendent de barèmes qui peuvent ne pas laisser aux gens de quoi vivre, notamment quand elles portent sur des prestations vitales, ce qui est souvent le cas pour les plus précaires. « Une personne qui a 600 euros de RSA peut se retrouver avec 300 euros seulement si 300 euros sont retenus par les CAF. Il n’y a pas de respect du reste à vivre ».
« Les documents obtenus par la Quadrature du Net ont permis d’apprendre qu’il y avait des variables qui font augmenter le score de risque, comme le fait d’être au RSA, d’être un parent isolé, de recevoir l’allocation adultes handicapés et avoir un petit boulot à côté. » Autant de caractéristiques discriminantes, comme l’ont mis également en avant le dossier réalisé par Le Monde et Lightouse Reports. Mais surtout, rappelle Changer de Cap, le qualificatif même de ces systèmes est faussé : « Nous on conteste l’idée que l’algorithme qui donne un score de risque fait des contrôles de fraudes, pour la simple et bonne raison qu’un algorithme ne peut pas déterminer une intentionnalité. Il calcule les aides attribuées par rapport aux aides auxquelles a droit l’allocataire. C’est un algorithme de recherche d’indus en réalité et non pas de recherche de fraude et qui traite le problème a posteriori, une fois que la somme a été versée ».
La fraude aux prestations sociales par les usagers est très faible rappelle l’association (notamment par rapport aux fraudes aux cotisations sociales) qui juge cette surveillance des usagers disproportionnée par rapport aux montants collectés. Changer de Cap et d’autres associations comme la Quadrature du Net et la Ligue des droits de l’homme ont récemment attaqué l’algorithme de la CAF devant le Conseil d’Etat. Changer de Cap souhaiterait que les erreurs soient résolues avant de venir frapper les usagers, que les indus et suspensions soient expliqués et motivées. Mais surtout, l’association estime que nous devrions abandonner tout système de scoring, que les traitements soient transparents et subissent des contrôles de légalité, comme des mesures d’impact, mis à disposition de tous.
L’épisode montre en tout cas très bien que le problème des algorithmes de scoring ne relève pas seulement des modalités de calcul, mais bien de ses agencements sociaux et légaux, comme les garanties et recours qu’il permet ou ne permet pas.
-
10:30
Une trame communale immuable ? La nécessaire géohistoire des communes françaises (1800-2024)
sur CybergeoLes communes constituent la plus petite des mailles de l’administration territoriale française depuis la Révolution. Ces entités sont également les plus nombreuses. L’évolution de ce maillage est peu connue. Cet article propose une approche spatialisée de l’évolution du nombre de communes françaises. Les données exploitées sont extraites de la base dite "Cassini" qui est ici présentée, tout en pointant ses limites. L’article analyse tout d’abord les rythmes de l’évolution du nombre de communes françaises. On note trois périodes de diminution rapide du nombre de communes : 1800-années 1830, années 1960-1970 et années 2010. Chaque période présente une géographie spécifique, qui invite à penser le département comme un cadre pertinent pour penser l’échelon communal, en raison du rôle que joue l’administration déconcentrée de l’État et particulièrement le préfet. Partant de ce constat, l’article propose une typologie des départements du point de vue de l’évolution du nombre de communes.
-
10:30
Vélo et pandémie du Covid-19 : une structuration multiscalaire du réseau associatif en Île-de-France
sur CybergeoLes travaux réalisés autour de la pandémie de Covid-19 présentent cette dernière comme une période de changement radical en matière de mobilité. La crise sanitaire a permis de renouveler les discours sur le vélo comme mode de déplacement quotidien et de franchir de nouvelles étapes en matière de politiques publiques (aides à la réparation de vélos, aménagements cyclables provisoires tels que les "coronapistes"). Cet article étudie la structuration du réseau associatif pro-vélo en Île-de-France, en analysant ses dynamiques spatiales et son évolution de 1970 à 2023. Dans quelle mesure la crise du Covid-19 a-t-elle constitué un accélérateur des processus en cours, ou bien un levier de changements plus radicaux ? L’article mobilise des données quantitatives (recensement d’associations) et qualitatives (récits d’histoires associatives, entretiens d’acteur.rice.s associatifs, de collectivités territoriales et institutions) issues de deux corpus : l’un constitué avant 2020, l’autre après c...
-
10:30
De la adaptación urbana a la escasez del agua en Phoenix y Tucson (Arizona): una aproximación desde la ecología política
sur CybergeoEn el contexto del cambio climático, las sequias aumentan y los territorios sufren un grave estrés hídrico. Este artículo examina la gestión del desequilibrio entre la disponibilidad de agua y la creciente demande en Phoenix y Tucson, en el árido oeste de Estados Unidos. A partir de un estudio de caso que pone de relieve las cuestiones socioecologicas de la escasez, esta investigación propone considerar las ciudades de Phoenix y Tucson como laboratorios de adaptación urbana al cambio climático para explorar diferentes modalidades de adaptación. El análisis moviliza los conceptos de la ecología política urbana para examinar las relaciones de poder entre los actores de la gestión del agua en un contexto en el que se cuestiona cada vez más el sistema de infraestructuras hídricas que sustenta el crecimiento urbano. Por un lado, el artículo muestra que los actores dominantes aplican estrategias de adaptación para mantener la trayectoria de crecimiento de ciudades especialmente atractivas...
-
10:30
Katja Schicht, 2023, Alexander von Humboldts Klimatologie in der Zirkulation von Wissen. Historisch-kritische Edition der Berliner Briefe (1830-1859) und ihre Kontexte, Hildesheim, Zürich, New York, Olms, 577 p.
sur CybergeoAlexander von Humboldt (1769-1859) était l'un des naturalistes les plus productifs de son époque. L'explorateur a notamment contribué dans les domaines de la géologie et du magnétisme terrestre, ainsi que dans ceux de la connaissance de la biodiversité et de la géographie de l'Amérique du Sud. Ses travaux sur le climat ont récemment reçu une attention accrue. Le naturaliste lui-même n'a en effet jamais rassemblé ses thèses météorologiques et climatologiques dans une publication intégrale. Il est donc d'autant plus appréciable que soient parus presque simultanément plusieurs volumes contenant une sélection d'écrits de Humboldt sur la climatologie ainsi qu'une présentation des débuts de la recherche climatique moderne à l'aide de documents choisis dans le fonds (Nachlass) de Humboldt à la Bibliothèque d'État de Berlin (Erdmann, Brönnimann, 2023 ; Humboldt, 2023a ; Humboldt 2023b). Cette édition critique de trois correspondances d'Alexander von Humboldt datant des années 1830 à 1859 es...
-
10:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
10:30
Pierre Laconte, Jean Remy (Coord.), 2020, Louvain-la-Neuve à la croisée des chemins, Louvain-la-Neuve, Belgique, Academia-L’Harmattan, 294 p.
sur CybergeoCet ouvrage livre les coulisses de la conception de Louvain-la-Neuve, une ville nouvelle belge à vocation universitaire, non loin de Bruxelles, à partir des années 1960. Conséquence de la querelle linguistique en Belgique qui a interdit tout enseignement en français en Flandre, les sections francophones de la célèbre université de Leuven ont dû déménager en Wallonie et créer l’université de Louvain-la-Neuve. Mais, contrairement à la tendance lourde à l’époque et aujourd’hui encore, le choix a été fait de créer une ville nouvelle universitaire, et non une "université-campus".
La première lecture de cet ouvrage montre des pensées et des courants d’architecture et d’urbanisme différents, qui ont confronté leurs points de vue et leurs perspectives dans ce projet. Il a fallu une coordination exceptionnelle entre les acteurs (pouvoirs publics et privés, université et associations) qui ont fait Louvain-la-Neuve (LLN) pour qu’elle devienne la ville qu’elle est aujourd’hui. Les auteurs sont l...
-
10:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
10:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
10:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...
-
10:30
Cartographier les pressions qui s’exercent sur la biodiversité : éléments de réflexion autour des pratiques utilisées
sur CybergeoPour mieux orienter les politiques de conservation, il est crucial de comprendre les mécanismes responsables de la perte de biodiversité. Les cartes illustrant les pressions anthropiques sur la biodiversité représentent une solution technique en plein développement face à cet enjeu. Cet article, fondé sur une revue bibliographique, éclaire les diverses étapes de leur élaboration et interroge la pertinence des choix méthodologiques envisageables. La définition des notions mobilisées pour élaborer ces cartes, en particulier celle de la pression, représente un premier défi. La pression se trouve précisément à la jonction entre les facteurs de détérioration et leurs répercussions. Cependant, les indicateurs à notre disposition pour la localiser géographiquement sont généralement axés soit sur les causes, soit sur les conséquences de la dégradation. Cet écueil peut être surmonté si la nature des indicateurs utilisés est bien définie. À cet effet, nous proposons une catégorisation des ind...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
12:12
Ouverture²
sur Dans les algorithmesL’Open Data Institute publie une série de recommandations pour des pratiques de données responsables pour le développement de l’IA. Au menu, améliorer la transparence des données d’entraînements (en adoptant les outils dédiés et qui existent déjà et en regardant comment les adapter aux non spécialistes), moderniser le régime de propriété intellectuelle (en évitant de rechercher une solution universelle – la musique n’est pas la recherche scientifique -; en créant des compensations financières à l’utilisation pour l’IA, en imaginant des couches de consentements et en se défiant d’une IA dépendant de licences qui la réserverait uniquement aux plus puissants acteurs) ; améliorer le respect des droits dans toute la chaîne logistique de l’IA (en élargissant l’accès aux données par ceux qui sont concernés et impliqués, notamment les travailleurs) ; élargir l’accès aux données (en renforçant les répertoires communs et en imaginant des solutions pour ouvrir l’accès aux données du secteur privé) ; permettre aux citoyens d’avoir leur mot à dire dans le partage et l’utilisation des données pour l’IA (notamment en renforçant le contrôle réglementaire par les citoyens).
-
7:30
Le grand décalage
sur Dans les algorithmesA l’occasion d’un rapport sur l’impact de l’IA générative sur le travail, les chercheurs de la Brookings Institution, estiment dans une tribune pour le Time que « les professions les plus susceptibles de connaître des perturbations dues à l’IA (à savoir les métiers de la connaissance et notamment les postes de bureau intermédiaire, comme les assistants et secrétaires) sont également les moins susceptibles d’employer des travailleurs appartenant à un syndicat ou disposant d’autres formes de voix et de représentation ». Les chercheurs parlent de « grand décalage », pour évoquer le fossé entre les menaces de l’IA et les possibilités de s’en prémunir, montrant que l’IA capacitante nécessite des organisations sociales fortes. Pourtant, les recherches montrent que les entreprises tirent de grands avantages de l’intégration des travailleurs et de leurs connaissances dans la conception et le déploiement de nouvelles technologies, par rapport à une mise en œuvre descendante. Or, à ce jour, ceux-ci ne sont pas impliqués dans les développements de l’IA. Les entreprises peinent à intégrer qu’elles ont un argument commercial puissant à faire valoir en intégrant l’engagement des travailleurs.
-
7:30
Technologies de genre, technologies de pouvoir
sur Dans les algorithmesAprès avoir signé un étonnant livre sur le bestiaire matériel, qui cherchait à montrer l’intelligence des matériaux qui nous entourent et que nous construisons (Parallel Minds, MIT Press, Urbanomic, 2022, non traduit, qui se prolonge d’une newsletter toujours riche), ou un manifeste de démonologie révolutionnaire, la chercheuse, artiste et journaliste italienne Laura Tripaldi consacre un court essai aux technologies de genre.
Gender Tech, ce que la technologie fait au corps des femmes (Lux, 2024) est une réflexion particulièrement tonique sur le rôle de la technologie dans la connaissance. Depuis un point de vue radicalement féministe, Tripaldi questionne la fonction des outils technoscientifiques. Pour elle, ils ne sont pas des transmetteurs passifs, neutres, objectifs ou impartiaux, mais au contraire, ils participent à transformer et à construire la réalité qu’ils décrivent. Du spéculum gynécologique à la contraception hormonale, du test de grossesse à l’échographie, les outils dictent leurs vérités et exercent par là-même un contrôle et une domination sur les corps qu’ils révèlent. Leur contribution à l’émancipation des femmes est très ambivalente, rappelle la chercheuse. Le regard qu’ils projettent à l’intérieur des corps et la façon dont ces technologies transportent et traduisent l’expérience intime vers la sphère publique du savoir scientifique a d’abord des impacts politiques et normatifs. La technologie matérialise le genre, le construit, et avec lui construit des statuts identitaires comme sociaux.
Avec l’exemple de la pilule et de ses effets secondaires, Tripaldi rappelle le caractère inévitable et totalitaire de la technologie qui minimise toujours ses effets et infantilise ses utilisatrices. La pilule n’a pas été qu’une technologie contraceptive de maîtrise de la fertilité, elle a aussi été un dispositif de régulation sociale et biologique des femmes. « Je ne peux m’empêcher de penser que la recherche d’une solution pharmacologique au « problème » de la féminité est peut-être une façon détournée de légitimer les structures sociales et politiques oppressives qui font qu’il est si difficile d’habiter le monde dans un corps de femme ». Une pilule n’est pas qu’un principe actif, souligne-t-elle : c’est aussi et d’abord un « dispositif imprégné de discours politiques et de significations culturelles ». La technologie est à la fois émancipatrice et oppressive, notamment quand son action va au-delà de sa promesse, comme c’est souvent le cas, notamment en agissant sur la nature même du corps, des émotions, de la personnalité, comme le fait la pilule. Celle-ci ne régule pas seulement la fertilité, elle a des conséquences médicales, psychologiques et politiques sur celles auxquelles elle est prescrite. Tripaldi dissèque longuement les lourds effets de la pilule, administrée longtemps sans grande conscience de ses effets qui n’ont de secondaires que le nom. « La valeur d’une technologie ne peut jamais être dissociée de la position, hégémonique ou subalterne, des corps sur lesquels elle agit ».
« Avant de produire un savoir, la science produit des regards »Le progrès technique est longtemps resté une promesse d’émancipation jusqu’à ce qu’on se rende compte que ce n’était pas nécessairement aussi évident, au contraire même. Le progrès social a bien plus tenu de réactions et de luttes contre le progrès technique le plus déshumanisant qu’il n’a été sa continuité naturelle. En revenant à la source, Tripaldi montre que l’inventeur de la pilule, l’endocrinologue Gregory Pincus n’avait pas beaucoup de scrupules éthiques. Son collègue, le gynécologue John Rock, catholique convaincu, voyait dans le dispositif un moyen pour discipliner les corps. Les effets psychologiques de la pilule sont pourtant démontrés dès les premiers tests réalisés sans le consentement des patientes, et dès les années 60, les risques de thrombose et de cancers sont documentés. « Dans l’histoire de la médecine, la pilule est le premier médicament conçu pour être administré de façon régulière à des personnes en parfaite santé ». Et les risques liés à sa prise sont longtemps minimisés sous les controverses scientifiques et du fait de l’absence d’autres technologies de contraception, notamment les technologies de contraceptions masculines, qui sont restées bien peu investiguées. Pour Tripaldi, ces conséquences montrent qu’on ne peut s’émanciper en utilisant ces technologies. Comme le disait Audrey Lorde, « les outils du maître ne détruiront jamais la maison du maître ». Les hormones elles-mêmes sont des « objets-frontières » qui « évoluent sur l’interface entre biologie et société », à la manière dont les principes actifs de la pilule agissent sur la sexualité, le rapport aux autres, les émotions, l’identité même de celles qui y ont recours. La corrélation entre la prise de la pilule et la dépression par exemple, soulignent que ce que la pilule produit va bien au-delà de ce sur quoi elle est censée agir, puisqu’elle bouleverse jusqu’à l’identité même de celles qui la prennent. Comme le dit le philosophe Paul B. Preciado, derrière les flux technologiques hormonaux, ce que l’on s’injecte, c’est « une chaîne de signifiants politiques ». Pour Tripaldi, les technologies produisent des discours, construisent des vérités, assemblent de nouvelles formes de nature. Depuis la généalogie problématique de la pilule, nous avons bien à faire à un dispositif de contrôle politique, qui, « derrière le masque de l’émancipation, n’a fait qu’intensifier et renforcer la discipline ».
« Avant de produire un savoir, la science produit des regards ». L’objectivité est toujours circonstanciée, conditionnelle, rappelle Laura Tripaldi. Pour elle, nous devons « redéfinir les conditions dans lesquelles l’objectivité prend forme », en interrogeant plus avant le rôle central des interfaces technologiques dans la construction même de la science.
En observant comment a été construit le test de grossesse, Tripaldi interroge le rôle actif de médiation de la technologie dans la construction du savoir. Les technologies, parce qu’elles sont les espaces mêmes où se construisent l’objectivité du savoir, sont à la fois des dispositifs de contrôle et des territoires de luttes. Et c’est le contrôle des moyens de production du savoir qui permettent à celui-ci de reproduire sa domination. Même constat pour le développement de l’échographie, qui produit la représentation du corps du foetus séparé de celui de la femme qui le produit. Pour Tripaldi, les technologies orientent nos regards, le construisent, construisent nos représentations. Les célèbres images de fœtus du photographe suédois Lennart Nilsson ont participé à transformer le fœtus en sujet politique, vivant, alors que ces célèbres images sont celles de cadavres, dissociés de leur contexte matériel, à savoir le corps de leur mère sans lequel ils ne peuvent vivre. L’échographie a donné naissance à la politisation du fœtus, privant les femmes de leur autonomie, rendant leurs corps, à elles, invisibles. En permettant de documenter un espace inconnu, l’échographie a permis de nouvelles dominations : d’abord et avant tout l’extension d’un regard et d’un jugement moral conservateur sur le corps des femmes. D’outils pour réduire le risque, l’échographie est devenu un moyen pour élargir le contrôle sur tous les aspects de la vie quotidienne de la femme enceinte. En devenant symbole, le fœtus est devenu bien plus politique que médical. « La représentation technologique d’un corps n’est jamais un processus neutre ».
Interroger la façon dont nous construisons les instruments qui vont produire la réalitéLe « masque de l’objectivité scientifique occulte le récit idéologique ». La réalité est toujours subjective et dépendante de l’observateur et de la manière dont le regard est dirigé sur ce et ceux qu’il observe. Le risque, estime Tripaldi, c’est que l’oppression politique ne s’impose pas seulement au niveau de la morale, mais la déborde, pour s’inscrire désormais au niveau de la réalité, ou plutôt au niveau dont on représente la réalité, c’est-à-dire au niveau dont sont construits nos instruments.
Cette compréhension nouvelle nous invite donc à interroger la façon même dont nous construisons les instruments qui produisent la réalité. A l’heure des données et des calculs par exemple, on voit bien qu’elles produisent des réalités très imparfaites, mais qui sont acceptées comme telles d’abord par ceux qui les produisent et ce d’autant qu’elles leur profitent, et qu’elles s’imposent aux autres, quelles que soient leurs limites ou défaillances.
Pour défaire ces récits, il faut les montrer tels qu’ils sont, c’est-à-dire des récits, explique Tripaldi. Des idéologies recouvertes de sciences. C’est très justement ce qu’explique le féminisme des données, en nous invitant à nous défaire des artefacts que nous construisons pour produire la science elle-même. C’est tout l’enjeu du discours anticolonial, qui montre également la relation profonde entre science et domination. Plus encore que des savoirs, la science sert à construire des regards, des représentations, des discours, qu’il faut savoir raconter, expliquer, situer.
Comme le fait Jeanne Guien dans son livre, Une histoire des produits menstruels (Divergences, 2023), Tripaldi termine le sien en montrant toutes les limites des applications de suivi du cycle menstruel. Pour Tripaldi, le corps devient une composante de la technologie, un périphérique, permettant de renforcer les règles normatives et politiques. C’est la technologie qui a recours à la biologie pour fonctionner, c’est elle qui nous envahit. Pour la chercheuse, nous devrions pourtant trouver des espaces pour échapper à la technologie et à la science, des moyens pour échapper à l’extension du contrôle, pour nous protéger du regard tout puissant de la tech. La science et la technologie sont d’abord des outils de puissance au service du contrôle, rappelle-t-elle, très concrètement. A mesure qu’ils s’étendent et nous gouvernent, le risque est qu’ils nous laissent sans leviers pour y résister. Les technologies ne peuvent être des vecteurs d’émancipations seulement si elles sont conçues comme des espaces ouverts et partagés, permettant de se composer et de se recomposer, plutôt que d’être assignés et normalisés. Les technologies devraient nous permettre de devenir ambigus plutôt que d’être parfaitement univoques. Elles devraient nous permettre de fuir le regard moral qui les constitue sous prétexte de science… comme d’échapper aux données qui tentent de nous définir, sans jamais y parvenir vraiment.
Couverture du livre de Laura Tripaldi, Gender Tech. -
7:30
Glaçant : une démocratie qui n’aurait plus besoin d’humains
sur Dans les algorithmesFaire discuter les machines à notre place pour trouver des terrains d’accords en évacuant les opinions personnelles pour atténuer la conflictualité. Tel est le projet glaçant de chercheurs de Google… Améliorer le contrôle social plutôt que favoriser l’action collective. Rob Horning.
-
10:30
Vélo et pandémie du Covid-19 : une structuration multiscalaire du réseau associatif en Île-de-France
sur CybergeoLes travaux réalisés autour de la pandémie de Covid-19 présentent cette dernière comme une période de changement radical en matière de mobilité. La crise sanitaire a permis de renouveler les discours sur le vélo comme mode de déplacement quotidien et de franchir de nouvelles étapes en matière de politiques publiques (aides à la réparation de vélos, aménagements cyclables provisoires tels que les "coronapistes"). Cet article étudie la structuration du réseau associatif pro-vélo en Île-de-France, en analysant ses dynamiques spatiales et son évolution de 1970 à 2023. Dans quelle mesure la crise du Covid-19 a-t-elle constitué un accélérateur des processus en cours, ou bien un levier de changements plus radicaux ? L’article mobilise des données quantitatives (recensement d’associations) et qualitatives (récits d’histoires associatives, entretiens d’acteur.rice.s associatifs, de collectivités territoriales et institutions) issues de deux corpus : l’un constitué avant 2020, l’autre après c...
-
10:30
Une trame communale immuable ? La nécessaire géohistoire des communes françaises (1800-2024)
sur CybergeoLes communes constituent la plus petite des mailles de l’administration territoriale française depuis la Révolution. Ces entités sont également les plus nombreuses. L’évolution de ce maillage est peu connue. Cet article propose une approche spatialisée de l’évolution du nombre de communes françaises. Les données exploitées sont extraites de la base dite "Cassini" qui est ici présentée, tout en pointant ses limites. L’article analyse tout d’abord les rythmes de l’évolution du nombre de communes françaises. On note trois périodes de diminution rapide du nombre de communes : 1800-années 1830, années 1960-1970 et années 2010. Chaque période présente une géographie spécifique, qui invite à penser le département comme un cadre pertinent pour penser l’échelon communal, en raison du rôle que joue l’administration déconcentrée de l’État et particulièrement le préfet. Partant de ce constat, l’article propose une typologie des départements du point de vue de l’évolution du nombre de communes.
-
10:30
De la adaptación urbana a la escasez del agua en Phoenix y Tucson (Arizona): una aproximación desde la ecología política
sur CybergeoEn el contexto del cambio climático, las sequias aumentan y los territorios sufren un grave estrés hídrico. Este artículo examina la gestión del desequilibrio entre la disponibilidad de agua y la creciente demande en Phoenix y Tucson, en el árido oeste de Estados Unidos. A partir de un estudio de caso que pone de relieve las cuestiones socioecologicas de la escasez, esta investigación propone considerar las ciudades de Phoenix y Tucson como laboratorios de adaptación urbana al cambio climático para explorar diferentes modalidades de adaptación. El análisis moviliza los conceptos de la ecología política urbana para examinar las relaciones de poder entre los actores de la gestión del agua en un contexto en el que se cuestiona cada vez más el sistema de infraestructuras hídricas que sustenta el crecimiento urbano. Por un lado, el artículo muestra que los actores dominantes aplican estrategias de adaptación para mantener la trayectoria de crecimiento de ciudades especialmente atractivas...
-
10:30
Katja Schicht, 2023, Alexander von Humboldts Klimatologie in der Zirkulation von Wissen. Historisch-kritische Edition der Berliner Briefe (1830-1859) und ihre Kontexte, Hildesheim, Zürich, New York, Olms, 577 p.
sur CybergeoAlexander von Humboldt (1769-1859) était l'un des naturalistes les plus productifs de son époque. L'explorateur a notamment contribué dans les domaines de la géologie et du magnétisme terrestre, ainsi que dans ceux de la connaissance de la biodiversité et de la géographie de l'Amérique du Sud. Ses travaux sur le climat ont récemment reçu une attention accrue. Le naturaliste lui-même n'a en effet jamais rassemblé ses thèses météorologiques et climatologiques dans une publication intégrale. Il est donc d'autant plus appréciable que soient parus presque simultanément plusieurs volumes contenant une sélection d'écrits de Humboldt sur la climatologie ainsi qu'une présentation des débuts de la recherche climatique moderne à l'aide de documents choisis dans le fonds (Nachlass) de Humboldt à la Bibliothèque d'État de Berlin (Erdmann, Brönnimann, 2023 ; Humboldt, 2023a ; Humboldt 2023b). Cette édition critique de trois correspondances d'Alexander von Humboldt datant des années 1830 à 1859 es...
-
10:30
Dykes and ‘nature’. Results of a survey on the perception of dykes and their evolution in 21st century France
sur CybergeoThe traditional paradigm of dyke management focuses on water defense. This article analyzes the perception and representation of coastal and river dikes among a sample of 828 residents and users. Five scenarios for the evolution of dikes were proposed to the respondents. Among these scenarios, maintaining the dikes in their current state is the most desired, while vegetation is the least rejected. In contrast, the scenarios of reinforcement and opening/lowering the dikes encounter notable rejection. This surprising refusal of reinforcement could indicate a shift in the perception of dike management in France, while the rejection of their opening remains consistent with the limited development of soft coastal and river defenses. Furthermore, the respondents' choices are strongly influenced by their relationship with nature, even though they refer to a nature that is anthropized and tamed. These results are important for developing scenarios for the evolution of dikes in the face of c...
-
10:30
Pierre Laconte, Jean Remy (Coord.), 2020, Louvain-la-Neuve à la croisée des chemins, Louvain-la-Neuve, Belgique, Academia-L’Harmattan, 294 p.
sur CybergeoCet ouvrage livre les coulisses de la conception de Louvain-la-Neuve, une ville nouvelle belge à vocation universitaire, non loin de Bruxelles, à partir des années 1960. Conséquence de la querelle linguistique en Belgique qui a interdit tout enseignement en français en Flandre, les sections francophones de la célèbre université de Leuven ont dû déménager en Wallonie et créer l’université de Louvain-la-Neuve. Mais, contrairement à la tendance lourde à l’époque et aujourd’hui encore, le choix a été fait de créer une ville nouvelle universitaire, et non une "université-campus".
La première lecture de cet ouvrage montre des pensées et des courants d’architecture et d’urbanisme différents, qui ont confronté leurs points de vue et leurs perspectives dans ce projet. Il a fallu une coordination exceptionnelle entre les acteurs (pouvoirs publics et privés, université et associations) qui ont fait Louvain-la-Neuve (LLN) pour qu’elle devienne la ville qu’elle est aujourd’hui. Les auteurs sont l...
-
10:30
De l’emprise à l’empreinte : cartographier la donnée AIS pour qualifier l’occupation de l’espace maritime caribéen
sur CybergeoCet article propose une première exploitation d'une base de données massives visant à décrire l’occupation de l’espace maritime par les navires marchands dans la Caraïbe. Cette occupation est résolument polymorphe du fait des activités maritimes et des types de navires qui y participent. Pour rendre compte de la diversité des géographies qui en découlent, nos travaux reposent sur une analyse désagrégée rendue possible grâce aux données de surveillance du trafic maritime AIS (Automatic Identification System). En développant une base de données multi-sources intégrant des données AIS couplées à des bases d’identification des navires et de caractérisation des terminaux portuaires, nous avons pu analyser les trajectoires maritimes des navires au cours d’une année entière et à l’échelle de la Grande Région Caraïbe pour en restituer les principales routes et escales. Les résultats de cette analyse exploratoire mettent en lumière la variabilité de l’emprise spatiale du transport maritime s...
-
10:30
Thinking marine rewilding: adapting a terrestrial notion to the marine realm. Definition, practices and theories of marine rewilding
sur CybergeoWhile academic research in social science relating to rewilding mainly focuses on terrestrial initiatives, scant attention is given to marine rewilding. During the last ten years, marine rewilding initiatives have increasingly flourished every year around the world. The few articles dealing with marine rewilding emanate from biological and economic domains and address the scientific and economic feasibility of the initiatives. However, research still needs to provide a broad perspective on the implementing conditions of marine rewilding through a typology of the stakeholders, their vision, scientific approaches, management methods, and challenges. This article presents a literature review on marine rewilding initiatives and opens a critical discussion on the challenging conditions of their implementation. Through analysis of academic and grey literature on rewilding concepts and practices, the findings of this article indicate that rewilding was initially conceived for terrestrial a...
-
10:30
Philippe Valette, Albane Burens, Laurent Carozza, Cristian Micu (dir.), 2024, Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, Toulouse, Presses universitaires du Midi, 382 p.
sur CybergeoLes zones humides, notamment celles associées aux cours d’eau, sont des objets privilégiés de la géohistoire (Lestel et al., 2018 ; Jacob-Rousseau, 2020 ; Piovan, 2020). Dans Géohistoire des zones humides. Trajectoires d’artificialisation et de conservation, paru en 2024 aux Presses universitaires du Midi, Valette et al. explorent l’intérêt scientifique de ces milieux, qui réside selon leurs mots dans "la double inconstance de leurs modes de valorisation et de leurs perceptions qui a conduit, pour [chacun d’entre eux], à des successions d’usages et fonctionnement biophysiques très disparates" (2024, p.349). L’analyse des vestiges conservés dans leurs sédiments permet en effet de reconstituer sur le temps long les interactions entre les sociétés et leur environnement. En outre, les milieux humides ont souvent été abondamment décrits et cartographiés, en lien avec leur exploitation et leur aménagement précoces. Archives sédimentaires et historiques fournissent ainsi à la communauté sc...
-
10:30
Cartographier les pressions qui s’exercent sur la biodiversité : éléments de réflexion autour des pratiques utilisées
sur CybergeoPour mieux orienter les politiques de conservation, il est crucial de comprendre les mécanismes responsables de la perte de biodiversité. Les cartes illustrant les pressions anthropiques sur la biodiversité représentent une solution technique en plein développement face à cet enjeu. Cet article, fondé sur une revue bibliographique, éclaire les diverses étapes de leur élaboration et interroge la pertinence des choix méthodologiques envisageables. La définition des notions mobilisées pour élaborer ces cartes, en particulier celle de la pression, représente un premier défi. La pression se trouve précisément à la jonction entre les facteurs de détérioration et leurs répercussions. Cependant, les indicateurs à notre disposition pour la localiser géographiquement sont généralement axés soit sur les causes, soit sur les conséquences de la dégradation. Cet écueil peut être surmonté si la nature des indicateurs utilisés est bien définie. À cet effet, nous proposons une catégorisation des ind...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...