Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Canaux
4737 éléments (1 non lus) dans 55 canaux
- Cybergeo
- Revue Internationale de Géomatique (RIG)
- SIGMAG & SIGTV.FR - Un autre regard sur la géomatique
- Mappemonde
- Dans les algorithmes
- Imagerie Géospatiale
- Toute l’actualité des Geoservices de l'IGN
- arcOrama, un blog sur les SIG, ceux d ESRI en particulier
- arcOpole - Actualités du Programme
- Géoclip, le générateur d'observatoires cartographiques
- Blog GEOCONCEPT FR
- Géoblogs (GeoRezo.net)
- Conseil national de l'information géolocalisée
- Geotribu
- Les cafés géographiques
- UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
- Icem7
- Séries temporelles (CESBIO)
- Datafoncier, données pour les territoires (Cerema)
- Cartes et figures du monde
- SIGEA: actualités des SIG pour l'enseignement agricole
- Data and GIS tips
- Neogeo Technologies (1 non lus)
- ReLucBlog
- L'Atelier de Cartographie
- My Geomatic
- archeomatic (le blog d'un archéologue à l’INRAP)
- Cartographies numériques
- Veille cartographie
- Makina Corpus
- Oslandia
- Camptocamp
- Carnet (neo)cartographique
- Le blog de Geomatys
- GEOMATIQUE
- Geomatick
- CartONG (actualités)
Dans la presse
-
10:22
Région décortiquée
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa région du sud-ouest Nouvelle-Aquitaine est désormais documentée en ouvrage de cent cartes. Issu des travaux du Pôle Datar et de la Direction de l’intelligence territoriale, de la collectivité, le document est disponible au format papier, édité par les Éditions Atlantique de l’Espace Mendès France, mais aussi en version numérique. Divisé en seize thématiques de données, cette cartographie reprend de visualiser la répartition des populations, par âge, classes sociales, ainsi que leurs tendances professionnelles et celles de déplacements. Des déserts médicaux aux lieux de séjours des touristes, le territoire et sa diversité sont décortiqués sous de nombreux angles. L’objectif est de mettre en lumière simplement des phénomènes complexes. En ligne, ouverte à tous et accessible gratuitement, la ressource propose des documents en PDF et des images téléchargeables, ainsi que des StoryMaps et des applications.
+ d'infos :
cartes.nouvelle-aquitaine.pro">[https:]
-
10:05
Grand Paris Express : comment l’Apur observe les quartiers de gare
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueL’Apur a pour missions de documenter, analyser et développer des stratégies prospectives concernant les évolutions urbaines et sociétales à Paris et dans la Métropole du Grand Paris. Avec la mise en service du Grand Paris Express, l’Atelier parisien d’urbanisme (Apur), la Société des Grands Projets (SGP), la Direction Régionale et interdépartementale de l’environnement, de l’aménagement et des transports (DRIEAT) et l’Institut national de la statistique et des études économiques (Insee) engagent une nouvelle phase de l’observatoire des quartiers de gare. Initié en 2013, cet outil partenarial souhaite rendre compte des transformations urbaines et sociales liées à l’arrivée du métro à l’échelle des quartiers de gares, des lignes et du réseau.
Dix ans après le premier état des lieux, ces nouvelles monographies, réalisées en suivant le calendrier de mise en exploitation, se fondent sur le même périmètre autour de chaque gare, un rayon de 800 mètres correspondant à l’aire d’influence immédiate et 10-15 minutes de marche à pied. Elles reprennent également les principaux indicateurs afin de permettre une analyse comparative. Mais chaque monographie s’enrichit de nouvelles données répondant à de nouvelles attentes ou pratiques : piste cyclable, mètre carré d’espaces vers ouverts aux publics par habitant, renaturation, économie d’énergie, intensité commerciale, ainsi que des données sociales inédites comme la mixité et la ségrégation, part des emplois de bureaux. Sept thématiques permettent ainsi d’appréhender à une échelle fine les mutations urbaines en cours et à venir : cadre de vie, population et emplois, offre de logements et prix, vie locale, usages et nouvelle centralité, accessibilité et mobilités et environnement. Elles détaillent les caractéristiques de chaque quartier de gare en le restituant dans leur environnement immédiat, dans les communes concernées par l’arrivée de la gare et rendent possible une analyse croisée de l’ensemble des quartiers de gare d’une ligne.
Chaque quartier fera l’objet d’une nouvelle monographie en fonction du calendrier de mise en service du GPE. Au 1er semestre 2024, sont publiées les monographies de la ligne 14 sud. Suivront au 2e semestre, celles de la ligne 15 sud. Cette datavisualisation accompagne la publication des monographies par des chiffres clés, des cartes et des graphiques de synthèse portant sur l’ensemble des 68 quartiers de gare. Ces données seront actualisées chaque année. Dans ce reportage SIGTV.FR, en partie diffusé lors de la conférence SIG 2024, Stéphanie Jankel, Directrice d’étude, en charge du pilotage de l’observatoire des quartiers de gare, Alain Beauregard, Responsable SIG à l’Apur, et Martin Wolf, Urbaniste, chef de projet à l’Apur, décrivent l’intérêt de l’observatoire et la manière dont il est mis en place et mis à jour.
Reportage réalisé par Xavier Fodor et Geoffrey Boyer.
+ d'infos :
apur.org/dataviz/observatoire-qg-gpe/
-
7:07
Machines à mèmes
sur Dans les algorithmes« L’IA générative est le lubrifiant de machines algorithmiques cassées », comme le sont devenus les médias sociaux. Damon Beres.
-
7:00
Quand la dématérialisation réduit les droits
sur Dans les algorithmesDans un rapport particulièrement sévère, le Défenseur des droits dresse un réquisitoire nourrit de la plateforme dématérialisée pour les demandes de titres de séjour des ressortissants étrangers produite par l’Administration numérique des étrangers en France (ANEF). Les problèmes liés à cette plateforme représentent désormais un tiers des réclamations que reçoit le Défenseur. Non seulement les candidats au titre de séjour ne parviennent pas à accomplir leurs démarches, mais surtout ils ne reçoivent pas de réponses dans les délais, y compris pour un renouvellement de titre de séjour, ce qui les plonge dans l’irrégularité car ils ne peuvent pas produire de preuve de leur droit au séjour. Pour le Défenseur, l’ampleur et la gravité des atteintes au droit nécessitent des mesures urgentes.
Le Défenseur rappelle d’ailleurs dans son rapport que ce n’est pas la première fois que la dématérialisation conduit à des ruptures de droits. Cela a été longtemps le cas avec les demandes de permis de conduire et les certificats d’immatriculation par exemple. Quant au problème spécifique de l’accès aux préfectures pour les demandes de titres de séjour, on rappellera que le problème est sur la table depuis le rapport de la Cimade en 2016, et que le Défenseur des droits a plusieurs fois pointé les dysfonctionnements depuis sans amélioration réelle.
Très concrètement, le rapport souligne que les choix de conception de l’outil mis en place renforce les difficultés, en empêchant de réaliser simultanément plusieurs démarches, par exemple de signaler un changement de lieu de résidence quand une démarche est en cours. L’outil ne permet pas non plus de conserver un historique des démarches et des échanges, ni ne permet de gérer des démarches pour le compte de plusieurs ressortissants.Le Défenseur des droits propose plusieurs solutions, comme de pouvoir rectifier et modifier ses demandes bien sûr et recevoir des informations précises sur l’évolution de l’instruction des demandes. Il recommande également d’améliorer les moyens des services des préfectures dédiés au droit des étrangers pour accélérer le traitement, parce que les contentieux liés aux retards et dysfonctionnements explosent. Mediapart rapporte ainsi que les tribunaux administratifs sont de plus en plus engorgés par les recours liés à ces dysfonctionnements, notamment de personnes conduites à la précarisation par la perte du droit au séjour et qui éprouvent des difficultés à travailler, à accéder aux soins, aux études, des pertes d’emplois ou de logement ou un arrêt du versement des prestations sociales parce que leur demande ou leur renouvellement n’est pas produit dans les temps.
Un rapport qui montre, très concrètement, que la manière dont sont conçus les outils du service public ont des répercussions on ne peut plus réelles sur les gens. Et qui invite à les réformer en s’appuyant sur les problèmes que font remonter les publics qui y sont confrontés.
-
7:00
Ce que la surveillance change au travail
sur Dans les algorithmesCette semaine, avant de revenir à nouveau sur ce que transforme la surveillance au travail, on republie un article de fond, publié en janvier 2023, une lecture du livre de la sociologue américaine Karen Levy qui a observé comment la surveillance a transformé le monde des routiers américains. La grande force du livre, c’est qu’on observant un secteur particulier, Karen Levy nous explique les conséquences de la surveillance, bien au-delà du monde de la route. En voiture !
Dans son livre, Data Driven : Truckers, Technology and the new workplace surveillance (Princeton University Press, 2023, non traduit), la sociologue Karen Levy a enquêté sur les routiers américains à l’époque où leur a été imposé les systèmes de surveillance électronique (Electronic logging devices, ELD, devenus obligatoires depuis 2017 ; en France on parle de chronotachygraphes numériques, devenus obligatoires dans les camions neufs depuis 2006). Ces systèmes électroniques (qui ressemblent à des autoradio), capturent des données sur l’activité des camions et donc des routiers. Ils poursuivent une longue histoire de la régulation du transport, qui depuis les années 30, d’abord avec des journaux papiers que les conducteurs étaient censés tenir, tente de tracer le travail des routiers pour mieux le contrôler. C’est donc très tôt, dès le développement du transport routier, que le régulateur a cherché à s’attaquer à la fatigue et au surtravail des routiers. L’introduction du numérique ici, utilise un des grands arguments de sa légitimation : l’infalsifiabilité !
Le numérique commande, le numérique surveille, le numérique punitLe livre de Karen Levy s’intéresse à comment la surveillance numérique transforme le lieu de travail et la nature du travail des routiers. Son titre s’amuse de la formule très usitée de Data Driven, qui évoque les entreprises où toutes les approches sont “conduites par la donnée”, c’est-à-dire pilotées par les technologies et l’analyse de données. Ici, l’enjeu est de regarder comment les données conduisent désormais les camions et le sens de ce changement de pilote, de cette transformation par le numérique. Ce qui change avec les données, c’est la manière dont elles mettent en application les métriques qu’elles produisent, dont elles les imposent pour gouverner la réalité. L’enjeu est d’interroger comment « l’exécution numérique » (traduction très imparfaite du digital enforcement, c’est-à-dire l’usage de la technologie pour imposer et faire respecter les règles) repose sur un ensemble de directives légales et organisationnelles qui bouleversent l’autonomie traditionnelle des conducteurs routiers. Ici, le numérique joue un rôle particulier et qu’on lui prête souvent : celui d’imposer, de commander, d’ordonner. Il est le garant de l’application des règles, il est le moyen pour contraindre et soumettre l’individu aux commandements légaux et hiérarchiques dont il dépend. Il est à la fois l’outil de mesure et de contrôle. Il assure un calcul dont l’humain sera tenu pour responsable.
Pourtant, « les règles ne sont pas toujours des règles », rappelle Karen Levy. Elles sont bien souvent façonnées par des réalités sociales, culturelles et économiques et ne sont jamais aussi simples qu’elles paraissent : même une limitation de vitesse engendre des formes de tolérances. Les pratiques de travail s’ajustent plus ou moins aux règles et obligations qui leurs incombent, certaines étant plus strictes que d’autres, plus réprimées, plus surveillées. Le problème, c’est que ce respect sélectif des règles est le lieu de l’arbitraire et des discriminations. Et quand une autorité décide de renforcer une disposition réglementaire par la technologie sans prendre en compte le fossé des pratiques, elle perturbe l’ordre social.
Image : la couverture du livre de Karen Levy.La technologie est de plus en plus convoquée pour réduire le fossé entre la loi et la pratique, comme si ce fossé pouvait se réduire par un simple renforcement, une boîte de Skinner pour altérer nos comportements, à l’image des rats de laboratoires qu’on dresse à coups de récompenses et de décharges électriques. Elle est souvent convoquée pour rendre les règles plus strictes, plus difficiles à briser. Pourtant, estime Karen Levy, les technos n’empêchent pas les comportements déviants. Elle permet parfois de mieux les détecter, les documente et oblige ceux qui y ont recours à devoir en rendre compte. Elle permet peut-être de dissuader les comportements sanctionnés, de les réprimer, mais certainement bien plus de les déporter et de les transformer.
Nos représentations de l’avenir du travail balancent entre un futur ou nous disposons de plus d’autonomie, aidés par les machines, et son exact inverse, celui où le moindre de nos comportements est scruté, prédit et optimisé par la machine. La vérité est que le futur du travail ressemble surtout aux pratiques d’aujourd’hui et aux pratiques d’hier, rappelle avec raison la sociologue. L’avenir du travail reste construit sur les mêmes fondations : à savoir « la motivation, l’efficacité, la minimisation des pertes, l’optimisation des process et l’amélioration de la productivité ». Et pour atteindre ces différents objectifs, la stratégie la plus commune reste la surveillance accrue des travailleurs. Qu’importe si elle marche assez mal…
Ce qui change avec la surveillance numérique, c’est qu’elle est capable de s’introduire dans de nouveaux types d’espaces (et la cabine du chauffeur routier en est un bon exemple). Elle est capable de produire de nouveaux types de données, plus granulaires, depuis de nouveaux capteurs (biométriques notamment) pour produire toujours plus de métriques… qui permettent de produire de nouvelles analyses qui impactent la gestion des travailleurs en temps réel et de manière prédictive. Des analyses bien souvent produites via des systèmes opaques et asymétriques, conçus d’abord au bénéfice exclusif des employeurs. Enfin, cette surveillance produit de nouveaux enchevêtrements, par exemple quand le télétravail capture des données relatives à la vie privée ou à la santé… qui posent de nouveaux enjeux en termes de sécurité ou de vie privée.
Si les chauffeurs routiers ont longtemps eu plus de liberté et d’autonomie que bien des travailleurs en cols bleu, cela a bien changé, raconte la chercheuse. Certes, la route est restée avant tout une identité, où règne une culture d’appartenance très marquée, éminemment viriliste, très libertarienne. Mais la surveillance électronique a réduit l’autonomie des routiers – et c’est bien souvent ce qu’elle produit, partout où elle s’impose : elle produit de nouvelles régulations de l’autonomie, de nouvelles négociations autour de la liberté. Pour Karen Levy, les technologies déstabilisent bien plus les relations de pouvoir qu’elles ne renforcent l’autorité du surveillant. Son livre est une très bonne parabole des transformations du monde du travail par la technologie, qui font écho à d’autres travaux, par exemple, à ceux du sociologue David Gaborieau sur le monde de la logistique transformée par la commande vocale et les PDA.
Le business dégradé de la routeEn 2018, aux Etats-Unis, 37 millions de camions sont enregistrés dans un but commercial, accomplissant des milliards de kilomètres chaque année pour transporter 20 milliards de tonnes de fret. Cette industrie emploi 8 millions de personnes, dont 3,6 millions de chauffeurs, dont 2 millions sont chargés du transport longue distance. Comme nombre d’industrie, le transport est une industrie contrôlée et les prix y sont assez standardisés. Pourtant, le secteur a connu plusieurs chocs de dérégulation depuis la fin des années 70. Dans les années 80, les tarifs d’expédition se sont effondrés de 25% alors que de nouveaux transporteurs entraient sur le marché. Des centaines de camionneurs ont connu la crise et perdus leurs jobs. Pour les autres, leurs salaires ont chuté de 44% (entre 1977 et 1987). Pour compenser cette perte de salaire, les camionneurs ont dû allonger leurs heures de travail. La dérégulation des années 80 a été un cataclysme, explique la sociologue. Dans les années 80 un camionneur pouvait se faire 110 000 $ par an, quand il n’en gagne en moyenne plus que 47 000 aujourd’hui. Bas salaires et surtravail ont transformé le transport en « atelier clandestin sur roue ».
Les routiers sont les plus tués ou blessés des travailleurs américains : 1 travailleur sur 6 tué au travail aux Etats-Unis est un camionneur, et ce chiffre se dégrade malgré le déploiement de toujours plus de mesure de sécurité (sans compter les autres problèmes de santé qui les touchent particulièrement, comme le fait qu’ils fassent peu d’exercice qui conduit la profession à avoir la plus forte incidence de taux d’obésité du pays, comme une forte pratique médicamenteuse, et les déplacements incessants qui rendent difficiles l’accès à un médecin, pour une population qui vieillit plus qu’elle ne rajeunit : l’âge moyen est de 46 ans et augmente. 2/3 des conducteurs sont blancs, même si la proportion de conducteurs noirs et latinos augmente…). Si conduire un camion est l’un des jobs le plus courant dans la plupart des États américains, le turnover y est phénoménal. Chez les grands transporteurs, il est de 100% sur l’année et chez les petits, il est très élevé également. Pour les entreprises, qui en ont pris leur parti, il est devenu plus simple de s’adapter au turnover que de chercher à traiter le problème. 90% des entreprises ont au maximum 6 camions, et un grand nombre de routiers (10%) sont indépendants, c’est-à-dire sont les propriétaires de leur propre camion. Pourtant, le marché est surtout détenu désormais par de très grandes entreprises : 20% des entreprises de transport contrôlent 80% des actifs de l’industrie. Derrière cette description, on voit que la figure du camionneur, chevalier solitaire des autoroutes, tient désormais plus d’une représentation que d’une réalité.
Le surtravail des routiers est le résultat direct de la façon dont ils sont payés, rappelle Levy. Ils sont payés au kilomètres : à l’origine, c’était bien sûr pour aligner leurs objectifs à ceux de leurs entreprises, les pousser à maximiser le temps de conduite. Pourtant, depuis toujours les routiers ne font pas que conduire… Ils inspectent et réparent leur camion, ils remplissent le réservoir, font des pauses, se coordonnent avec les expéditeurs et les réceptionneurs, et surtout passent beaucoup de temps à attendre lors des chargements et déchargements de leurs cargaisons (les conducteurs parlent de « temps de détention »). Mais les routiers ne gagnent pas d’argent sur ces moments. Avant la dérégulation des années 80, un grand nombre de routiers étaient payés à l’heure pour les tâches où ils ne conduisaient pas, mais la concurrence a fait disparaître ces petits avantages. Alors que les syndicats ont été un puissant levier de la profession pendant longtemps (au début des années 70, le transport était la plus syndiquée des industries américaines, avec plus de 80% de travailleurs syndiqués… En 2000, ce taux n’est plus que de 25%, et il est à moins de 10% aujourd’hui), ils sont désormais un repoussoir. Politiquement, les routiers sont surtout majoritairement libertariens. La route est devenue un mauvais métier, mais est resté un métier avec une identité, une fierté et une empreinte culturelle forte, particulièrement masculiniste.
Plus de surveillance, plus de pression !Si la régulation est de retour, plus que de s’intéresser aux conditions de travail, elle s’est surtout intéressée au contrôle des véhicules. Concernant les employés, elle s’est concentrée sur un seul aspect : le temps consacré à la conduite. Le surtravail et le manque de sommeil sont endémiques dans une profession payée au kilomètre. Les semaines de 65 heures ou plus sont nombreuses, les nuits de 5 heures sont courantes. Chaque année, les accidents de la route impliquant des camions tuent 5 000 personnes et blessent 150 000 personnes.
Pour résoudre ces problèmes, les autorités ont cherché à réguler la durée de travail, en imposant des pauses et des durées de conduites, des limites. Restait à en assurer le contrôle. Dès les années 40, les autorités ont imposés aux conducteurs de tenir un journal de bord où ils devaient consigner leur temps de travail, sous la forme d’un graphe (des documents soigneusement et uniquement destinés au contrôle, pas à la paye !). Ce contrôle souvent documenté a posteriori a longtemps été assez permissif, permettant beaucoup d’arrangements pour tenir les délais imposés par les employeurs. Mais plus qu’imposer une solution économique, le régulateur a imposé une solution technique afin de rendre plus difficile aux routiers de falsifier l’enregistrement de leur temps de travail. Envisagée dès 2003, l’imposition des ELD électroniques sera longue et progressive. Annoncée dès 2012, elle sera effective et obligatoire en décembre 2017 seulement (permettant aux employeurs de se préparer : en 2016, 80% des grands transporteurs s’étaient déjà équipés contre seulement 30% des petits).
Image : un chronotachygraphe numérique.Cette obligation a été bien sûr très contestée. Pour les routiers, ces objets sont avant tout un affront à leur vie privée, à leur dignité, à leur indépendance… Pour eux, ces objets et la surveillance qu’ils imposent, les considère comme des criminels ou des enfants. Pourtant, rappelle Karen Levy, le problème n’est pas qu’ils falsifiaient leurs journaux de bords papiers (assez marginalement visiblement), mais que l’industrie soit tout entière orientée pour leur demander de contourner les règles. Le renforcement du contrôle s’impose alors sur le moins puissant de la chaîne industrielle du transport : le chauffeur. Il est considéré comme un menteur dont le comportement doit être redressé, plutôt que comme un professionnel qui doit faire face à des injonctions contradictoires. Surtout, plutôt que de résoudre le problème de la paye au kilomètre, la surveillance l’entérine, sans s’intéresser par exemple au temps d’attente sur les docks (63% des camionneurs rapportent qu’ils peuvent y passer plus de 3 heures).
Pour finir, rapporte Levy, la surveillance n’a pas résolue le problème qu’elle était censée résoudre. La surveillance rend-t-elle les routes plus sures ? Certes, les appareils ont amélioré la conformité des conducteurs aux règles. Avant l’obligation des appareils, les violations du nombre d’heures de travail étaient constatées lors de 6% des contrôles quand elle est descendue à 2,9% depuis. Le gain est notable, mais le problème n’était pas si prégnant que le clame le discours des autorités. Les études n’ont pas trouvé non plus que les appareils électroniques permettaient de réduire le nombre d’accidents (au contraire, les accidents ont tendance à augmenter, notamment chez les petits transporteurs). Les appareils n’ont pas permis de résoudre le temps d’attente des routiers, qui est bien souvent la source d’une prise de risque supplémentaire pour tenir ses délais et ne pas dépasser des horaires qu’ils doivent plus strictement respecter. En fait, l’inflexibilité qu’introduit la surveillance électronique a surtout généré plus de pression sur les conducteurs : les infractions pour conduite dangereuse ont augmenté de 35%.
Derrière la régulation, la gestion : un contrôle social étendu pour aligner les travailleurs aux objectifs des organisationsLes appareils, imposés par le régulateur et pour la régulation, n’ont pas été que des outils de régulation, mais sont vite devenus des outils de gestion. Alors que les camions ont longtemps été immunisé d’une surveillance étroite par les managers, les appareils ont changé cela. « La surveillance numérique conduit à deux importantes dynamiques de changement dans la façon dont les routiers sont gérés par leurs entreprises. D’abord, la surveillance résume les connaissances organisationnelles, les extrait de leurs contextes locaux ou biophysiques (c’est-à-dire ce qu’il se passe sur la route, dans le corps et autour du conducteur) pour les agréger dans des bases de données qui fournissent aux managers de nouveaux indicateurs pour évaluer le travail des routiers. » Ces indicateurs permettent aux managers de construire un contre-narratif de celui de leurs employés, une autre interprétation qui peut venir contredire l’employé, permettant de surveiller la réalité de ses déclarations en regardant sur le GPS où il se trouve précisément. Ensuite, « les entreprises resocialisent les données de surveillance abstraites en les réinsérant dans des contextes sociaux et en créant des pressions sociales sur les camionneurs pour qu’ils se conforment aux exigences organisationnelles. » Par exemple en encourageant une comparaison entre conducteurs sur celui qui conduit le mieux ou celui qui conduit en dépensant le moins de carburant. Le but, ici, clairement, est d’ajouter de nouvelles pressions sur le conducteur pour qu’il se conforme à ses tâches.
La surveillance des travailleurs n’est pas nouvelle. La techno permet aux employeurs d’avoir une meilleure visibilité sur les tâches et par là de mieux discipliner les travailleurs. Les nouveaux outils ont pour but de capturer des informations toujours plus fines et de nouvelles informations (comme les données biométriques) en abaissant le coût de cette surveillance. Ce faisant, la surveillance rationalise le travail : le découpe en microprocessus, le décontextualise, et convertit le travail en pratiques objectivables et calculables. En fait, les ELD se sont révélés plutôt intéressantes pour les employeurs qui ont déployés avec ces outils des systèmes de management de flotte qui leur permettent d’avoir des informations plus précises sur l’activité des routiers, de connaître en temps réel la géolocalisation des camions, mais aussi d’avoir des informations sur leurs modes de conduites (freinage, consommation de carburant…) ainsi que des informations sur la maintenance et le diagnostic du véhicule. Ces systèmes ont renforcé la communication entre le camionneur et son employeur. Enfin, ces données permettent également de faire de la prédiction de risque.
Les entreprises se servent de ces données pas seulement pour elles, mais également pour d’autres. Ces données sont souvent rendues visibles ou accessibles à leurs clients, pour renforcer la fluidité de la chaîne logistique et prévoir l’arrivée des cargaisons. En fait, ces outils sont utilisés pour aller au-delà de ce que proposait la loi (ainsi, celle-ci n’impose un enregistrement de la localisation qu’une fois toutes les 60 minutes, alors que les dispositifs procèdent à un enregistrement en continu). Les dispositifs ont changé la nature de qui détenait l’information. Désormais, les conducteurs n’ont plus l’exclusivité de l’information contextuelle, ce qui modifie leur relation avec leurs employeurs et donc leur indépendance. Les firmes ont même à leur disposition de nouvelles informations dont les conducteurs ne disposent pas, comme des informations sur leur conduite (freinages intempestifs, consommation d’essence…). Les outils permettent enfin une surveillance et une communication plus intensive et plus fréquente, et également plus immédiate, en temps réel, par exemple en informant immédiatement d’une durée de conduite trop longue par rapport à son stricte cadre horaire. Avec le déploiement de la technologie, c’est souvent l’autonomie qui recule : les employés devant répondre et être pénalisés pour chaque problème qui remonte des pipelines informationnels.
Ces nouveaux flots d’information conduisent à de nouvelles stratégies de gestion des hommes, que ce soit par l’évaluation des performances des conducteurs comme leur comparaison entre eux. Les données sont ainsi « resocialisées », c’est-à-dire que les métriques sur les conducteurs sont partagées entre eux pour créer une pression sociale pour les pousser à se conformer aux règles. Beaucoup de gestionnaires de flotte postent ou classent les conducteurs selon leur score de conduite pour créer une pression sociale comparative et pousser les conducteurs à s’améliorer. Certaines entreprises les couplent avec de petites primes financières. Parfois, ces incitations dépassent le cadre de l’entreprise : quelques rares entreprises procèdent à des cérémonies ou des banquets, invitant les familles des conducteurs ou remettant la prime à leurs femmes pour renforcer cette pression sociale. Pour Karen Levy « le contrôle social basé sur les données dépend toujours beaucoup du fait qu’il se situe dans des forces sociales “douces” comme les soins familiaux – contrairement au récit courant selon lequel la gestion basée sur les données est abstraite et impersonnelle ».
Image d’un tableau de bord pour gérer une flotte de camion via OverDriveOnline.Les dispositifs de contrôle des chauffeurs ne sont donc pas qu’une technologie de conformité réglementaire. Ils sont avant tout des outils de contrôle organisationnel qui visent à aligner les incitations pour que les travailleurs se conforment aux objectifs de profits des organisations.
Nouvelles données, nouveaux profitsLa production de nouvelles données nécessite qu’elles soient rendues productives. Elles sont donc vendues ou partagées bien au-delà de l’entreprise. Avec les clients par exemple, mais aussi avec d’autres acteurs, comme les assureurs pour réduire le montant des primes. Elles peuvent également permettre de générer de nouveaux revenus, comme c’est le cas de tout un écosystème d’applications numériques dédiées à la conduite. Désormais, les routiers peuvent réserver des places dans des parking dédiés, via des applications comme Trucker Path. Sur la même application d’ailleurs, des entreprises vendent des correspondances de chargement, pour remplir les camions sur des segments de disponibilités, à la manière des chauffeurs sur Uber. D’autres utilisent ces données pour prédire de la maintenance, détecter l’état des routes, ou améliorer les délais de chargement/déchargement et les temps d’attente, comme Motive. Cette surveillance et ces nouvelles métriques pour améliorer la productivité ont bien plus profité aux gros transporteurs qu’aux petits, estime Karen Levy.
Mais surtout, la surveillance imposée par les autorités et celles des entreprises sont « profondément interopérables », même si elles accomplissent des buts différents. Elles sont « profondément compatibles », et l’une facilite le développement de l’autre. En fait, la collecte de données est elle-même au croisement des intérêt des autorités, des entreprises et d’acteurs tiers qui vont la faire fructifier. Les usages des données se chevauchent et s’entretiennent dans un ensemble d’intérêts légaux, socioculturels, économiques et techniques. « Ces synergies rende les systèmes de surveillance publics et privés pragmatiquement inséparables. La superposition d’intérêts de surveillance par le biais de systèmes interopérables se traduit par une plus grande capacité de surveillance nette que celle que l’État ou la société pourraient atteindre par eux-mêmes, créant un assemblage hybride de régimes de surveillance qui s’appliquent mutuellement. »
Karen Kelly a ensuite un long développement sur la manière dont les dispositifs changent le travail des officiers chargés du contrôle des temps de travail des camionneurs, soulignant combien ce qui devait être facilité est en fait devenu plus difficile. Les inspections sont devenues difficiles, notamment parce qu’il est plus dur pour les inspecteurs de recueillir les données depuis une multitude d’appareils et de formats différents nécessitant des manipulations parfois complexes, dans des situations où ils ne sont pas mis en situation d’autorité (il leur faut pénétrer dans les cabines des conducteurs et bien souvent recevoir leur aide), les conduisant finalement à des inspections moins poussées et moins rigoureuses qu’avant. Sans surprise, les dispositifs qui devaient d’abord améliorer le contrôle par les autorités ne l’a pas vraiment rendu possible. Il a plutôt déporté le contrôle ailleurs et autrement.
Résister à la surveillance ?La chercheuse évoque également la résistance des routiers au déploiement des appareils. La littérature sur les formes de résistances est nourrie, que ce soit sur l’évitement, l’obfuscation en passant par la surveillance inversée pour surveiller les dispositifs de surveillance, voir le sabotage… Chez les conducteurs, Levy note qu’on trouve des procédés pour tenter d’altérer l’enregistrement des données (mettre du scotch sur une caméra, tenter de créer des interférences avec le système, ou par l’utilisation de dispositifs de brouillages de GPS…), la manipulation des données (qui nécessite souvent la complicité de l’entreprise, mais qui est difficile car les logiciels des dispositifs signalent les données éditées), les tentatives pour exploiter les limites techniques des systèmes (en s’appuyant sur ce que les dispositifs ne savent pas mesurer ou détecter, par exemple en se connectant au dispositif depuis un compte fantôme ou celui d’un autre utilisateur quand le conducteur a atteint sa limite de conduite, ou encore en jouant sur le travail non enregistré, comme les temps d’attente de chargement ou de repos) et la résistance sociale et organisationnelle (comme de quitter les firmes qui déploient des systèmes trop invasifs ou des grèves contre le déploiement des dispositifs – mais qui n’ont pas été très suivies -… d’autres formes d’oppositions aux contrôles se sont développées comme de ne pas présenter d’autres documents exigés, ou de collecter des factures de péage ou d’essence sans dates pour dérouter les contrôleurs).
Mais nombre de stratégies sont rapidement éventées et rendues impossibles par l’évolution des systèmes. Karen Levy concède qu’il est plus difficile de briser les règles avec des appareils électroniques de surveillance. Les stratégies de résistance collectives sont défaites par les outils de mesures individuels. Et les stratégies de résistance individuelle relèvent d’un « microluddisme sans grand effet », comme je le disais ailleurs. Pour Karen Levy, les routiers sont pris dans des injonctions contradictoires qui renforcent la pression qu’ils rencontrent. Leurs employeurs les poussent à tricher alors que les systèmes rendent la triche moins accessible. En fait, quand ils en arrivent à conduire avec un faux compte de conducteur, ou quand ils n’enregistrement pas correctement les heures de non-conduite, les routiers renforcent surtout les structures économiques qui les exploitent. Les routiers qui résistent s’autorisent surtout à travailler plus longtemps et donc plus dangereusement. En fait, derrière la résistance, il faut comprendre contre qui et contre quoi on résiste, au bénéfice de qui ? Le routier qui roule en s’enregistrant sur l’ELD depuis un compte fantôme ne s’oppose pas à la loi, il négocie sa relation avec son employeur qui lui fournit les ressources pour ce subterfuge. Dans le monde de la route, résister, c’est faire appelle à une identité d’indépendance, qui n’est plus mise au service du conducteur, mais bien de l’entreprise. L’autorité est déplacée : ce n’est plus l’autorité de régulation qui est injuste ou l’employeur qui est autoritaire, mais la machine dont il faut se défier. Pour Levy, la résistance dans le monde des transports est surtout un exercice d’auto-exploitation, une victoire fantôme qui donne l’illusion qu’on est encore maître de la relation de pouvoir qui s’impose au conducteur. Le routier s’oppose désormais à la machine plutôt qu’aux injonctions impossibles de son supérieur.
La promesse de l’autonomisation masque toujours la réalité de la surveillanceLevy livre ensuite un excellent chapitre sur la menace de l’autonomisation, à savoir la perspective de déploiement de véhicules autonomes. La chercheuse souligne que la menace de l’autonomisation et la disparition à terme des conducteurs humains est très exagérée : nous en sommes très loin. Nous sommes loin d’une « apocalypse robotique » sur nos routes. Le risque d’une transformation et d’une dégradation de l’emploi des routiers est bien plus certain que leur disparition.
L’automatisation de la conduite oublie que le travail du routier ne consiste pas seulement à conduire un camion d’un endroit à un autre. Il est là également pour inspecter et maintenir le véhicule, protéger son chargement, charger et décharger, parler aux clients… L’automatisation menace certaines tâches, plus qu’elle n’est appelée à remplacer des emplois entiers. James Bessen nous a montré que si remplacement il y a, il prend du temps. Les guichets distributeurs d’argents n’ont pas remplacé les guichetiers des banques tout de suite, c’est seulement une fois la vague d’automatisation passée que l’emploi dans le secteur bancaire s’est réduit et transformé. L’avenir consiste bien plus en une démultiplication de technologies d’assistances que dans une automatisation radicale (à l’image des 5 niveaux de l’autonomie des véhicules, qui permettent, comme le dit d’une manière très imagée la chercheuse : de lever le pied, de lever les mains, de lever les yeux puis de lever le cerveau avant de lever l’être humain du siège du conducteur…). Le risque à terme du déploiement de véhicules autonomes devrait surtout permettre de précariser plus encore la profession. Si demain les chauffeurs n’ont rien à faire en cabine ou s’ils pilotent des camions à distance, ce sont des gens moins expérimentés que l’on pourra embaucher pour cela. La seule promesse de l’automatisation reste toujours d’améliorer les gains de productivité.
Enfin, rappelle la chercheuse, l’ironie de l’automatisation ne doit pas oublier le paradoxe qu’elle génère : les compétences se détériorent lorsqu’elles ne sont pas utilisées, tout le contraire de ce qu’on attend de l’humain face à la machine. Les humains sont très mauvais à devoir rester attentifs sans agir : « si vous construisez des véhicules où les conducteurs sont rarement obligés de prendre les commandes, alors ils répondront encore plus rarement encore lorsqu’ils devront prendre les commandes ». Pour le dire autrement, enlever ce qui est facile à accomplir d’une tâche par l’automatisation peut rendre plus difficile l’accomplissement des tâches plus difficiles. Enfin, les promesses de l’autonomisation des véhicules tiennent surtout d’un fantasme. Il y a 10 ans, dans la Technology Review, Will Knight nous avertissait déjà que les voitures autonomes ne sont pas pour demain (j’en parlais là). 10 ans plus tard et malgré plus 100 milliards d’investissements, elles ne vont toujours nulle part, expliquait récemment Max Chafkin pour Bloomberg. Contrairement à ce qu’on nous a raconté, les humains sont de très bons conducteurs par rapport aux robots. Une voiture autonome panique devant un pigeon sur la route. Aucune démo en condition réelle ne s’est avérée concluante, pas même chez Tesla. Pour l’un des pontes du domaine, le sulfureux Anthony Levandowski, le pape de la voiture autonome : “Vous auriez du mal à trouver une autre industrie qui a investi autant de dollars dans la R&D et qui a livré si peu”. La voiture du futur est dans l’impasse. Comme le dit Paris Marx dans son livre, Road to Nowhere (Verso, 2022, non traduit), ou dans d’excellentes interviews, les échecs dans l’innovation dans le transport sont majeures. Voiture autonome, covoiturage, services de micromobilité, voiture électrique, hyperloop… n’ont rien transformés ! Karen Levy rappelle qu’en 2018, Uber a fini par fermer sa division qui travaillait sur le camion autonome. L’idée de créer des réseaux de véhicules sur des voies spécifiques conduit par des humains à distance a fait également long feu : Ford a fermé sa division quand après des essais, le constructeur a constaté qu’il perdait facilement le signal des camions rendant leur pilotage à distance impossible. Quel que soit l’angle par lequel on la prend, l’autonomisation demeure surtout une promesse qui n’engage que ceux qui souhaitent y croire.
En route vers l’hypersurveillance !Dans les années 60, Manfred Clynes et Nathan Kline ont lancé le terme et l’idée de cyborg, un hybride de robot et d’humain qui devait permettre aux corps de s’adapter aux contraintes du voyage spatial. L’idée était de modifier le corps humain pour qu’il s’adapte à des environnements hostiles. Plus qu’une modification ou même une augmentation des capacités par des systèmes qui se portent (wearables), l’avenir de l’automatisation semble résider bien plus dans une surveillance continue et de plus en plus intime des individus. Caméras, capteurs et habits viennent mesurer en continue les données biologiques des conducteurs pour évaluer leur niveau de stress ou de fatigue (les projets sont innombrables : comme ceux de SmartCap, Rear View Safety, Optalert, Maven Machines, Actigraph…). Outre ces outils, on voit fleurir aussi des caméras pointées vers le conducteur pour surveiller son regard et sa fatigue (Seeing Machine ou Netradyne). Il est probable que ces systèmes s’imposent rapidement, estime la chercheuse, via des obligations légales comme celles qui ont imposées les ELD, ou comme des fonctions additionnelles aux outils de gestion de flotte (à l’image des fonctions qui analyses les comportements de conduite chez Blue Tree Systems). Récemment, le National Transportation Safety Board américain, l’organisme de régulation du transport, a jugé que le système d’autopilote de Tesla n’était pas suffisant pour assurer l’engagement du conducteur et a suggéré de lui ajouter un système de surveillance du regard des conducteurs. L’Europe a exigé que des systèmes de surveillance des conducteurs soient installés dans tous les véhicules neufs vendus dès 2026 et une législation similaire est en discussion aux Etats-Unis. Le renforcement de la surveillance est en marche.
Ces machines ne serviront pas seulement à l’alerte, à la détection de la fatigue, mais également comme preuve en cas d’accident, et surtout comme outils pour renforcer encore l’intensification du travail et le contrôle de l’attention. Pour Karen Levy, nous sommes sur la pente glissante des technologies, dont le seul avenir consiste à entrer dans le cerveau des conducteurs pour vérifier qu’ils ne pensent pas à autre chose qu’à conduire ! « Il y a quelque chose de viscéralement agressif lié au micro-management permis par ces technologies ».
L’enjeu de l’IA dans le transport consiste surtout à pointer les faiblesses humaines, via une surveillance constante, intime, viscérale. Si la menace du remplacement des chauffeurs par des robots est lointaine, celle d’une « hybridation forcée », une invasion intime de la technique dans le travail et le corps des routiers, semble bien plus réaliste. « L’IA dans le transport aujourd’hui, ne vous fout pas dehors de la cabine, il envoie des textos à votre boss et à votre femme, envoie une lumière dans vos yeux et vous fout des coups de pieds au cul ». Les conducteurs sont toujours dans la cabine, mais avec des systèmes qui les surveillent, transformant la relation entre le travailleur et la machine en un ensemble conflictuel.
En fait, estime Levy, l’automatisation et la surveillance sont complémentaires. L’un ne se substitue pas à l’autre. « L’automatisation n’est pas la solution pour diminuer la surveillance », au contraire, elle la renforce. Les camions devraient continuer à être conduits par des humains pour longtemps, mais ceux-ci risquent d’être de plus en plus en conflit avec la technique, à défaut de pouvoir l’être avec leurs donneurs d’ordres. Avec la technique, quelques emplois disparaissent, d’autres s’améliorent, mais la plupart deviennent pire qu’ils n’étaient avant. La technologie a tendance à les rendre moins pénible, certes, mais bien plus intenses qu’ils n’étaient. Avec les outils numériques, le travailleur est surveillé d’une façon « plus intime et plus intrusive » qu’auparavant – à l’image de systèmes qui observent tout l’habitacle, et donc le comportement des autres passagers également. La techno surveille, harcèle et impose une responsabilité supplémentaire à ceux sur qui elle s’abat, qui doivent répondre de la moindre de leur défaillance que relèvent les indicateurs qui les monitorent. Certes, ces systèmes peuvent être déjoués. Même les systèmes qui surveillent la position du regard peuvent l’être avec des lunettes, mais ces détournements ne peuvent être que circonscrits.
A nouveau plus d’automatisation implique d’abord plus de surveillance. Reste que la grande question qui n’est jamais débattue est de savoir jusqu’où la surveillance doit aller ? Le storytelling de l’automatisation promet toujours que nous allons être libérés des tâches les plus ingrates pour nous concentrer sur les plus intéressantes. Mais ce n’est pas la réalité, rappelle la chercheuse. En réalité, les routiers font face à une double menace des technologies. La première, c’est leur déplacement, qui est plus lent et graduel que prévu, mais qui est bien réel, et ce déplacement est d’abord celui d’une précarisation qui prévoit qu’à terme n’importe qui pourra faire ce travail pour bien moins cher qu’aujourd’hui. De l’autre, c’est l’intensification de la surveillance, et avec elle, la dégradation de la qualité, de l’autonomie et de la dignité du travail.
De l’exécutabilité du travailDans Against Security (Princeton University Press, 2014, non traduit), le sociologue Harvey Molotch explique que trop souvent on impose des solutions top-down aux problèmes sociaux. Ces solutions sont basées sur comment certains pensent que le monde fonctionne. Trop souvent, « on efface les mécanismes tacites et les modes de contournements que les gens utilisent pour que les choses soient faites », explique-t-il. On impose un ordre apparent au détriment de l’ordre réel. En renforçant les règles par la surveillance numérique, on renforce cet ordre apparent, et on ignore les causes sociales, économiques et politiques des problèmes. Les dispositifs numériques introduits dans les camions supposent qu’on ne peut pas faire confiance aux conducteurs et que la seule solution consiste à limiter leur autonomie, plutôt que de la renforcer. Les dispositifs de surveillance n’ont rien changé à ce qui motive les routiers à contourner les règles, ils n’ont rien fait bouger des problèmes de l’industrie du transport, à savoir le manque de protections des travailleurs, les problèmes liés à la façon dont le paiement est structuré… Au mieux, ils empêchent quelques abus, mais il reste possible aux routiers et à leurs employeurs d’exploiter les limites des outils de surveillance – en renforçant encore et toujours la responsabilité des routiers. Pour Karen Levy, s’il y a des solutions aux problèmes du transport, elles ne sont pas technologiques. La technologie n’est qu’une façon superficielle de masquer un problème qui ne s’adresse jamais à ses causes profondes. L’enjeu devrait être bien plus de regarder la structuration économique du transport pour rendre sa décence au travail des routiers. Le premier enjeu pour mettre fin à ces « ateliers clandestins sur roue » consiste à payer les routiers pour leur travail, et non pas seulement pour les kilomètres qu’ils abattent, en prenant en compte et en payant les temps d’attente et de services. On en est loin. Les réponses technologiques semblent partout plus simples à déployer que les réponses sociales et économiques… et ce d’autant plus que les déploiement techniques ne remettent jamais en cause les infrastructures de pouvoir existantes, au contraire.
Karen Levy suggère qu’on pourrait utiliser les données produites par les systèmes de surveillance pour mieux adresser les problèmes, comme la question du temps de détention. Pour elle, nous devrions réorienter la collecte de données pour passer d’outils de contrôle individuels à des moyens de réforme collective, même si, rappelle-t-elle, assigner des chiffres ne créée pas d’une manière magique la volonté politique d’en adresser l’enjeu. Les preuves ne suffisent pas toujours, comme le disait très justement Mimi Onuoha en parlant de l’immense documentation existante sur le racisme et la discrimination. Sans accompagnement social, économique, culturel et légaux, les mesures ne produisent rien. « Si nous construisons des outils qui permettent aux patrons de surveiller l’activité des travailleurs, nous devrions les accompagner de protections légales renforcées pour ces travailleurs », explique très justement Karen Levy, et « nous soucier de leur intégration dans la culture du travail ». Or, cette culture n’est pas la même partout.
Une intéressante étude a montré que les routiers ne répondaient pas tous de la même manière à la publication de leurs performances mesurées par les systèmes. Dans les entreprises où la culture au travail est très individualiste, ces publications tendent à favoriser la compétition entre employés. Dans les entreprises où la culture du travail est plus collectiviste, ces performances ont l’effet opposé et poussent le collectif à limiter la compétition. Le but de la démonstration n’est pas de montrer que les entreprises devraient se défier des cultures du travail coopératives, que de montrer que les effets de la surveillance ne sont pas uniformes, qu’ils privilégient un mode de rapport au monde sur d’autres, une culture et une idéologie sur d’autres. Sévir sur la rupture des règles sans reconnaître que les travailleurs sont contraints de le faire, consiste seulement à les conduire à des situations intenables dont ils seront tenus pour seuls responsables. C’est un peu comme si finalement ce type de régulation technique n’avait pour but que d’absoudre le régulateur (le politique) et l’organisation (l’économique) pour faire peser toutes les contraintes sur le plus petit et plus faible maillon de la chaîne : l’individu. Au final, celui-ci n’a plus d’autres choix que d’enfreindre la règle de sa responsabilité, sous la pression de la loi, de la technique, de la chaîne économique. « La meilleure façon de penser au changement technologique n’est pas de se concentrer uniquement sur la technologie, mais de renforcer les institutions sociales et les relations qui l’entourent », conclut Levy. Certes. Mais dans la perspective d’une amélioration de la productivité sans limite, il est finalement plus simple pour toute la société, de renvoyer toutes les injonctions contradictoires et les responsabilités sur le dernier maillon de la chaîne de responsabilité. Au final, c’est au routier de gérer toutes les contradictions que la société lui impose. Et dans tous les cas, il perd !
*
La monographie de Karen Levy est une belle illustration des contradictions où s’enferme le monde du travail moderne. Elle montre que dans ces transformations, le travailleur n’a aucun levier sur les conséquences du développement du numérique au travail. Partout, le numérique réduit ses marges de manœuvre pour résister à l’intensification, pour garder de l’autonomie, pour limiter le contrôle et lutter contre la précarisation. Le travailleur est renvoyé à un conflit solitaire avec la machine, au détriment d’un conflit avec ceux qui les exploitent et les déploient et au détriment de toute collectivisation du conflit. Même le simple enjeu d’arriver à limiter le niveau de surveillance, pour qu’elle reste proportionnelle, est débordée par les capacités de la technique. Avec une surveillance qui vise à repousser les injonctions contradictoires entre le légal et l’économique sur les épaules des seuls individus plutôt qu’au niveau de la société, la technologie fait reculer la justice, et donc avec elle, notre possibilité même de faire société.
Hubert Guillaud
A propos du livre de Karen Levy, Data Driven, Truckers, Technology, and the new workplace surveillance, Princeton University Press, 2023.
-
10:30
Transitioning farming systems in mainland France: A geography of contrasts and change, 2010 to 2020
sur CybergeoIn light of the decarbonization objectives in agriculture, environmental preservation, and the resulting challenges of economic sustainability and food security, both European (Farm to Fork) and French policies are encouraging a profound transition within agri-food systems. Consequently, the transformation of agricultural production methods has become imperative. This article delineates the landscape of transitioning farms across mainland France. It relies on a categorization of farms that integrates their agricultural production methods (organic or conventional) and their product marketing approaches (short circuits or long channels), drawing on data from the 2010 and 2020 agricultural censuses. The analysis yields a detailed map (INSEE canton level) illustrating the evolution of transitional farming from 2010 to 2020, opening the way for discussion on the factors favoring the emergence of certain transition types over others. The outcome reveals a complex geography influenced by s...
-
10:30
Concilier croissance économique, durabilité environnementale et ambitions professionnelles : le dilemme des responsables municipaux en Chine
sur CybergeoAprès des décennies d'industrialisation et d'urbanisation accélérées, la Chine a pris le tournant du développement durable en définissant sa propre vision, qui met l'accent sur l'innovation technologique et la modernisation industrielle. Alors que les grandes métropoles bénéficient de ressources humaines, matérielles et financières considérables pour s'adapter à ce changement, les petites villes situées dans des régions reculées ne bénéficient pas des mêmes avantages. Comment les cadres des petites villes parviennent-ils à développer des projets de développement territoriaux conciliant des exigences contradictoires de productivité et de durabilité environnementale ? Cet article examine les stratégies menées par deux mandatures municipales successives à Xianju, une petite ville située dans une région enclavée de l'est de la Chine, au prisme des trois grands défis de l’urbanisation en Chine : l’injonction au productivisme, la décentralisation asymétrique et le déficit structurel des b...
-
10:30
Towards an annual urban settlement map in France at 10 m spatial resolution using a method for massive streams of Sentinel-2 data
sur CybergeoThe size of urban settlements is rapidly increasing worldwide. This sprawl triggers changes in land cover with the consumption of natural areas and affects ecosystems with important ecological, climate, and social transformations. Detecting, mapping, and monitoring the growth and spread of urban areas is therefore important for urban planning, risk analysis, human health, and biodiversity conservation. Satellite images have long been used to map human settlements. The availability of the Sentinel constellation (S2) allows the monitoring of urban sprawl over large areas (e.g., countries) and at high frequency (with possible monthly updates). This massive data stream allows the proposal of new types of urban products at a spatial resolution of 10 meters. In this context, we developed a fully automated and supervised processing chain (URBA-OPT) using open-source libraries and optimized for rapid calculation on high-performance computing clusters. This processing chain has been applied ...
-
10:30
L’artificialisation des sols dans la presse française. Évolution (1982-mars 2024) et disparités spatiales : d’une notion floue à un objet juridique aux représentations multiples
sur CybergeoL’artificialisation des sols, objet sociotechnique à la définition floue, est devenue un objet juridique à travers une succession de dispositifs législatifs dont la loi Climat et Résilience de 2021. Après une rétrospective sur la formalisation de cette notion depuis 1982, une analyse de la presse française révèle que le nombre d’articles en rapport est en forte augmentation et que les registres lexicaux correspondent à des représentations protéiformes incluant notamment le changement climatique, la biodiversité, la gouvernance ou les projets urbains. La presse nationale et régionale produit et diffuse des informations d’ordre juridique, environnemental, sociétal et conflictuel sur ce paradigme désormais affirmé de l’urbanisme. Les lieux cités dans la presse du Nord de la France tend à démontrer que l’artificialisation des sols est employée à la fois dans les centres urbains les plus importants, leurs périphéries et les zones moins denses et plus agricoles, notamment lors de risques ...
-
10:30
Les gratuités des transports collectifs : quels impacts sur les politiques de mobilité ?
sur CybergeoLa gratuité des transports urbains fait partie du paysage français. Elle concerne des réseaux de taille variée, selon des modalités de mise en œuvre différentes, au point où il semble plus pertinent de parler de gratuités des transports au pluriel. Ces gratuités alimentent de nombreux débats ayant trait à la soutenabilité financière de telles mesures et à leur potentielle incidence sur la capacité des autorités organisatrices des mobilités à poursuivre la mise en œuvre de politique des mobilités durables. L’instauration de la gratuité d’un réseau de transports publics semble être perçue comme un frein à la poursuite du développement d’un réseau de transports collectifs en raison d’une baisse des moyens financiers des autorités organisatrices des mobilités. Cet article propose une analyse des conséquences des mesures de gratuité sur les politiques publiques locales de mobilité. En s’appuyant sur trois exemples de réseaux urbains passés à la gratuité durant les quatre dernières années...
-
10:30
Les territoires en déprise, espaces privilégiés de l’accueil d’exilés ? Une analyse des dynamiques du dispositif Asile et intégration dans la région Auvergne-Rhône-Alpes
sur CybergeoCet article porte sur l’hébergement des demandeurs d’asile dans la région Auvergne-Rhône-Alpes et questionne la part des espaces en déprise dans l’accueil de ces personnes. Il analyse la répartition du parc d’hébergement qui leur est dédié dans le cadre du dispositif national français Asile et intégration, à l’aide d’une base de données inédite fournie par la Direction régionale de l’économie, de l’emploi, du travail et des solidarités Auvergne-Rhône-Alpes en 2023. Cette étude est complétée par des entretiens semi-directifs avec des responsables de centre d’accueil. L’analyse à l’échelon fin de la commune permet de faire ressortir plusieurs points. D’une part, la dynamique de dispersion du parc Asile et intégration se poursuit entre 2017 et 2022, mais tend désormais à privilégier les agglomérations urbaines au détriment des espaces ruraux et les petites villes. D’autre part, on observe une tendance à un rééquilibrage territorial du parc d’hébergement des communes en déprise vers des...
-
10:30
Delineating African cities (large urban regions) to compare them within global urban networks
sur CybergeoAn important issue for Africa is evaluating cities' capacities to leverage global networks effectively to foster local development. However, this evaluation is complicated by the absence of a unified framework and criteria, making it difficult to compare African cities to both each other and with cities around the world. The first step, therefore, is to establish a basis for comparing African cities. In this paper, we address the challenges of defining urban boundaries for cities across Africa's 54 countries. We outline our methodology and present the results of adapting the concept of Large Urban Regions (LURs) (Rozenblat, 2020), which encompass regional urbanized areas surrounding the main African cities. In total, we delineated 304 African Large Urban Regions, covering 5,522 Local Administrative Units (LAU). This delineation of LURs enables African urban areas to be comparable with others worldwide and paves the way for evaluating their integration into global urban networks, esp...
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...
-
10:30
Digital twins: a territorial mediation to watch
sur CybergeoDigital technological solutions, supposedly turnkey and always effective, are regularly offered to cities. They can however attract many criticisms: for example, if they are "smart cities" - which work with difficulty when they clash with the diversity of urban forms and functions (Caruso, Pumain & Thomas, 2023); or if it is the concept of "mobility-as-a-service" that induces unanticipated effects on accessibility equity (Pangbourne et al., 2020); or "city dashboards" that ultimately offer only a very limited view of urban processes and raise ethical issues (Kitchin & McCardle, 2017). In this vein, it is the concept of Digital Twin that becomes the most fashionable for cities and territories. Would this new instrument be more convincing?
In the strict sense, the digital twin of a system is a computerized representation that simulates its internal processes and interacts with it in real time by two-way coupling (Batty, 2018). When it applies to the city, the practical meaning of the c...
-
10:30
Les jumeaux numériques : une médiation territoriale à surveiller
sur CybergeoDes solutions technologiques numériques, supposées clé-en-main et toujours efficaces sont régulièrement proposées aux villes. Pourtant, elles s’attirent maintes critiques : par exemple si ce sont des “smart cities” - qui fonctionnent difficilement quand elles se heurtent à la diversité des formes et fonctions urbaines (Caruso, Pumain & Thomas, 2023) ; ou s’il s’agit du concept de “mobility-as-a-service” qui induit des effets non anticipés sur l’équité d’accessibilité (Pangbourne et al., 2020) ; ou encore des “city dashboards” qui n’offrent finalement qu’une vue très limitée des processus urbains et qui soulèvent des enjeux éthiques (Kitchin & McArdle, 2017). Dans cette veine, c’est le concept de Jumeau Numérique qui devient le plus à la mode pour les villes et les territoires. Ce nouvel instrument serait-il plus probant ?
Au sens strict, le jumeau numérique d’un système est une représentation informatisée qui simule ses processus internes et interagit avec celui-ci en temps réel par ...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
9:27
Le SIG au cœur du nouveau dispositif?de traitement des alertes
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLes Services d’Incendie et de Secours sont fortement sollicités pour des missions de sécurité civile et de gestion des risques. Ces derniers mois l’activité des services carto et SIG a été dense, notamment avec le déploiement de NexSIS ou leur mobilisation autour d’événements majeurs comme les JO. Enfin, ils sont toujours prêts à décaler pour suivre une nouvelle technologique. Enquête réalisée par Michel Bernard.
Retrouvez la suite de cette enquête dans le magazine SIGMAG N°43
-
7:30
Comment les IA sont-elles corrigées ?
sur Dans les algorithmesOpenAI vient de publier un document qui entr’ouvre ses méthodologies de contrôle éthique. Le document en question vise surtout à mettre en avant le fait que ses derniers modèles sont plus performants que les plus anciens, mais ce n’est pas là l’information la plus intéressante de l’article. On y découvre surtout la liste des procédures qu’OpenAI applique à ses modèles pour les évaluer.
Si les modalités de ces évaluations ne sont pas détaillées, cette liste nous montre que l’entreprise produit plusieurs indicateurs pour tenter de mesurer les biais des réponses de ces modèles, afin d’évaluer par exemple si le modèle à tendance à générer du contenu non autorisé. Ainsi en matière d’évaluation de contenus non autorisés, OpenAI évalue ses modèles pour savoir quel est leur taux de réponse à des demandes préjudiciables, en principe limitées, comme le fait de donner des conseils médicaux, juridiques ou criminels. L’entreprise calcule également le taux de refus de réponses et des réactions à des grappes d’actions spécifiques. Les modèles sont également évalués pour connaître leur résistance aux jailbreaks connus ou encore sur la régurgitation des données d’entraînements, ou encore sur leur capacité à halluciner… Il y a également une évaluation sur l’équité et les biais, depuis des invites pour poser des questions en modifiant l’âge, l’origine ethnique ou le genre du locuteur, afin de voir si le modèle fait des réponses différentes. Il y a même une mesure de la « surveillance de la tromperie », consistant à évaluer quand les « modèles fournissent sciemment des informations incorrectes à un utilisateur, ou en omettant des informations cruciales qui pourraient les amener à avoir une fausse croyance ». Enfin, OpenAI travaille avec des équipes externes qui ont pour mission de trouver d’autres lacunes et de briser ses mesures de sécurité – ce qu’on appelle le red teaming.
Cependant, comme le souligne le chercheur Gabriel Nicholas pour Foreign Policy, la difficulté pour les équipes chargées du red teaming reste d’accéder à l’information. Si les entreprises d’IA mettent plus facilement leurs produits à la disposition des chercheurs, aucune ne partage de données sur la façon dont les gens utilisent leurs produits. Il est donc difficile de savoir à l’encontre de quels préjudices les chercheurs devraient orienter leurs contre-mesures. Les chercheurs n’ont également aucun moyen d’évaluer l’efficacité avec laquelle les entreprises appliquent leurs propres politiques. Ainsi, OpenAI peut interdire l’utilisation de son programme GPT-4 pour des conseils juridiques, des décisions d’embauche ou pour mener une campagne politique, mais le public n’a aucun moyen de savoir à quelle fréquence l’entreprise réussit – ou même essaie – de bloquer de telles tentatives. Non seulement les entreprises d’IA ne partagent pas les données d’entraînement de leurs modèles, mais elles ne partagent pas non plus de données sur la manière dont les gens utilisent leurs modèles, ou comment elles produisent leurs indicateurs spécifiques ou construisent les barrières morales de leurs modèles (comme l’auto-censure sur certains sujets), comme le montre l’index de transparence des modèles de fondation.
L’accès aux données demeure à nouveau crucial. Le grand problème pour le régulateur consiste à accéder à de l’information fiable sur comment les modèles sont utilisés et comment ils sont corrigés sont deux enjeux forts pour améliorer le contrôle.
*
Quant aux nouveaux modèles o1 d’OpenAI, The Atlantic explique assez bien qu’ils ne sont pas tant capables de raisonner ou de réfléchir comme on l’entend partout (en reprenant les éléments de langage d’OpenAI), que capables de tester en parallèle des milliers de réponses pour les améliorer. Encore une fois, le but est de faire un progrès par force brute et par puissance de calcul. Bien évidemment, ces nouveaux modèles se révèlent encore plus gourmands en énergie que les précédents… Mais l’alerte sur les limites écologiques ne semble pour l’instant dissuader personne à les produire ou les utiliser.
-
7:30
La pseudo-ouverture, condition de domination
sur Dans les algorithmesNous avions déjà souligné la difficulté à qualifier d’ouverts des systèmes d’IA qui ne le sont pas vraiment. Dans Nature, David Widder, Meredith Whittaker et Sarah Myers West enfoncent le clou : à mesure que tout le monde parle d’ouverture de l’IA, force est de constater qu’elle se réalise de moins en moins.
En fait, la rhétorique sur l’IA open source a été largement construite par les entreprises d’IA elles-mêmes, comme un moyen pour s’exempter des contraintes réglementaires, alors même que le flou de ce que recouvre l’IA vient perturber la notion d’ouverture. En fait, on projette des conceptions conventionnelles du libre et de l’open source sur des systèmes d’IA dont la complexité nécessiterait des redéfinitions de l’ouverture. Or, rappellent les chercheurs, l’open source logicielle ne désigne pas seulement des modèles réutilisables, mais d’abord des écosystèmes pour créer de la domination de diverses manières, que ce soit pour s’opposer aux concurrents privés, pour obtenir l’hégémonie sur des marchés voire capitaliser et intégrer des idées développées à l’extérieur sans avoir bourse à délier.Mais l’ouverture dans le domaine de l’IA n’est pas de même niveau ni ne porte les mêmes enjeux que dans le monde du logiciel libre. Elle n’est pas qu’une question d’accès à des interfaces de programmation ou à des données d’entraînements. Et surtout, l’accès aux grands modèles dits ouverts, ne crée pas une perturbation des caractéristiques du marché, mais renforce les grands acteurs. Dans la pratique, l’ouverture n’offre parfois guère plus qu’un accès à des API ou à un modèle qui porte de nombreuses restrictions d’utilisation. Dans ces cas-là, nous sommes clairement dans de l’openwashing. Les grands modèles d’IA pseudo-ouverts « façonnent toutes les trajectoires et les conditions » de ce qui peut être construit à partir d’eux.
Contrairement au monde du logiciel libre, l’IA dite ouverte ne change pas les conditions de concurrence. Au contraire. Les conditions d’accès aux marchés restent contraintes et limitées. Même des acteurs avec du capital ne peuvent les atteindre sans s’associer aux seigneurs de l’IA, à l’image de Mistral contraint de s’associer à Microsoft.
En réalité, les modèles d’IA n’ont d’ouvert que le nom. Ils ne documentent pas leurs données de formation, publient peu de résultats et encore moins depuis des processus d’évaluation scientifique. Les modèles sont mêmes devenus si concurrentiel et si vastes, que désormais, la taille des données d’entraînement mobilisées n’est même plus indiquée. En fait, les données sont bien souvent « l’élément fermé des offres d’IA qui se présentent comme ouvertes ». Leur production extractiviste et colonialiste interroge. « Lorsque les ensembles de données ne sont pas mis à disposition pour examen, ou lorsqu’ils sont d’une taille insondable, il devient très difficile de vérifier si ces ensembles de données blanchissent la propriété intellectuelle d’autrui ou utilisent commercialement des données qui ne devraient pas l’être ». Ces systèmes reposent fondamentalement sur l’exploitation du travail d’autrui, que ce soit par les données qu’ils exploitent, pour étiqueter, produire et classer les données, pour étalonner les modèles, pour la modération comme pour la maintenance. Autant de domaines sur lesquels, l’ouverture et l’information sont inexistantes, autrement que via le travail de journalistes, de travailleurs ou de chercheurs, dont les travaux seuls permettent de comprendre les limites des systèmes.
Enfin, l’économie de l’IA repose aussi sur des cadres de développement interopérables et des développements open sources populaires qui vont servir à la construction des modèles et à leurs interconnexion, depuis des méthodes et pratiques standardisées. Ce sont notamment PyTorch et TensorFlow, tous deux créés au sein de grandes entreprises technologiques commerciales, Meta et Google. Ils permettent notamment à Meta et à Google et à ceux qui pilotent le développement de ces cadres de normaliser la construction de l’IA, et de rendre les résultats compatibles avec leurs propres plateformes d’entreprise, « garantissant que leur cadre conduit les développeurs à créer des systèmes d’IA qui, comme des Lego, s’emboîtent dans leurs propres systèmes d’entreprise ». Ces cadres de développement ne sont pas que des cadres de standardisation, ils permettent de créer « des rampes d’accès » vers d’autres services, notamment les offres de calcul en nuage et l’intégration aux autres outils logiciels. « L’entreprise qui propose ces cadres obtient un pouvoir indirect substantiel au sein de l’écosystème », puisque cette standardisation lui permet de former les développeurs et les chercheurs et donc à terme lui permet de capturer les développements de l’IA. Enfin, l’accès à la puissance de calcul pour développer les modèles est on ne peut plus restreinte et très largement propriétaire.
Pour les chercheurs, l’IA dépend de quelques très grands acteurs qui contrôlent l’industrie. Contrairement à son apport dans le monde logiciel, l’ouverture de l’IA, elle, repose sur un ensemble de couches plus complexes, dont les modalités d’ouverture et de transparence minimales ne sont pas construites. L’ouverture ne conduira pas à elle seule à produire un écosystème plus diversifié, responsable ou démocratique. Pour l’instant, les grandes entreprises utilisent l’avantage que leur procure la pseudo-ouverture qu’elles proclament pour éloigner les réglementations qui les menacent, notamment les accusations de produire des monopoles.
En vérité, l’IA est d’abord contrôlée de bout en bout par quelques acteurs géants. La transparence, la documentation sont bien sûr précieux pour améliorer la responsabilisation des acteurs et leur contrôle, mais pour l’instant nous sommes surtout confrontés à des systèmes opaques qui concentrent le pouvoir bien plus qu’ils ne le disséminent. Mobiliser pour élargir l’ouverture des modèles, seule, ne sera probablement pas très bénéfique, notamment parce qu’elle ne suffit pas à renverser la concentration du pouvoir à l’œuvre. Derrière l’ouverture, l’enjeu n’est pas seulement de rendre les modèles réutilisables, ou plus transparents, mais de lutter contre l’accaparement de toutes les formes de production de calcul par quelques entités. Et pour cela, l’ouverture ne suffit pas.
-
8:44
Un GIS Day très tech
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatique« Le partage de l’information et la collaboration » étaient les angles donnés à cette 25e édition du GIS Day. En Romandie s’ajoute, tous les deux ans maintenant, une belle touche de convivialité. Les utilisateurs d’ArcGIS se retrouvent pour un après-midi à Nyon, en présence des nouveaux dirigeants d’Esri Suisse. Ils sont spécialement venus de Zurich pour féliciter et remettre aux géomaticiens de la ville de Genève (photo) le SAG Award Suisse : « une récompense pour le travail remarquable effectué avec le SIG grâce au déploiement d’une plate-forme moderne et inclusive ». Une partie de l’équipe de Philippe Chessel présentait ce travail utilisé chaque jour par environ 400 collaborateurs ; des outils et services SIG, dont 100 web apps comme le « Geoportail ville ».
Trois présentations suivaient, dont deux sur d’intéressants sujets, plus « techniques » qu’à l’accoutumée. Nicolas Reinhard dévoilait les tableaux de bord installés au Canton de Fribourg pour gérer 2.800 objets en base de données. Didier Gabin (Quadrane) détaillait l’observatoire du commerce du canton de Genève et ses outils d’analyse et de décision. Enfin, Clarisse Aubert concluait avec les outils StoryMap et l’application de collecte mise à disposition du grand public pour mieux identifier la biodiversité du complexe scientifique du Cern. Buffet, gâteau et vin suisse concluaient cet agréable moment de réseautage.
+ d'infos :
esri.ch
-
7:30
Teratologie machinique
sur Dans les algorithmesDe prime abord, à en croire son titre – Persistance du merveilleux : le petit peuple de nos machines (Premier Parallèle, 2024) – le nouveau livre du sociologue et anthropologue Nicolas Nova promet une exploration enchantée de nos machines. On s’attend à lire des récits curieux de nos rapports à nos machines, une balade savante à la manière des encyclopédies de l’elficologue Pierre Dubois, pour nous présenter on ne sait quelle magie qui peuplerait nos machines, pour nous proposer une improbable typologie, comme il le faisait dans Smartphones (2020), capable de jouer du décalage entre nos activités numériques ordinaires et les symboles dont nos rapports médiatisés sont chargés. On s’attendrait à une forme de complément ou de de contre-point au sombre Bestiaire de l’anthropocène que le prolifique chercheur a publié l’année dernière (avec le collectif Disnovation – et qui vient d’ailleurs de paraître en français) cet atlas de créatures étranges, hybrides, allant des chiens-robots au gazon artificiel, qui interrogeait le monde post-naturel dans lequel nous vivons. Il n’en est rien. Persistance du merveilleux est un titre trompeur ou un chemin de traverse. Il n’y a aucune bonne fée, aucun lutin gentil dans nos machines, bien peu d’enchantement finalement. Aucune féérie. Nicolas Nova s’intéresse surtout aux monstruosités qui naissent de nos machines et des rapports que nous avons avec elles. Persistance du merveilleux tient bien plus d’une tératologie machinique que d’une légende dorée.
Ménagerie numériqueLa ménagerie numérique que le chercheur convoque tient beaucoup de la rencontre entre deux fonctionnements différents : celui des machines et celui des utilisateurs. Comme si l’étrangeté du comportement de nos machines produisait nécessairement de la friction. Comme si l’utilisateur était toujours renvoyé à une relation conflictuelle avec des systèmes qu’il ne maîtrise pas, qui ne se comportent pas dans une langue ou une grammaire qu’il peut vraiment comprendre.
Dans la typologie de notre rapport compliqué aux machines qu’il tente de dresser, l’anthropologue distingue d’abord, les « démons », ces petits programmes qui effectuent les tâches nécessaires au bon fonctionnement de nos outils et qui se rendent visibles dès qu’ils dysfonctionnent. Ces programmes qui roulent en tâche de fond, qui assurent des mises à jour, qui détectent ce qui doit l’être… Des programmes souvent rudimentaires, dont nous n’avons pas conscience, qui agissent sans qu’on ait besoin de les lancer, comme autant de concierges qui feraient très bien leur métier… jusqu’à ce que ce ne soit plus le cas. Car la ménagerie numérique, à l’image du bug, se révèle surtout quand elle ne fonctionne pas telle qu’elle le devrait, quand elle n’agit plus de manière coordonnée, telle qu’elle a été programmée. Comme si ce bestiaire de monstres naissait de notre interprétation lacunaire des défaillances de la programmation. C’est pourtant quand les programmes défaillent que les monstres se libèrent, qu’ils se révèlent pour ce qu’ils sont : des programmes simplistes, intrusifs et infantilisants, des programmes qui relèvent leurs comportements excessifs, à l’image de l’infernal Clippy de Microsoft. C’est la manière même dont ces programmes sont programmés qui nous tourmente. C’est parce qu’ils ont un comportement très différent du nôtre qu’ils nous harcèlent, nous obsèdent, nous persécutent.
D’autres créatures nous tourmentent encore. Nova distingue par exemple les fantômes, des choses qui s’enregistrent et qui subsistent, qui réapparaissent à l’occasion, comme des « traces agissantes », à l’image d’appels en provenance d’individus décédés, d’enregistrements de joueurs dans un jeu, de personnages non joueurs aux comportements erratiques, de fichiers qui réapparaissent alors qu’on les a effacés… Nova rappelle le caractère spectrale des premières machines à communiquer comme la radio ou le téléphone. Grésillements, écrans qui se figent, comportements irréguliers… Ici, c’est aussi nous, utilisateurs, qui faisons apparaître ces fantômes, qui créons des légendes qui se propagent comme pour donner une épaisseur qui les dépasse à nos technologies, comme pour révéler le mystère qui les entoure, le personnifier, l’incarner, donner de l’épaisseur à notre relation aux machines. Là encore, ces traces que nous ne maîtrisons pas soulignent le « caractère envahissant lié à la complexité de nos artefacts », qu’il nous faut interpréter, auquel nous sommes sommés de donner sens.
Une autre catégorie du bestiaire est celle des virus, malware et autres trolls, à savoir les créatures numériques qui ne naissent pas tant des machines ou de notre rapport avec elles que des comportements des autres utilisateurs, eux-mêmes parfois malfaisants, et dont la malfaisance passe désormais par les machines pour nous toucher. Alors que ces attaques sont souvent volontaires, c’est la fatalité qui est ici souvent convoquée. Le virus comme le troll nous replacent dans une relation subie avec nos machines, face auxquelles nous ne pourrions nous immuniser. Nous sommes confrontés à des attaques inévitables, face auxquelles nous ne pouvons être que désarmés, à l’image du troll, celui qui vient perturber les discussions, mais dont on ne peut endiguer la présence. Ou encore bien sûr, le bug, le pur dysfonctionnement.
Enfin, l’anthropologue distingue encore toute une série d’espèces compagnes, avec lesquelles nous apprenons à interagir ou faire semblant, comme les Personnages non joueurs des jeux vidéo ou les agents conversationnels avec qui nous devons interagir, malgré leurs limites à s’exprimer. Là encore, nous tissons des relations avec des programmes, avec des êtres qui produisent « des effets de personnes », avec lesquelles nous devons créer des sociabilités nouvelles, mi-machiniques mi-humaines. Machines parlantes. Machines qui semblent avoir des comportements humains ou plutôt qui nous le font croire. Simulateurs de relations. L’anthropologue parle assez justement d’une « avatarisation généralisée » (l’expression est d’Etienne Amato et Etienne Perény) où tout semble anthropomorphisé pour mieux nous subvertir, pour mieux jouer de notre propre état mental et émotionnel. C’est parfois nous-mêmes qui nous incarnons à l’écran, entre substitution et sublimation, comme disait Antonio Casilli. Cernés par des « compagnons programmés » qui déploient un pouvoir de suggestion et d’immersion, souvent imparfaits, mais qui nous submergent parce qu’ils parviennent, malgré leur caractère frustre, à singer nos modes relationnels et à susciter en nous des émotions. Les PNJ avec lesquels nous interagissons facilitent notre investissement affectif. C’est nous qui sommes joués de ces outils souvent simplistes. C’est nous qui sommes hallucinés, c’est nous qui croyons en leurs effets, qui sommes bluffés affectivement, manipulés. Comme si les PNJ finalement étaient le grand-père des IA génératives avec lesquelles nous discutons, ancêtres de relations sociales sans société, simulées. Des relations avatarisées et scriptées, appauvries oui, car créées pour nous duper. Avec le risque que ces modalités « appauvrissent les situations relationnelles ou les rendent plus homogènes », qu’elles produisent une forme commerciale des relations affectives : des monstres relationnels. C’est avec cette dernière catégorie des montres de l’IA que se clôt le bestiaire moderne de Nicolas Nova. Des IA conversationnelles (les perroquets) au maximiseur de trombones, nous sommes confrontés à des êtres difficiles à appréhender. Nous avons du mal à comprendre leur puissance comme leurs limites. C’est nous mêmes qui semblons perdus, désarçonnés par ces entités « gargantuesques » que peuvent être ChatGPT et ses clones. Les IA incarnent de nouveaux monstres, encore plus étranges que tous ceux qui peuplent déjà cette vallée de l’étrange, encore plus étranges que leurs productions mêmes, que ce soit ces images si brillantes et si moyennes que ces textes, si écrits et si vides.
Persistance du monstrueuxComme toujours avec les textes de Nicolas Nova, il faut se préparer à être décalé, à devoir prendre la tangente. L’anthropologue s’amuse autant des mèmes qui renforcent son bestiaire, que des petites histoires des utilisateurs qu’il mêle à une archéologie étymologique qui montre que les noms des créatures magiques, eux aussi, tiennent bien moins d’une longue lignée du merveilleux que de réinventions. Nova souligne très bien la dimension narrative forte de ce bestiaire, de ses effets, de leurs enjeux, construisant des imaginaires fonctionnels, qui nécessitent de prendre des mesures adaptées comme de s’en protéger. Tout ce bestiaire révèle surtout la plaie que représente encore l’informatique pour l’utilisateur. Ces monstres finalement sont autant de marqueurs du fait que l’utilisateur ne maîtrise pas le processus qu’il utilise, que celui-ci le dépasse, que la machine le dépasse. Finalement, l’intentionnalité qu’on prête aux machines est surtout le reflet de notre dépossession. Nova ne décrit pas tant un monde merveilleux, qu’une inquiétude sourde, un monde avec lequel nous sommes peu ou prou en conflit, comme si la complexité nous submergeait toujours. « Sans diminuer l’importance de toutes ces menaces, il semble néanmoins important de constater que la difficulté à comprendre et expliquer le mode opératoire de toute cette ménagerie ainsi que le degré de sophistication technique générale dans lequel elles opèrent contribuent à les nimber d’une aura légendaire ».
Pour Nova, ces récits fonctionnent comme des avertissements sur nos limites à comprendre les machines comme sur ce qu’elles font vraiment. Leurs manifestations signalent d’abord le désordre, nous montrent que ce monde ne marche pas si bien. Dans son petit livre, Nicolas Nova dresse bien surtout une tératologie des machines qu’il nous faut affronter pour être humains. Prouver que l’on est humain, n’est pas qu’une case à cocher sur un captcha, c’est désormais apprendre à interagir avec ces entités, apprendre à vivre avec ce folklore que nous avons participé à bâtir. Très justement, il conclut en pointant que ce bestiaire n’est pas tant une survivance d’un folklore que sa réappropriation pour nous aider comprendre des modes de relations nouveaux avec des entités qui ne sont pas humaines. Comme si nous avions à construire une diplomatie nouvelle avec nos machines, comme dirait le philosophe Baptiste Morizot. Sauf qu’ici, nous ne sommes pas beaucoup maîtres des règles relationnelles, mais nous devons apprendre à construire cette géopolitique des relations. Nous sommes plongés dans un milieu où ne se déploient pas que des êtres imaginaires d’ailleurs, mais avec eux, des relations, des comportements, des politiques, des logiques idéologiques qu’ils incarnent et orientent. Nova le dit. Ces métaphores monstrueuses ne sont pas que la marque d’une méconnaissance ou d’une persistance d’un imaginaire (le cheval de Troie n’a pas grand chose à voir avec l’histoire d’Homère), mais bien le reflet d’une « relation asymétrique entre concepteurs et utilisateurs ». Le bestiaire auquel nous sommes confrontés tient bien plus d’un portrait de Dorian Gray que du petit peuple des bois. Il est l’envers de la magie dont se pare trop souvent la technologie. Nos métaphores « structurent ce que nous percevons ». Elles embarquent avec elles « un point de vue sur le monde ». Cette ménagerie de monstres ne révèle rien d’autre finalement que l’assujettissement où nous tiennent ceux qui produisent les machines. Nos monstres sont les leurs que nous tentons de dompter et d’apprivoiser.
Couverture du livre Persistance du merveilleux de Nicolas Nova. -
7:45
Surveiller et sauver
sur Dans les algorithmesAux Etats-Unis, nombre d’ordinateurs fournis aux élèves sont désormais sous surveillance. Ils sont non seulement bardés de filtres pour les empêcher d’accéder à certains sites, mais aussi de plus en plus bardés de mouchards qui surveillent ce qu’ils y écrivent, rapporte un reportage glaçant du New York Times. Quand les élèves tapent des mots liés au suicide, des alertes sont désormais déclenchées et conduisent au déplacement de policiers jusqu’aux domiciles des élèves pour procéder à des vérifications.
Pour Laura Erickson-Schroth, directrice d’une organisation sur la prévention du suicide, il est pour l’instant impossible d’éclairer l’efficacité de ces filtrages automatisés, car ils ne sont accessibles qu’aux entreprises qui les ont créées et les interventions qu’aux responsables des districts scolaires. Certes, elles permettent parfois d’intervenir à des moments critiques, mais elles semblent aussi avoir des conséquences importantes à l’égard des élèves, même quand l’alerte se révèle infondée. Plusieurs parents ont déclaré que les alertes avaient incité les écoles à réagir de manière excessive, par exemple en arrêtant la scolarisation de certains d’entre eux, quand bien même ils étaient suivis psychologiquement par ailleurs. Pour les parents qui signent pourtant un accord d’intervention lors de la livraison du matériel, le fait que ce soit la police qui se déplace plutôt qu’un travailleur social interroge également.
Les alertes sont souvent reçues par un responsable de l’école qui doit les analyser et les trier. Les fausses alertes sont nombreuses, mais beaucoup de personnes impliquées dans ces chaînes ont tendance à penser que les faux négatifs ne sont pas graves s’ils permettent de sauver des jeunes en difficulté au moment où ils l’expriment. Alors que certains systèmes sont débranchés en-dehors des heures de cours ou pendant les vacances, nombres d’écoles s’y refusent, introduisant une surveillance omniprésente. Comme le souligne un élève, cette surveillance omniprésente ressemble certainement à l’avenir. Elle rappelle que la police de la pensée chère à Orwell ne s’impose pas pour affirmer une vérité, mais pour nous protéger.
-
7:30
Comment la surveillance renforce nos exigences
sur Dans les algorithmes« Est-ce que je surveille mon bébé parce que c’est utile ou simplement parce que c’est disponible ? » Kristen Radtke
-
7:30
L’IA générative, nouvelle couche d’exploitation du travail
sur Dans les algorithmes« Comme pour d’autres vagues d’automatisation, le potentiel supposé de l’IA générative à transformer notre façon de travailler a suscité un immense engouement ». Mais pour comprendre comment cette nouvelle vague va affecter le travail, il faut dépasser la dichotomie entre l’IA qui nous augmente et l’IA qui nous remplace, estiment les chercheuses de Data & Society Aiha Nguyen et Alexandra Mateescu dans un nouveau rapport sur l’IA générative et le travail. La rhétorique de l’IA générative répète qu’elle va améliorer l’efficacité du travail et automatiser les tâches fastidieuses, dans tous les secteurs, du service client aux diagnostics médicaux. En réalité, son impact sur le travail est plus ambivalent et beaucoup moins magique. Ce qu’elle affecte est bien l’organisation du travail. Et cette dichotomie ne propose aux travailleurs aucun choix autre que le renforcement de leur propre exploitation.
Le battage médiatique autour de l’IA générative permet de masquer que l’essentiel de ses applications ne seront pas récréatives, mais auront d’abord un impact sur le travail. Il permet également d’exagérer sa capacité à reproduire les connaissances et expertises des travailleurs, tout en minimisant ses limites, notamment le fait que l’intelligence artificielle soit d’abord un outil d’exploitation des zones grises du droit. Mais surtout, l’IA nous fait considérer que le travail humain se réduit à des données, alors même que l’IA est très dépendante du travail humain. Or, pour le développement de ces systèmes, ce n’est plus seulement la propriété intellectuelle qui est exploitée sans consentement, mais également les données que produisent les travailleurs dans le cadre de leur travail. Dans les centres d’appels par exemple, les données conversationnelles des opérateurs sont utilisées pour créer des IA conversationnelles, sans que les travailleurs ne soient rémunérés en plus de leur travail pour cette nouvelle exploitation. Même problème pour les auteurs dont les éditeurs choisissent de céder l’exploitation de contenus à des systèmes d’IA générative. Pour l’instant, pour contester « la marchandisation non rémunérée de leur travail », les travailleurs ont peu de recours, alors que cette nouvelle couche d’exploitation pourrait avoir des conséquences à long terme puisqu’elle vise également à substituer leur travail par des outils, à l’image de la prolifération de mannequins virtuels dans le monde de la mode. Il y a eu dans certains secteurs quelques avancées, par exemple l’association américaine des voix d’acteurs a plaidé pour imposer le consentement des acteurs pour l’utilisation de leur image ou de leur voix pour l’IA, avec des limites de durée d’exploitation et des revenus afférents. Reste, rappellent les chercheuses que « les asymétries majeures de pouvoir et d’information entre les industries et les travailleurs restent symptomatiques » et nécessitent de nouveaux types de droits et de protection du travail.Dans les lieux de travail, l’IA apparaît souvent de manière anodine, en étant peu à peu intégrée à des applications de travail existantes. Dans la pratique, l’automatisation remplace rarement les travailleurs, elle automatise très partiellement certaines tâches spécifiques et surtout reconfigure la façon dont les humains travaillent aux côtés des machines. Les résultats de l’IA générative nécessitent souvent beaucoup de retravail pour être exploitées. Des rédacteurs sont désormais embauchés pour réhumaniser les textes synthétiques, mais en étant moins payé que s’ils l’avaient écrit par eux-même sous prétexte qu’ils apportent moins de valeur. Les chatbots ressemblent de plus en plus aux véhicules autonomes, avec leurs centres de commandes à distance où des humains peuvent reprendre les commandes si nécessaire, et invisibilisent les effectifs pléthoriques qui leur apprennent à parler et corrigent leurs discours. La dévalorisation des humains derrière l’IA occultent bien souvent l’étendue des collaborations nécessaires à leur bon fonctionnement.
Trop souvent, l’utilisation de l’IA générative génère des simplifications problématiques. En 2023, par exemple, la National Eating Disorders Association a licencié son personnel responsable de l’assistance en ligne pour le remplacer par un chatbot qu’elle a rapidement suspendu après que celui-ci ait dit aux personnes demandant de l’aide… de perdre du poids. De même, l’utilisation croissante d’outils de traduction automatiques plutôt que d’interprètes humains dans le système d’immigration américain pour accomplir des demandes d’asiles a conduit à des refus du fait d’erreurs de traduction manifestes, comme des noms transformés en mois de l’année, des délais incorrectes. Si la traduction automatique permet de réduire les coûts, elle est trop souvent utilisée dans des situations complexes et à enjeux élevés, où elle n’est pas pertinente. Enfin, rappellent les chercheuses, l’IA générative vient souvent remplacer certains profils plus que d’autres, notamment les postes juniors ou débutants, au détriment de l’a formation l’apprentissage de compétences essentielles… (sans compter que ces postes sont aussi ceux où l’on trouve le plus de femmes ou de personnes issues de la diversité.
Le recours à l’IA générative renforce également la surveillance et la datafication du lieu de travail, aggravant des décisions automatisées qui sont déjà très peu transparentes aux travailleurs. Automatisation de l’attribution des tâches, de l’évaluation des employés, de la prise de mesures disciplinaires… Non seulement le travail est de plus en plus exploité pour produire des automatisations, mais ces automatisations viennent contraindre l’activité de travail. Par exemple, dans le domaine des centres d’appels, l’IA générative surveille les conseillers pour produire des chatbots qui pourraient les remplacer, mais les réponses des employés sont également utilisées pour générer des scripts qui gèrent et régulent leurs interactions avec les clients, restreignant toujours plus leur autonomie dans des boucles de rétroaction sans fin.
En fait, présenter les chatbots et les déploiements d’IA générative comme des assistants plutôt que comme des contrôleurs occulte le renforcement de l’asymétrie de pouvoir à l’oeuvre, estiment très justement Aiha Nguyen et Alexandra Mateescu. Ce discours permet de distancier l’opacité et le renforcement du contrôle que le déploiement de l’IA opère. En fait, soulignent-elles, « l’évaluation critique de l’intégration de l’IA générative dans les lieux de travail devrait commencer par se demander ce qu’un outil particulier permet aux employeurs de faire et quelles incitations motivent son adoption au-delà des promesses d’augmentation de la productivité ». Dans nombre de secteurs, l’adoption de l’IA générative est bien souvent motivée dans une perspective de réduction des coûts ou des délais de productions. Elle se déploie activement dans les outils de planification de personnels dans le commerce de détail, la logistique ou la santé qui optimisent des pratiques de sous-effectifs ou d’externalisation permettant de maximiser les profits tout en dégradant les conditions de travail. Le remplacement par les machines diffuse et renforce partout l’idée que les employés sont devenus un élément jetable comme les autres.
Pour les chercheuses, nous devons trouver des modalités concrètes pour contrer l’impact néfaste de l’IA, qui comprend de nouvelles formes de contrôle, la dévaluation du travail, la déqualification, l’intensification du travail et une concurrence accrue entre travailleurs – sans oublier les questions liées à la rémunération, aux conditions de travail et à la sécurité de l’emploi. « Considérer l’IA générative uniquement sous l’angle de la créativité occulte la réalité des types de tâches et de connaissances qui sont automatisées ».
L’IA générative est souvent introduite pour accélérer la production et réduire les coûts. Et elle le fait en extrayant la valeur des travailleurs en collectant les données de leur travail et en les transférant à des machines et à des travailleurs moins coûteux qui vont surveiller les machines. A mesure que les travailleurs sont réduits à leurs données, nous devons réfléchir à comment étendre les droits et les protections aux données produites par le travail.
-
10:30
Les territoires en déprise, espaces privilégiés de l’accueil d’exilés ? Une analyse des dynamiques du dispositif Asile et intégration dans la région Auvergne-Rhône-Alpes
sur CybergeoCet article porte sur l’hébergement des demandeurs d’asile dans la région Auvergne-Rhône-Alpes et questionne la part des espaces en déprise dans l’accueil de ces personnes. Il analyse la répartition du parc d’hébergement qui leur est dédié dans le cadre du dispositif national français Asile et intégration, à l’aide d’une base de données inédite fournie par la Direction régionale de l’économie, de l’emploi, du travail et des solidarités Auvergne-Rhône-Alpes en 2023. Cette étude est complétée par des entretiens semi-directifs avec des responsables de centre d’accueil. L’analyse à l’échelon fin de la commune permet de faire ressortir plusieurs points. D’une part, la dynamique de dispersion du parc Asile et intégration se poursuit entre 2017 et 2022, mais tend désormais à privilégier les agglomérations urbaines au détriment des espaces ruraux et les petites villes. D’autre part, on observe une tendance à un rééquilibrage territorial du parc d’hébergement des communes en déprise vers des...
-
10:30
Delineating African cities (large urban regions) to compare them within global urban networks
sur CybergeoAn important issue for Africa is evaluating cities' capacities to leverage global networks effectively to foster local development. However, this evaluation is complicated by the absence of a unified framework and criteria, making it difficult to compare African cities to both each other and with cities around the world. The first step, therefore, is to establish a basis for comparing African cities. In this paper, we address the challenges of defining urban boundaries for cities across Africa's 54 countries. We outline our methodology and present the results of adapting the concept of Large Urban Regions (LURs) (Rozenblat, 2020), which encompass regional urbanized areas surrounding the main African cities. In total, we delineated 304 African Large Urban Regions, covering 5,522 Local Administrative Units (LAU). This delineation of LURs enables African urban areas to be comparable with others worldwide and paves the way for evaluating their integration into global urban networks, esp...
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...
-
10:30
Digital twins: a territorial mediation to watch
sur CybergeoDigital technological solutions, supposedly turnkey and always effective, are regularly offered to cities. They can however attract many criticisms: for example, if they are "smart cities" - which work with difficulty when they clash with the diversity of urban forms and functions (Caruso, Pumain & Thomas, 2023); or if it is the concept of "mobility-as-a-service" that induces unanticipated effects on accessibility equity (Pangbourne et al., 2020); or "city dashboards" that ultimately offer only a very limited view of urban processes and raise ethical issues (Kitchin & McCardle, 2017). In this vein, it is the concept of Digital Twin that becomes the most fashionable for cities and territories. Would this new instrument be more convincing?
In the strict sense, the digital twin of a system is a computerized representation that simulates its internal processes and interacts with it in real time by two-way coupling (Batty, 2018). When it applies to the city, the practical meaning of the c...
-
10:30
Les jumeaux numériques : une médiation territoriale à surveiller
sur CybergeoDes solutions technologiques numériques, supposées clé-en-main et toujours efficaces sont régulièrement proposées aux villes. Pourtant, elles s’attirent maintes critiques : par exemple si ce sont des “smart cities” - qui fonctionnent difficilement quand elles se heurtent à la diversité des formes et fonctions urbaines (Caruso, Pumain & Thomas, 2023) ; ou s’il s’agit du concept de “mobility-as-a-service” qui induit des effets non anticipés sur l’équité d’accessibilité (Pangbourne et al., 2020) ; ou encore des “city dashboards” qui n’offrent finalement qu’une vue très limitée des processus urbains et qui soulèvent des enjeux éthiques (Kitchin & McArdle, 2017). Dans cette veine, c’est le concept de Jumeau Numérique qui devient le plus à la mode pour les villes et les territoires. Ce nouvel instrument serait-il plus probant ?
Au sens strict, le jumeau numérique d’un système est une représentation informatisée qui simule ses processus internes et interagit avec celui-ci en temps réel par ...
-
10:30
Couplage de données et méthodes, une approche méthodologique originale de modélisation de la trame noire
sur CybergeoAlors que les impacts anthropiques sur la biodiversité urbaine et péri-urbaine sont étudiés depuis au moins cinquante ans, les effets de la pollution par l'éclairage artificiel sur la biodiversité nocturne par les politiques publiques est moins explorée. Cet article présente une cartographie des surfaces éclairées sur le territoire de Brest métropole, fondée sur les données de gestion du parc d'éclairage public, et son croisement avec les données d'occupation du sol pour construire un modèle de trame noire. La cartographie est d'abord générée en combinant une typologie des distributions photométriques avec les valeurs de flux lumineux. Puis, le modèle est construit par le calcul d'indices de biodiversité carroyés (méthode déductive) et par le calcul de graphes paysagers (méthode intégrative) expérimenté sur une espèce de chauve-souris. Un facteur de correction est intégré afin de permettre d'affiner le modèle par des mesures de terrain. Les résultats obtenus montrent que la cartogra...
-
10:30
Le domaine public, une réserve d’urbanisation invisible ? Application d’une méthode géomatique aux cas d’étude de Rennes et de Bordeaux
sur CybergeoAlors que la propriété foncière publique constitue un levier pour la maîtrise de l’aménagement du territoire, sa connaissance demeure partielle. Une partie seulement de la propriété foncière publique est consignée dans les données cadastrales. En effet, le domaine public, majoritairement non cadastré, n’est de fait pas pris en compte dans les principales bases de données existantes. Cet article propose une méthode d’identification de ces espaces et de leur évolution à partir d’une chaîne de traitements géomatiques. La méthode améliore les données cadastrales historicisées permettant en creux d’identifier l’espace non cadastré et sa correspondance avec le domaine public. À partir des cas d’étude de Bordeaux Métropole et de Rennes Métropole, les résultats montrent que, s’il est théoriquement inaliénable et imprescriptible, le domaine public enregistre, dans les faits, de nombreuses transformations, et est le support de dynamiques d’urbanisation qui échappent à l’actuelle mesure instit...
-
10:30
Une trame communale immuable ? La nécessaire géohistoire des communes françaises (1800-2024)
sur CybergeoLes communes constituent la plus petite des mailles de l’administration territoriale française depuis la Révolution. Ces entités sont également les plus nombreuses. L’évolution de ce maillage est peu connue. Cet article propose une approche spatialisée de l’évolution du nombre de communes françaises. Les données exploitées sont extraites de la base dite "Cassini" qui est ici présentée, tout en pointant ses limites. L’article analyse tout d’abord les rythmes de l’évolution du nombre de communes françaises. On note trois périodes de diminution rapide du nombre de communes : 1800-années 1830, années 1960-1970 et années 2010. Chaque période présente une géographie spécifique, qui invite à penser le département comme un cadre pertinent pour penser l’échelon communal, en raison du rôle que joue l’administration déconcentrée de l’État et particulièrement le préfet. Partant de ce constat, l’article propose une typologie des départements du point de vue de l’évolution du nombre de communes.
-
10:30
Vélo et pandémie du Covid-19 : une structuration multiscalaire du réseau associatif en Île-de-France
sur CybergeoLes travaux réalisés autour de la pandémie de Covid-19 présentent cette dernière comme une période de changement radical en matière de mobilité. La crise sanitaire a permis de renouveler les discours sur le vélo comme mode de déplacement quotidien et de franchir de nouvelles étapes en matière de politiques publiques (aides à la réparation de vélos, aménagements cyclables provisoires tels que les "coronapistes"). Cet article étudie la structuration du réseau associatif pro-vélo en Île-de-France, en analysant ses dynamiques spatiales et son évolution de 1970 à 2023. Dans quelle mesure la crise du Covid-19 a-t-elle constitué un accélérateur des processus en cours, ou bien un levier de changements plus radicaux ? L’article mobilise des données quantitatives (recensement d’associations) et qualitatives (récits d’histoires associatives, entretiens d’acteur.rice.s associatifs, de collectivités territoriales et institutions) issues de deux corpus : l’un constitué avant 2020, l’autre après c...
-
10:30
De la adaptación urbana a la escasez del agua en Phoenix y Tucson (Arizona): una aproximación desde la ecología política
sur CybergeoEn el contexto del cambio climático, las sequias aumentan y los territorios sufren un grave estrés hídrico. Este artículo examina la gestión del desequilibrio entre la disponibilidad de agua y la creciente demande en Phoenix y Tucson, en el árido oeste de Estados Unidos. A partir de un estudio de caso que pone de relieve las cuestiones socioecologicas de la escasez, esta investigación propone considerar las ciudades de Phoenix y Tucson como laboratorios de adaptación urbana al cambio climático para explorar diferentes modalidades de adaptación. El análisis moviliza los conceptos de la ecología política urbana para examinar las relaciones de poder entre los actores de la gestión del agua en un contexto en el que se cuestiona cada vez más el sistema de infraestructuras hídricas que sustenta el crecimiento urbano. Por un lado, el artículo muestra que los actores dominantes aplican estrategias de adaptación para mantener la trayectoria de crecimiento de ciudades especialmente atractivas...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
8:17
Intenses retrouvailles
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa veille de SIG 2024, lors du montage de la conférence francophone des utilisateurs Esri aux Docks de Paris, les équipes d’Esri France ne cachaient pas une légère appréhension. Qui serait au rendez-vous après quatre années sans grand-messe physique ? Les 9 et 10 octobre, quelque 3.500 participants étaient bien au Géo évènement ! D’ailleurs, si ces deux jours de retrouvailles dans le nord parisien ont été magiques, il ne faut pas oublier l’autre succès de la 3e journée en digital pour celles et ceux n’ayant pas pu se déplacer et surtout les costauds qui en voulaient encore plus.
À l’heure du bilan, nous retenions ces sourires en mode selfie avec Globie, des salles archi combles et l’énorme volume de choses à découvrir et à apprendre lors des plénières, ateliers, communications et sur les villages... Il n’y a pas eu un, mais deux prix SIG remis à Engie Green et Première Urgence Internationale, des échanges passionnants avec Sylvain Tesson et Louis Bodin, une splendide expo de concours et de l’oeuvre de Gory. Notre rédaction n’a pas chômé, réalisant pas moins de 9h d’émissions CLUB SIG...
L’an prochain, c’est acté, le Géo évènement s’agrandira. Il y a tant à voir et à dire. On a hâte de vous y revoir !
+ d'infos :
geo-evenement.fr
-
7:30
De la conformité de la modération
sur Dans les algorithmesLa juriste Daphne Keller évoque les limites de l’essor de la conformité de la modération de contenus sur les plateformes, où l’important est désormais de mesurer la modération à l’oeuvre, au risque que des discours légaux soient modérés, que les modalités deviennent très uniformes, ou que le délai de traitement, plus facile à quantifier, deviennent la principale mesure des pratiques de modération. La modération est une pratique complexe et sans indicateurs standardisés. Le risque est de les bricoler sans faire progresser la liberté et l’équité d’expression. La production d’indicateurs pertinents est encore à construire…
-
7:30
France Contrôle : encore un algorithme problématique
sur Dans les algorithmesDans le cadre de son programme France Contrôle, un programme de documentation des systèmes de gestion algorithmiques de la population française, la Quadrature du net publie une analyse du score de risque de fraude développé par l’Assurance maladie pour contrôler les foyers bénéficiant de la Complémentaire Santé Solidaire gratuite (C2SG). Comme c’était déjà le cas dans l’analyse que l’association de défense des libertés numériques avait faite des algorithmes utilisés par la Caf ou France Travail, la Quadrature pointe à nouveau l’iniquité des calculs et montre que le fait d’être une jeune mère isolée génère un surcontrôle. L’enquête montre également que l’Assurance maladie souhaiterait améliorer son scoring en ayant recours à des données de santé, au risque de renforcer le contrôle des plus précaires. Pour l’association, « l’absence de transparence vis-à-vis du grand public quant aux critères de ciblage de l’algorithme permet de masquer la réalité des politiques de contrôles » et permet d’imposer aux contrôleurs des modalités de contrôles auxquelles ils seraient réticents.
Pour l’association, « ces algorithmes ne servent qu’un seul objectif : faciliter l’organisation de politiques de harcèlement et de répression des plus précaires, et ce grâce à l’opacité et au vernis scientifique qu’ils offrent aux responsables des administrations sociales.«
-
16:43
Dossier "art et culture à la carte", enquêtes sur le SIG au cœur du nouveau dispositif de traitement des alertes et l'évolution du métier du SIG sont au sommaire de SIGMAG n°43
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLe magazine SIGMAG n°43, numéro de décembre 2024, vient de paraître. En voici le sommaire.
DOSSIER: «Art et culture à la carte ». Archéologie, histoire, arts visuels, monuments patrimoniaux, traditions et objets de la vie courante, etc. Les SIG sont des outils puissants qui jouent un rôle important dans la gestion des sujets touchant la culture, l’art et le patrimoine. Ils offrent des solutions pour contribuer à la préservation, l’analyse, la valorisation et la diffusion des informations. Ils permettent de mieux comprendre les éléments du patrimoine, aider à gérer leur restauration, leur préservation et leur mise en scène. Dossier de 10 pages réalisé par Valérie Handweiler avec la participation de la Région Sud de France, la Sacem, l’Inrap, l’Université Cergy-Pontoise, Château de Versailles, Département du Loiret, Esri France, arx iT, Ville de Nantes/Nantes Métropole, Département de l’Aisne, Communauté de communes de Coëvrons, SDIS 64, AG Carto, Caux Seine-Agglo, Smart/origin et Miriam Sepulveda qui a réalisé la peinture en couverture de ce magazine.
ENQUÊTE: «Le SIG au cœur du nouveau dispositif de traitement des alertes». Les services d’incendie et de secours sont fortement sollicités pour des missions de sécurité civile et de gestion des risques. Dans cette enquête, Michel Bernard explique que ces derniers mois, l’activité des services carto et SIG a été denses, notamment avec le déploiement de NexSIS ou leur mobilisation autour d’événements majeurs comme les JO. Enfin, ils sont toujours prêts à décaler pour suivre une nouvelle technologie.
PRATIQUE: «Normandie : les géodonnées au cœur des politiques». La Région Normandie met en œuvre de manière très concrète la diffusion, l’ouverture et la valorisation des données géolocalisées, au-delà de la seule cartographie. L’équipe Service Information Géographique et Open Data déploie des solutions dans de nombreux domaines d’intervention.
«Une modélisation XXL à la carte de l’EHL». Après une expérience réussie, l’École Hôtelière de Lausanne perfectionne le déploiement d’ArcGIS Indoors sur l’ensemble de son campus suisse. Une nouvelle application est bientôt disponible pour les étudiants et visiteurs.
GUIDE: «Quand le SIG prévoit l’avenir». Les capacités de simulation d’ArcGIS ne cessent d’évoluer, permettant l’étude de nombreux phénomènes avec des précisions accrues. D’autant que chaque vérification des estimations enrichit les simulations suivantes. Dans le pas-à-pas réalisé pour les lecteurs de SIGMAG par notre partenaire arcOrama, découvrez comment simuler des inondations avec ArcGIS Pro, de la préparation des données à l’analyse des résultats, en passant par la visualisation cartographique.
Découvrez également en page Guide les nouveautés solutions Esri,1Spatial et Isogeo, les changements dans le board de Graph Land avec l’arrivée de Loïc Delobelle et d’Intuitis en remplacement de Frédéric Payet-Taille. Le portrait de Gexpertise qui, de la géométrie du bâti en passant par les diagnostics énergétiques, cherche la donnée juste pour répondre aux besoins métiers de la gestion immobilière.
DÉCOUVERTE: «Des cartes à l’antenne depuis 35 ans». Depuis 1990, « Le Dessous des Cartes » décrypte les enjeux géopolitiques du monde contemporain au moyen de cartes géographiques. En passe d’être l’une des doyennes du paysage audiovisuel franco-allemand, l’émission éducative remporte toujours l’adhésion des téléspectateurs.
D’autres articles sont à découvrir dans les différentes rubriques de SIGMAG, comme le portrait de Benjamin Lallement (Ville de Nantes/Nantes Métropole), le focus SIGMAG Campus sur le master gestion des catastrophes et des risques naturels de l’Université Paul-Valéry Montpellier 3 ou la chronique de Daniel Ribeiro (GeoDataSolutions) consacrée à l’efficacité des réunions professionnelles à travers le monde selon les différences culturelles. Ne manquez pas non plus l’enquête Campus réalisé par Fanny Perrin d’Arloz sur le métier de géomaticien qui n’a pas fini d’évoluer. En effet, épris de géographie, le géomaticien doit se montrer à l’aise avec l’informatique et plus largement avec les nouvelles technologies, mais pas uniquement. Polyvalence, ouverture et interdisciplinarité sont aussi nécessaires et, comme tout, s’acquièrent dans les formations.
Ce numéro de 52 pages SIGMAG n°43 est disponible en version numérique à partir du 5 décembre 2024.
CLIQUEZ POUR UN ACCES DIRECT AU MAGAZINE EN VERSION NUMÉRIQUE
À noter : les premières pages de ce magazine sont accessibles gratuitement.
Les abonnés à la version papier le recevront à partir du 13 décembre 2024.
Pour acheter ce numéro en version numérique
ou vous abonner à SIGMAG,
rendez-vous sur www.sigtv.fr/boutique/
Pour contacter la rédaction : redaction@sigmag.fr
-
7:30
La responsabilité ne suffit pas
sur Dans les algorithmesComme à son habitude, danah boyd pose une question très pertinente en nous invitant à distinguer le risque du préjudice.
Savoir si l’usage des réseaux sociaux par les adolescents relève d’un risque ou cause un préjudice est une distinction importante. Le préjudice induit une nature causale. En droit, les avocats cherchent des préjudices pour les imputer aux acteurs qui les causent ou les réglementer. Quand une personne cause un préjudice à une autre, nous souhaitons que cette personne soit tenue pour responsable. La difficulté consiste à prouver le lien entre le préjudice subi et l’intentionnalité du concepteur.
Le risque, lui, nécessite qu’on les identifie et qu’on les gère. « Certains environnements introduisent davantage de risques potentiels et certaines actions les réduisent ». Si la réglementation peut être utilisée pour les réduire, elle ne peut pas les éliminer. Ce qui fait que la réduction du risque se retourne parfois contre les utilisateurs, les tenants responsables de ce qu’ils partagent alors que les effets d’amplification ne sont pas nécessairement de leurs faits.
Concevoir, éduquer, socialiser et prendre soin : piliers de la réduction des risquesLe ski par exemple est une pratique risquée, explique danah boyd, qui nécessite beaucoup d’éducation, de messages de prévention, et des mesures pour limiter les risques que les gens prennent. Tous les environnements sociaux sont risqués. Traverser la rue l’est également. L’un des éléments clés de la socialisation de l’enfance à l’âge adulte est d’apprendre à évaluer et à réagir aux risques inhérents à l’existence. Nous savons apprendre aux plus jeunes à traverser la rue. Et nous savons également aménager la rue pour diminuer les risques. Pour limiter les risques nous avons donc 3 leviers : agir sur l’environnement, éduquer et socialiser.
Les médias sociaux peuvent être dangereux pour les plus jeunes. Nous pouvons améliorer leur conception pour qu’ils le soient moins, bien sûr. Le problème, c’est que nous ne savons pas toujours comment améliorer leur conception pour qu’ils soient moins dangereux et ces interventions peuvent se révéler pires qu’on le pense. Cela ne signifie pas qu’on doive renoncer à les améliorer, bien au contraire, mais qu’on ne peut peut-être pas cimenter leur conception dans la loi pas plus que nous ne sommes capables de gérer les risques uniquement en améliorant la conception. Ainsi, nous focaliser sur une meilleure conception de la ville est inutile si nous ne faisons aucun travail pour socialiser et éduquer ceux qui partagent l’espace public… et si nous n’avons aucun dispositif pour venir en aide aux personnes en difficultés.
Alors oui, des personnes subissent des préjudices sur les médias sociaux, notamment du fait d’autres utilisateurs de ces médias sociaux qui doivent en être tenus responsables (et parfois du fait de la conception même des plateformes). Mais l’on ne peut pas concevoir un système qui permette aux gens d’interagir sans subir jamais de préjudices. Le problème cependant consiste à faire la part entre la responsabilité des utilisateurs et celle des concepteurs de médias sociaux. Il consiste à savoir si certaines formes de conception rendent les préjudices et les risques plus probables.
Les chercheurs ont largement mis en évidence que le harcèlement scolaire est plus fréquent à l’école que sur les réseaux sociaux, même s’il est plus visible sur ces derniers. Nombre d’écoles agissent en déployant des interventions pour éduquer et socialiser les élèves à ces problèmes. Ces programmes font souvent bien plus pour résoudre le harcèlement que l’amélioration de la conception des bâtiments, ironise la chercheuse – tout en suggérant de taxer les réseaux sociaux pour financer ces interventions dans le domaine scolaire. Bien sûr, les préjudices que subissent les gens sur les réseaux sociaux pourraient être atténués en améliorant le respect de la vie privée des utilisateurs, et pas seulement des plus jeunes d’ailleurs. « Mais même si vous pensez que les enfants sont particulièrement vulnérables, j’aimerais souligner que même si les enfants peuvent avoir besoin d’un siège d’appoint pour que la ceinture de sécurité fonctionne, tout le monde serait mieux loti si nous mettions en place des ceintures de sécurité pour la vie privée plutôt que de dire simplement que les enfants n’ont pas leur place dans les voitures. » Or, les projets de lois visant à exclure les plus jeunes des réseaux sociaux ne proposent de mettre en place aucune ceinture de sécurité, mais seulement de ne pas les accueillir dans les véhicules au risque qu’ils ne puissent plus se déplacer.
Pourtant, rappelle la chercheuse, il est difficile d’imputer à la technologie la responsabilité des préjudices sociétaux, même si celle-ci amplifie très fortement nos plus mauvais penchants, comme l’intimidation, le harcèlement, le racisme, le sexisme, l’homophobie… Et il est naïf de croire que ces préjudices puissent être réparés par la seule technologie. Nous ne pouvons pas protéger nos enfants des maux de la société, tout comme les parents noirs ne peuvent empêcher leurs enfants d’être victimes du racisme. D’où l’importance d’éduquer les enfants blancs pour voir et résister au racisme. Nous devons aider nos enfants à voir la laideur du monde pour qu’ils deviennent les agents du changement. Les réseaux sociaux rendent nos travers sociaux plus visibles… servons-nous en. Mais éviter les réseaux sociaux ne les fera pas disparaître. Et boyd de noter que souvent, ceux là même qui propagent la haine souhaitent empêcher leurs enfants d’accéder à la technologie, certainement bien plus par peur que les exposer à la différence ne les rende plus tolérants.
Il ne fait aucun doute que les médias et notamment les réseaux sociaux nous exposent à un monde plus vaste, plus diversifié et plus complexe. « Au début des réseaux sociaux, rappelle la chercheuse, je pensais que le simple fait d’exposer les gens aux autres augmenterait fondamentalement notre tolérance collective. J’ai appris depuis que ce n’était pas si simple et que l’exposition seule ne suffit pas. Mais isoler les gens ou interdire aux plus jeunes d’accéder aux réseaux sociaux, ne nous aidera pas non plus et n’aidera pas nos enfants à acquérir les compétences nécessaires pour vivre ensemble », conclut-elle, faisant écho à l’enjeu que nous avons, collectivement, à prendre soin de la construction du tissu social, comme elle nous y invitait déjà, il y a quelques années, dans un remarquable article.
Vérification d’âge : quels murs construisons-nous ?Cette tribune s’inscrit dans un débat plus large autour du Kids online Safety Act (Kosa), un projet de loi américain très controversé pour protéger les mineurs sur les médias sociaux. Une bonne synthèse des enjeux est résumé dans un rapport dirigé par la chercheuse Alice Marwick (qui est également la directrice de la recherche de Data & Society, le groupe de recherche de Microsoft fondé par danah boyd il y a 10 ans) qui montre les limites de la proposition de loi et notamment le fait que celle-ci puisse permette d’augmenter la censure des contenus en donnant plus de pouvoir aux plateformes sans aider les jeunes qui sont en difficulté sur les médias sociaux. Le cœur du renforcement de la protection repose sur un dispositif de vérification d’âge, compliqué à mettre en œuvre. De nombreux pays l’envisagent, mais aucun n’a pour l’instant trouvé une méthode convaincante. En France où une vérification d’âge doit être mise en place pour l’accès aux sites pornographiques, la Cnil défend le recours à un vérificateur tiers indépendant et le double anonymat… Une solution qui n’a pour l’instant pas d’opérationnalité technique à l’efficacité démontrée.
Lors d’un débat sur les implications de l’introduction de systèmes de vérification d’âge prévu notamment par ce projet de loi, danah boyd rappelait déjà que nous devrions aider les jeunes plutôt que de construire des murs autour d’eux. Sarah Forland co-auteure d’un rapport sur le sujet pour l’Open Technology Institute du think tank New America estime que la vérification d’âge doit toujours proposer des alternatives, que ces outils doivent maximiser la confidentialité et permettre aux utilisateurs de rester maître des modalités, alors qu’ils introduisent un risque de censure plus fort que jamais. Une réglementation de l’accès à internet selon l’âge semble à beaucoup une mauvaise réglementation mais elle est malgré tout préférable à l’absence de réglementation actuelle. Forland rappelle que si la vérification d’âge est une technologie controversée c’est parce qu’elle est difficile à mettre en œuvre.
Dans le monde réel, d’ailleurs, contrairement à ce qu’on en dit souvent, elle marche très mal, rappelle boyd. Aux Etats-Unis, la consommation d’alcool est interdite aux moins de 21 ans, mais le pays a l’un des taux le plus élevé de consommation excessive d’alcool des plus jeunes. Si les plus jeunes ont un problème de consommation excessive, c’est parce que l’interdiction a transformé l’alcool en preuve que vous étiez adulte ce qui a généré une socialisation particulièrement malsaine. Voulons-nous faire la même chose ? Les enfants regardent leurs parents plongés toute la journée sur leur téléphones et on est en train de leur dire qu’ils ne pourront y avoir accès avant 18 ans ! En fait, on fait tout pour ne pas interroger les processus de socialisation et leurs limites.
Les barrières d’âge n’aident en rien, disait déjà la chercheuse en 2011 ! Pour boyd, il y a d’un côté une crise de fragilité mentale des plus jeunes que nous devons aborder avec des programmes et des centres d’aides où le numérique n’a pas de rôle à jouer. De l’autre, il nous faut réglementer l’industrie technologique, hors de contrôle, ce qui est un tout autre problème qui nécessite de renforcer la confidentialité de tous, pour mieux protéger tout le monde et pas seulement les plus jeunes. boyd rappelle que lorsqu’elle étudiait la Coppa, la loi sur la protection de la vie privée des enfants en ligne, qui a introduit des protections pour les moins de 13 ans, plus de la moitié des parents mentaient sur l’âge de leurs enfants pour leur permettre d’accéder aux services web auxquels ils n’avaient plus droits.
Pour la sociologue, on cherche à nouveau à répondre à un problème social par une solution technique qui ne le résoudra pas. Pour elle, nous avons bien plus besoin de structures de soins et d’accompagnement pour les plus jeunes que de dispositifs techniques. Nous avons besoin d’être capables d’apporter de l’aide à ceux qui en ont besoin avec des structures ouvertes et discrètes. « Nous devons être capables de prêter attention aux jeunes qui crient à l’aide plutôt que d’essayer de trouver des moyens de les rendre plus invisibles aux yeux des gens qui les entourent. » Pour l’avocat du Digital Trust & Safety Partenership, David Sullivan, c’est comme le filtrage de contenus dans les écoles qui, sous prétexte de protéger les enfants, semble faire bien plus de dégats qu’autre chose, en les empêchant d’accéder à des contenus essentiels. Pour danah boyd : lorsque nous nous concentrons sur la vérification d’âge, nous nous concentrons sur une réponse technique à un problème social, donc sur la technologie plutôt que sur les jeunes. Plutôt que de chercher à refabriquer de la socialisation, nous sommes en plein « solutionnisme techno-légal ».
Le risque : croire que le code peut se substituer à la loiDans leur article de recherche, où elles développent ce concept, danah boyd et Maria Angel rappellent que le devoir de diligence que Kosa impose aux plateformes est ambiguë. Il tient les entreprises responsables de ne pas avoir pris de mesures raisonnables pour prévenir ou atténuer des risques complexes, comme l’intimidation, l’anxiété ou la dépression, pour lesquels les experts n’ont pas vraiment de solutions. Si la façon dont sont conçus les médias sociaux peuvent parfois donner lieu à des expériences sociales malsaines, déterminer les conséquences des effets de conception n’est pas toujours simple. Or, la diligence dans la modération qu’on demande aux plateformes est profondément ancrée dans une vision déterministe de la technique que les chercheuses appellent « solutionnisme techno-juridique ». C’est la façon même dont le législatif tente de pousser les plateformes à être diligentes qui pose problème. Le cadre réglementaire n’énonce pas d’exigences de conception spécifiques que les plateformes devraient éviter et n’observent que les résultats qu’elles doivent atteindre. « Cela équivaudrait à exiger des constructeurs automobiles qu’ils s’assurent que les conducteurs ne soient jamais distraits par des tiers et que tous les accidents soient évités plutôt que de les obliger à mettre en place des ceintures de sécurité. »
Pour le grand public, l’allégation consistant à penser que les médias sociaux sont nocifs pour les plus jeunes est très répandue. Les décideurs politiques ne se contentent pas d’affirmer que les plateformes de médias sociaux sont le lieu du problème : ils considèrent également la technologie comme le lieu de la solution. « Si les caractéristiques de conception sont le problème, exiger une bonne conception peut faire disparaître les préjudices », estiment ces règlements. Le risque est de fournir une solution technique à une panique morale. « Lorsque Lessig a soutenu pour la première fois que « le code est la loi », il entendait signaler comment la conception du logiciel joue un rôle régulateur en rendant certains résultats plus ou moins probables. L’une des erreurs commises par les décideurs politiques est de réinterpréter ses propos pour adopter une vision techno-déterministe selon laquelle le code peut agir comme un substitut à la loi pour dicter l’avenir. » « Le problème, c’est que les entreprises technologiques seront obligées par la loi de concevoir leurs systèmes pour des résultats sociaux qu’elles ne peuvent pas contrôler. » Et rien ne prouve qu’une appréciation par les objectifs aidera réellement les jeunes en situation de vulnérabilité ni n’accomplira une meilleure conception. Au contraire. Il est probable qu’une telle politique encourage les entreprises à atteindre leurs objectifs en matière de sécurité en renforçant les logiques solutionnistes, tout en nous détournant d’autres approches fondées sur des preuves.
Tout le monde répète que les médias sociaux seraient la cause de tous les maux… Mais « quel est l’impact de l’utilisation des médias sociaux sur la santé mentale des jeunes ? », questionnent les deux chercheuses. Les réponses des chercheurs à cette question ne sont pas tranchées. Ceux-ci ont plutôt montré que les problèmes sociaux et psychologiques en ligne ont des racines dans la dynamique sociale hors ligne, comme le harcèlement. Comme le montrait danah boyd dans son livre, C’est compliqué, la technologie est rarement la cause des problèmes des adolescents, mais est souvent l’endroit vers lequel ils se tournent lorsqu’ils sont en difficulté. Pour elle, les médias sociaux permettent de rendre visible les problèmes des jeunes plus qu’ils n’en sont la cause. En fait nous sommes là, face à une question très polarisée, comme l’a montré le journaliste du New York Times, Ezra Klein, en interviewant Jean Twenge qui pense que les médias sociaux ont des effets négatifs sur la santé mentale des jeunes et Lisa Damour qui montre qu’il n’y en est rien. Le lien entre les médias sociaux et la santé mentale des jeunes demeure complexe.
Les entreprises de la tech sont en mesure de concevoir leurs plateformes afin que les jeunes ne soient pas exposés à certains contenus ni ne participent à certaines activités. Mais les entreprises ne pourront jamais contrôler précisément la manière dont les comportements « autorisés » sur leurs plateformes affectent l’expérience et le bien être. Pour le dire plus simplement : les plateformes peuvent certes être mieux conçues, mais elles ne peuvent pas faire que les enfants ne soient pas rejetés par leurs pairs, ou que l’actualité ne provoque pas d’anxiété. En obligeant les plateformes à concevoir des « résultats positifs », les autorités semblent ignorer le caractère émergent du social. Si les entreprises peuvent ne pas montrer certaines publicités, exiger qu’elles produisent des résultats sociétaux positifs suppose qu’elles pourraient avoir un contrôle total sur les comportements sociaux. Le risque est que la réglementation crée des attentes irréalistes sur ce que le design peut faire pour les enfants.
Or, dans un contexte où des livres ou même la justice raciale sont interdits dans nombre d’écoles américaines, la question de savoir ce qui a un impact négatif sur les jeunes est devenue une question éminemment politique. Les risques d’abus du projet de loi Kosa ont déclenché l’inquiétude de la communauté LGBTQ d’autant que les conservateurs ont plusieurs fois affirmé que le projet de loi avait pour but de protéger les mineurs de l’endoctrinement politique. La politisation des contenus est pourtant bien ce qui se déroule. Après les élections de 2016, les entreprises de médias sociaux ont un temps pris la question de la désinformation au sérieux. Le problème, c’est que la désinformation n’est pas la même pour tous, chacun souhaitant la définir en fonction de ses objectifs politiques. Mais surtout, en demandant aux entreprises technologiques d’améliorer leurs conceptions pour éviter les résultats négatifs, les décideurs politiques renforcent la rhétorique déterministe et solutionniste qui rend l’industrie technologique toxique en premier lieu. Pourtant, ce que les gens font avec une technologie donnée n’est pas déterminé par la conception seule, mais par les choix que les gens font en exploitant ces outils. Comme le disait Morozov lui-même, « en promettant des résultats presque immédiats et beaucoup moins chers, les solutions rapides peuvent facilement saper le soutien à des projets de réforme plus ambitieux, plus stimulants intellectuellement, mais aussi plus exigeants ». Le risque, c’est que le solutionnisme efface les problèmes sociaux d’abus, de pauvreté, d’inégalité… qui sont bien souvent à l’origine des problèmes que les législateurs voudraient atténuer. On ne fera pas disparaître les causes en nettoyant les symptômes !, rappellent les chercheuses. L’accès à des soins pour la santé mentale, la mise en œuvre de programmes d’éducation ont plus de chance de faire bouger les choses que de masquer des contenus sur les réseaux sociaux.
Les législateurs ont raison d’exiger que les entreprises de médias sociaux cessent d’utiliser une conception manipulatrice pour exploiter les vulnérabilités décisionnelles du public. Tout comme ils l’ont fait avec d’autres formes de médias, les décideurs politiques peuvent et doivent se pencher sur les types de publicité et de fonctionnalités qui devraient être autorisés. Les décideurs politiques devraient réfléchir à ce qui pourrait constituer une « ceinture de sécurité numérique » et l’imposer. Cependant, si les décideurs politiques veulent réellement aider les jeunes à faire face aux difficultés sociales auxquelles ils sont confrontés, ils doivent adopter une approche écologique face à un problème qui a de multiples paramètres. Il n’existe pas de solution miracle. Tenir les entreprises technologiques responsables du bien-être des jeunes est politiquement attrayant, mais cela n’aidera pas les jeunes en situation de vulnérabilité.
L’aporie de la gouvernance par les risquesLe risque, c’est de croire qu’on peut gouverner les risques depuis les calculs… et que toute régulation ne repose que sur la régulation par le risque, comme l’expliquait Irénée Régnauld, qui dénonce également cette approche paternaliste par le risque et explique que la gestion des risques ne peut pas constituer à elle seule un mode de gouvernement, au risque de verser dans un éternel monitoring ex post de systèmes n’ayant jamais fait l’objet d’aucune débats démocratiques.
boyd semble bien confiante tout de même. Les entreprises pilotent et orientent à leur gré l’architecture de leurs plateformes, laissant bien peu d’espace à l’éducation et à la socialisation puisqu’on ne peut apprendre des comportements à tenir dans des usines où les convoyeurs changent sans arrêt, comme c’est le cas de leurs algorithmes d’amplification sociale. Les modalités de conception ont bien des effets, que les entreprises savent mesurer et orienter au bénéfice de leurs modèles d’affaires plus que du bien-être des utilisateurs ou de la valeur de leur recommandation pour la société, comme le montrait le chercheur Arvind Narayanan, Pour le dire dans le langage de boyd, les modalités de socialisation changent sans arrêt ce qui limite également nos capacités d’éducation, puisqu’il est bien difficile de comprendre les modulations algorithmiques. Les entreprises ne sont pas vertueuses et peu de choses les poussent à l’être. Bien sûr, les autorités ont des exigences toujours plus fortes de modération renforçant les biais de modération des plateformes, au risque de rendre certains sujets impossibles, et non des moindres. En renforçant le droit à la modération des réseaux sociaux, le risque est que les médias sociaux décident de quelles violences la société peut discuter, expliquait très pertinemment Alizée Vincent pour Arrêt sur Images, en montrant que la censure automatisée conduisait à confondre les violences policières ou sexuelles, avec leur dénonciation.
TikTok comme Meta par exemple connaissent très bien les effets qu’ont leurs architectures de recommandation sur les gens et notamment sur les plus jeunes. Mark Zuckerberg lui-même convenait d’ailleurs que les utilisateurs ne contrôlent plus leurs flux de médias sociaux. La maîtrise totale de nos flux par les grandes plateformes pourrait avoir pour conséquence de les tenir plus responsables que jamais des risques qu’ils sont censés limiter, explique la journaliste Julia Angwin pour le New York Times. Quand ce à quoi nous accédions était la conséquence des décisions des utilisateurs, il était plus facile pour les entreprises de ne pas être tenues responsables des conséquences. Mais c’est devenu de moins en moins vrai. « Si les plateformes technologiques façonnent activement nos expériences, après tout, peut-être devraient-elles être tenues responsables de la création d’expériences qui nuisent à nos corps, à nos enfants, à nos communautés et à notre démocratie ». Aux Etats-Unis, plusieurs décisions de justice viennent de reconnaître que les plateformes ne pouvaient pas s’abriter derrière le fait qu’elles n’étaient pas responsables des contenus quand leurs algorithmes les orientent d’une manière aussi déterminante. Si le tribunal tient les plateformes responsables de leurs amplifications algorithmiques, cela pourrait les inciter à limiter la distribution de contenus nocifs mais également les conduire à renforcer la censure.
Qu’en sera-t-il ? L’élection de Trump vient de rebattre profondément les cartes de ce débat. A terme, il semble certain que ce ne sont pas les utilisateurs qui vont avoir la main.
David Rotschild, chercheur au Penn Media Accountability Project et co-auteur d’une étude pour Nature qui dénonce l’instrumentation de la désinformation en ligne, explique sur Undark que dire que « les réseaux sociaux sont le problème » propose une solution très simple et facile à appliquer, qui consiste à corriger les algorithmes. Et cela évite la question la plus difficile – celle que nous ne voulons généralement pas aborder – sur la nature humaine. Or la violence ou le racisme… n’ont pas été inventés par les réseaux sociaux. Quand bien même les réseaux sociaux les instrumentisent plus que jamais. Nous ne gouvernerons pas nos disputes sociales seulement en régulant les réseaux sociaux.
-
14:46
L’homme qui aimait les ours polaires
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueFlorian Ledoux n’a jamais rêvé d’un métier de bureau. Il est passionné par la beauté brute et sauvage de l’Arctique et des ours polaires. Il a choisi de leur consacrer sa vie, réalisant avec un drone des clichés inédits qui les magnifient et révèlent leur fragilité. Le 20 juin dernier, Florian Ledoux, photographe français de 34 ans, rentrait d’un séjour de six mois passés sur la banquise du Svalbard, à mi-chemin entre la Norvège continentale et le pôle Nord. Là, il consacrait jusqu’à vingt heures par jour à la capture d’images de gigantesques espaces blancs et vierges et des ours polaires qui les habitent. Il faut dire qu’il leur voue une adoration plus que profonde. «Environ 300 ours y vivent en permanence toute l’année. Durant l’hiver, on recense également le passage de 2.500 ours supplémentairesqui rejoignent l’île aux ours en mer de Norvège ou la mer de Barents, en bord de l’océan Arctique », s’enthousiasme l’aventurier.
Retrouvez la suite de cet article dans le magazine SIGMAG N°42
-
7:30
IA, réducteur culturel : vers un monde de similitudes
sur Dans les algorithmesDans sa newsletter, Programmable Mutter, le politiste Henry Farrell – qui a publié l’année dernière avec Abraham Newman, Underground Empire (qui vient d’être traduit chez Odile Jacob sous le titre L’Empire souterrain) un livre sur le rôle géopolitique de l’infrastructure techno-économique mise en place par les Etats-Unis – estime que le risque de l’IA est qu’elle produise un monde de similitude, un monde unique et moyen.
Comme le disait la professeure de psychologie, Alison Gopnick, dans une tribune pour le Wall Street Journal, les LLM sont assez bons pour reproduire la culture, mais pas pour introduire des variations culturelles. Ces modèles sont « centripètes plutôt que centrifuges », explique Farrell : « ils créent des représentations qui tirent vers les masses denses du centre de la culture plutôt que vers la frange clairsemée de bizarreries et de surprises dispersées à la périphérie ».
Farrell se livre alors à une expérience en générant un podcast en utilisant NotebookLM de Google. Mais le bavardage généré n’arrive pas à saisir les arguments à discuter. Au final, le système génère des conversations creuses, en utilisant des arguments surprenants pour les tirer vers la banalité. Pour Farrell, cela montre que ces systèmes savent bien plus être efficaces pour évoquer ce qui est courant que ce qui est rare.
« Cela a des implications importantes, si l’on associe cela à la thèse de Gopnik selon laquelle les grands modèles de langues sont des moteurs de plus en plus importants de la reproduction culturelle. De tels modèles ne soumettront probablement pas la culture humaine à la « malédiction de la récursivité », dans laquelle le bruit se nourrit du bruit. Au contraire, ils analyseront la culture humaine avec une perte qui la biaise, de sorte que les aspects centraux de cette culture seront accentués et que les aspects plus épars disparaîtront lors de la traduction ». Une forme de moyennisation problématique, une stéréotypisation dont nous aurons du mal à nous extraire. « Le problème avec les grands modèles est qu’ils ont tendance à sélectionner les caractéristiques qui sont communes et à s’opposer à celles qui sont contraires, originales, épurées, étranges. Avec leur généralisation, le risque est qu’ils fassent disparaître certains aspects de notre culture plus rapidement que d’autres ».
C’est déjà l’idée qu’il défendait avec la sociologue Marion Fourcadedans une tribune pour The Economist. Les deux chercheurs y expliquaient que l’IA générative est une machine pour « accomplir nos rituels sociaux à notre place ». Ce qui n’est pas sans conséquence sur la sincérité que nous accordons à nos actions et sur les connaissances que ces rituels sociaux permettent de construire. A l’heure où l’IA rédige nos CV, nos devoirs et nos rapports à notre place, nous n’apprendrons plus à les accomplir. Mais cela va avoir bien d’autres impacts, explique encore Farrell, par exemple sur l’évaluation de la recherche. Des tests ont montré que l’évaluation par l’IA ne ferait pas pire que celle par les humains… Mais si l’IA peut aussi bien que les humains introduire des remarques génériques, est-elle capable d’identifier et d’évaluer ce qui est original ou nouveau ? Certainement bien moins que les humains. Pour Farrell, il y a là une caractéristique problématique de l’IA : « plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle ». Pour Farrell, ce constat contredit les grands discours sur la capacité d’innovation distribuée de l’IA. Au contraire, l’IA nous conduit à un aplatissement, effaçant les particularités qui nous distinguent, comme si nous devenions tous un John Malkovitch parmi des John Malkovitch, comme dans le film Dans la peau de John Malkovitch de Spike Jonze. Les LLM encouragent la conformité. Plus nous allons nous reposer sur l’IA, plus la culture humaine et scientifique sera aplanie, moyennisée, centralisée.
-
10:30
Les territoires en déprise, espaces privilégiés de l’accueil d’exilés ? Une analyse des dynamiques du dispositif Asile et intégration dans la région Auvergne-Rhône-Alpes
sur CybergeoCet article porte sur l’hébergement des demandeurs d’asile dans la région Auvergne-Rhône-Alpes et questionne la part des espaces en déprise dans l’accueil de ces personnes. Il analyse la répartition du parc d’hébergement qui leur est dédié dans le cadre du dispositif national français Asile et intégration, à l’aide d’une base de données inédite fournie par la Direction régionale de l’économie, de l’emploi, du travail et des solidarités Auvergne-Rhône-Alpes en 2023. Cette étude est complétée par des entretiens semi-directifs avec des responsables de centre d’accueil. L’analyse à l’échelon fin de la commune permet de faire ressortir plusieurs points. D’une part, la dynamique de dispersion du parc Asile et intégration se poursuit entre 2017 et 2022, mais tend désormais à privilégier les agglomérations urbaines au détriment des espaces ruraux et les petites villes. D’autre part, on observe une tendance à un rééquilibrage territorial du parc d’hébergement des communes en déprise vers des...
-
10:30
Delineating African cities (large urban regions) to compare them within global urban networks
sur CybergeoAn important issue for Africa is evaluating cities' capacities to leverage global networks effectively to foster local development. However, this evaluation is complicated by the absence of a unified framework and criteria, making it difficult to compare African cities to both each other and with cities around the world. The first step, therefore, is to establish a basis for comparing African cities. In this paper, we address the challenges of defining urban boundaries for cities across Africa's 54 countries. We outline our methodology and present the results of adapting the concept of Large Urban Regions (LURs) (Rozenblat, 2020), which encompass regional urbanized areas surrounding the main African cities. In total, we delineated 304 African Large Urban Regions, covering 5,522 Local Administrative Units (LAU). This delineation of LURs enables African urban areas to be comparable with others worldwide and paves the way for evaluating their integration into global urban networks, esp...
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...
-
10:30
Digital twins: a territorial mediation to watch
sur CybergeoDigital technological solutions, supposedly turnkey and always effective, are regularly offered to cities. They can however attract many criticisms: for example, if they are "smart cities" - which work with difficulty when they clash with the diversity of urban forms and functions (Caruso, Pumain & Thomas, 2023); or if it is the concept of "mobility-as-a-service" that induces unanticipated effects on accessibility equity (Pangbourne et al., 2020); or "city dashboards" that ultimately offer only a very limited view of urban processes and raise ethical issues (Kitchin & McCardle, 2017). In this vein, it is the concept of Digital Twin that becomes the most fashionable for cities and territories. Would this new instrument be more convincing?
In the strict sense, the digital twin of a system is a computerized representation that simulates its internal processes and interacts with it in real time by two-way coupling (Batty, 2018). When it applies to the city, the practical meaning of the c...
-
10:30
Les jumeaux numériques : une médiation territoriale à surveiller
sur CybergeoDes solutions technologiques numériques, supposées clé-en-main et toujours efficaces sont régulièrement proposées aux villes. Pourtant, elles s’attirent maintes critiques : par exemple si ce sont des “smart cities” - qui fonctionnent difficilement quand elles se heurtent à la diversité des formes et fonctions urbaines (Caruso, Pumain & Thomas, 2023) ; ou s’il s’agit du concept de “mobility-as-a-service” qui induit des effets non anticipés sur l’équité d’accessibilité (Pangbourne et al., 2020) ; ou encore des “city dashboards” qui n’offrent finalement qu’une vue très limitée des processus urbains et qui soulèvent des enjeux éthiques (Kitchin & McArdle, 2017). Dans cette veine, c’est le concept de Jumeau Numérique qui devient le plus à la mode pour les villes et les territoires. Ce nouvel instrument serait-il plus probant ?
Au sens strict, le jumeau numérique d’un système est une représentation informatisée qui simule ses processus internes et interagit avec celui-ci en temps réel par ...
-
10:30
Couplage de données et méthodes, une approche méthodologique originale de modélisation de la trame noire
sur CybergeoAlors que les impacts anthropiques sur la biodiversité urbaine et péri-urbaine sont étudiés depuis au moins cinquante ans, les effets de la pollution par l'éclairage artificiel sur la biodiversité nocturne par les politiques publiques est moins explorée. Cet article présente une cartographie des surfaces éclairées sur le territoire de Brest métropole, fondée sur les données de gestion du parc d'éclairage public, et son croisement avec les données d'occupation du sol pour construire un modèle de trame noire. La cartographie est d'abord générée en combinant une typologie des distributions photométriques avec les valeurs de flux lumineux. Puis, le modèle est construit par le calcul d'indices de biodiversité carroyés (méthode déductive) et par le calcul de graphes paysagers (méthode intégrative) expérimenté sur une espèce de chauve-souris. Un facteur de correction est intégré afin de permettre d'affiner le modèle par des mesures de terrain. Les résultats obtenus montrent que la cartogra...
-
10:30
Le domaine public, une réserve d’urbanisation invisible ? Application d’une méthode géomatique aux cas d’étude de Rennes et de Bordeaux
sur CybergeoAlors que la propriété foncière publique constitue un levier pour la maîtrise de l’aménagement du territoire, sa connaissance demeure partielle. Une partie seulement de la propriété foncière publique est consignée dans les données cadastrales. En effet, le domaine public, majoritairement non cadastré, n’est de fait pas pris en compte dans les principales bases de données existantes. Cet article propose une méthode d’identification de ces espaces et de leur évolution à partir d’une chaîne de traitements géomatiques. La méthode améliore les données cadastrales historicisées permettant en creux d’identifier l’espace non cadastré et sa correspondance avec le domaine public. À partir des cas d’étude de Bordeaux Métropole et de Rennes Métropole, les résultats montrent que, s’il est théoriquement inaliénable et imprescriptible, le domaine public enregistre, dans les faits, de nombreuses transformations, et est le support de dynamiques d’urbanisation qui échappent à l’actuelle mesure instit...
-
10:30
Une trame communale immuable ? La nécessaire géohistoire des communes françaises (1800-2024)
sur CybergeoLes communes constituent la plus petite des mailles de l’administration territoriale française depuis la Révolution. Ces entités sont également les plus nombreuses. L’évolution de ce maillage est peu connue. Cet article propose une approche spatialisée de l’évolution du nombre de communes françaises. Les données exploitées sont extraites de la base dite "Cassini" qui est ici présentée, tout en pointant ses limites. L’article analyse tout d’abord les rythmes de l’évolution du nombre de communes françaises. On note trois périodes de diminution rapide du nombre de communes : 1800-années 1830, années 1960-1970 et années 2010. Chaque période présente une géographie spécifique, qui invite à penser le département comme un cadre pertinent pour penser l’échelon communal, en raison du rôle que joue l’administration déconcentrée de l’État et particulièrement le préfet. Partant de ce constat, l’article propose une typologie des départements du point de vue de l’évolution du nombre de communes.
-
10:30
Vélo et pandémie du Covid-19 : une structuration multiscalaire du réseau associatif en Île-de-France
sur CybergeoLes travaux réalisés autour de la pandémie de Covid-19 présentent cette dernière comme une période de changement radical en matière de mobilité. La crise sanitaire a permis de renouveler les discours sur le vélo comme mode de déplacement quotidien et de franchir de nouvelles étapes en matière de politiques publiques (aides à la réparation de vélos, aménagements cyclables provisoires tels que les "coronapistes"). Cet article étudie la structuration du réseau associatif pro-vélo en Île-de-France, en analysant ses dynamiques spatiales et son évolution de 1970 à 2023. Dans quelle mesure la crise du Covid-19 a-t-elle constitué un accélérateur des processus en cours, ou bien un levier de changements plus radicaux ? L’article mobilise des données quantitatives (recensement d’associations) et qualitatives (récits d’histoires associatives, entretiens d’acteur.rice.s associatifs, de collectivités territoriales et institutions) issues de deux corpus : l’un constitué avant 2020, l’autre après c...
-
10:30
De la adaptación urbana a la escasez del agua en Phoenix y Tucson (Arizona): una aproximación desde la ecología política
sur CybergeoEn el contexto del cambio climático, las sequias aumentan y los territorios sufren un grave estrés hídrico. Este artículo examina la gestión del desequilibrio entre la disponibilidad de agua y la creciente demande en Phoenix y Tucson, en el árido oeste de Estados Unidos. A partir de un estudio de caso que pone de relieve las cuestiones socioecologicas de la escasez, esta investigación propone considerar las ciudades de Phoenix y Tucson como laboratorios de adaptación urbana al cambio climático para explorar diferentes modalidades de adaptación. El análisis moviliza los conceptos de la ecología política urbana para examinar las relaciones de poder entre los actores de la gestión del agua en un contexto en el que se cuestiona cada vez más el sistema de infraestructuras hídricas que sustenta el crecimiento urbano. Por un lado, el artículo muestra que los actores dominantes aplican estrategias de adaptación para mantener la trayectoria de crecimiento de ciudades especialmente atractivas...
-
10:22
Données conflictuellesx
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueLa source mondiale de données sur les conflits armés ACLED est mise à disposition des utilisateurs ArcGIS. Ces données sont issues d’un projet d’analyse en temps réel et de cartographie de données désagrégées. Elles sont de grande qualité et exploitées pour les violences politiques et les manifestations mondiales, par les chercheurs, les journalistes, les analystes des risques, les responsables de la sécurité des entreprises et les gouvernements. Disponibles sur le Living Atlas of the World ArcGIS, au sein d’un fichier de données agrégées, les informations ACLED sont proposées via une couche d’entités, un groupe de couches d’indicateurs clés ainsi qu’une carte web. La carte comprend une dimension temporelle allant du 1er avril 2023 au 1er avril 2024, pour le moment. Elle reprend le nombre total d’événements par division administrative et par typologie d’événement, par mois et une estimation prudente des décès signalés par division administrative. Le nombre total d’acteurs violents distincts actifs dans la division administrative correspondante est aussi repris.
+ d'infos :
acleddata.com
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...
-
9:30
MapDraw. Un outil libre d’annotation de cartes en ligne
sur MappemondeLes enquêtes et questionnaires reposent souvent sur l’utilisation de supports papier, et les cartes ne font pas exception. En effet, ces dernières permettent une grande flexibilité, notamment en termes d’annotations, de dessins, etc. Mais la conversion et l’exploitation des données ainsi récoltées dans un SIG peuvent s’avérer fastidieuses, et cela peut bien souvent limiter la quantité de données récoltée. Cet article présente un outil libre en ligne, MapDraw, permettant de prendre des notes sur une carte interactive et d’exporter ces données dans un format utilisable par un SIG.
-
9:30
HedgeTools : un outil d’analyse spatiale dédié à l’évaluation de la multifonctionnalité des haies
sur MappemondeLes haies jouent des rôles clés dans les paysages agricoles, mais leur caractérisation automatique par analyse spatiale est complexe. Dans cet article, nous décrivons les principales fonctionnalités d’un outil open source — HedgeTools — qui permet de calculer une diversité d’indicateurs contribuant à évaluer la multifonctionnalité des haies. Il permet de créer la géométrie des objets, de les redécouper en fonction de divers critères et d’extraire leurs caractéristiques à différents niveaux d’agrégation. HedgeTools vise à faciliter la gestion et la préservation des haies en permettant d’évaluer leur état et leurs fonctions dans les paysages, avec des perspectives d’amélioration et d’extension de ses fonctionnalités.
-
9:30
Visualisation de données issues des réseaux sociaux : une plateforme de type Business Intelligence
sur MappemondeTextBI est un tableau de bord interactif destiné à visualiser des indicateurs multidimensionnels sur de grandes quantités de données multilingues issues des réseaux sociaux. Il cible quatre dimensions principales d’analyse : spatiale, temporelle, thématique et personnelle, tout en intégrant des données contextuelles comme le sentiment et l’engagement. Offrant plusieurs modes de visualisation, cet outil s’insère dans un cadre plus large visant à guider les diverses étapes de traitement de données des réseaux sociaux. Bien qu’il soit riche en fonctionnalités, il est conçu pour être intuitif, même pour des utilisateurs non informaticiens. Son application a été testée dans le domaine du tourisme en utilisant des données de Twitter (aujourd’hui X), mais il a été conçu pour être générique et adaptable à de multiples domaines. Une vidéo de démonstration est accessible au lien suivant : [https:]]
-
9:30
Atlas du développement durable. Un monde en transition, Autrement, 2022
sur MappemondeL’Atlas du développement durable, proposé par Yvette Veyret et Paul Arnould est paru aux éditions Autrement en mars 2022 ; il s’agit d’une 2e édition, mettant à jour partiellement la première, parue deux ans auparavant.
Les auteurs sont tous deux professeurs émérites, de l’université Paris-Nanterre pour Yvette Veyret et de l’École normale supérieure de Lyon pour Paul Arnould. Les représentations graphiques et cartographiques ont été réalisées par Claire Levasseur, géographe-cartographe indépendante.
Après une introduction qui définit le développement durable dans ses composantes écologique, économique et sociale et présente les nouveaux objectifs définis dans l’Agenda pour 2030 (adopté lors du sommet des Nations Unies de 2015), cet atlas est divisé en trois parties : en premier lieu, un bilan mondial, puis les réponses globales apportées pour assurer un développement durable à l’échelle du globe, enfin les solutions proposées à l’échelle nationale française. Chaque partie est composée...
-
9:30
La géographie des chefs étoilés : du rayonnement international a l’ancrage territorial
sur MappemondeCe texte de rubrique se situe en complémentarité de l’article sur la géographie des restaurants étoilés et s’intéresse plus particulièrement aux hommes et aux femmes qui se cachent derrière les étoiles, et donc aux « grands chefs ». Pour des raisons liées aux informations dont on peut disposer sur les sites spécialisés ou dans la littérature, ainsi qu’au nombre bien trop important de chefs qui ont une ou deux étoiles, ce qui suit concerne principalement les chefs triplement étoilés, soit trente personnes en 2021.
À partir de l’analyse de leurs lieux d’exercice et/ou d’investissement actuels, on peut dessiner une « géographie » des chefs étoilés et les diviser en trois groupes : les internationaux, les régionaux et les locaux. De même, l’observation de leur plus ou moins grand investissement dans la vie socio-économique locale, ainsi que leurs circuits d’approvisionnement nous permettront d’approcher leur rôle dans les dynamiques de développement local.
En ce qui concerne l’analyse du ...
-
9:30
Mappa naturae, 2023
sur MappemondeLe collectif Stevenson, du nom de Robert Louis Stevenson, écrivain écossais et grand voyageur, connu dans le monde entier pour son roman L’Ile au trésor, publié en 1883, est composé de six auteurs spécialisés, peu ou prou, dans de multiples formes d’études des cartographies et de leurs usages à travers les époques : Jean-Marc Besse, philosophe et historien, Milena Charbit, architecte et artiste, Eugénie Denarnaud, paysagiste et plasticienne, Guillaume Monsaingeon, philosophe et historien, Hendrik Sturm, artiste marcheur (décédé le 15 août 2023), et Gilles A. Tiberghien, philosophe en esthétique. Ce collectif a déjà publié chez le même éditeur, en 2019 Mappa Insulae et, en 2021, Mappa Urbis. À l’image de leurs deux dernières parutions, Mappa Naturae se présente comme un recueil d’images cartographiques sélectionnées pour leur esthétique, leur ingéniosité ou, parfois, leur nouveauté. Le collectif ne donne pas d’informations synthétisées sur la provenance concrète des cartes. Les sourc...
-
9:30
Représenter la centralité marchande : la coloration marchande et ses usages
sur MappemondeLa centralité marchande est le potentiel marchand détenu par un lieu. Elle peut être générée par différents types de configurations spatiales (les modes de centralité). L’article propose de voir comment représenter graphiquement cette centralité, afin de bien appréhender ses dimensions qualitatives. Nous qualifions de coloration marchande la proportion entre les différents modes de centralité : l’outil graphique proposé repose sur la couleur, entendue comme élément facilitant de la compréhension des situations spatiales. L’utilisation d’un même procédé graphique permettra de mieux discerner potentiel marchand d’un espace et usages réels (les modes d’usages) de celui-ci. Cet outil devrait permettre une meilleure prise en compte de la diversité des situations marchandes dans la production des cadres de l’urbanisme commercial.
-
9:30
La géohistoire du royaume d’Abomey (1645-1894), dans le récit national et dans la formation territoriale du Bénin contemporain
sur MappemondeLa géohistoire du royaume d’Abomey, appuyé sur le groupe humain, la langue des Fon et sur la religion vaudou, couvre trois siècles et demi (1645 à 1894). Ce petit État-nation guerrier, esclavagiste, partenaire des négriers européens (Français, Portugais, Anglais, Danois), perd sa souveraineté à la fin du XIXe siècle, en intégrant la colonie française du Dahomey. Il abrite une des civilisations les plus brillantes de l’Afrique subsaharienne, qui fonde le soft power culturel (restitutions de l’art africain, mémoire de l’esclavage, constructions de musées, tourisme culturel), de l’actuelle République du Bénin.
-
11:55
La géo à Bourges Plus
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueConnaissez-vous le travail réalisé par le service SIG de la communauté d’agglomération de Bourges ? Notre rédaction a réalisé un reportage sur leur quotidien et la mise en place de Geobourgesplus.fr. L’occasion de découvrir l’importance de l’information géographique pour ceux qui vivent et travaillent sur ce territoire et du rôle d’appui technique que joue le SIG pour les agents de Bourges Plus. Ce reportage valorise tout particulièrement l’utilisation du SIG par les élus, avec Philippe Martin, maire-Adjoint spécial d'Asnières-les-Bourges, délégué au Numérique, dans la gestion du cycle de l’eau, la politique de la ville (NPNRU), avec Anne Cambianica, Médiatrice de projet à Bourges Plus, et la gestion des cimetières. Jean Cartier, directeur des Usages Numériques et systèmes d’Information, Jennifer Gangloff et Claudie Verchery présentent aussi les actions mises en place pour la formation et la communication autour du SIG.
Reportage réalisé par Xavier Fodor et Geoffrey Boyer.
+ d'infos :
carto.bourgesplus.fr/
-
14:30
Pourquoi les projets échouent-ils ?
sur Dans les algorithmesLe site ressource de l’école d’affaires de l’université de Colombie britannique est une mine d’or qui recense les catastrophes industrielles et documente d’exemples, leurs échecs. Il rappelle que les dépassements de calendriers et de budgets sont des symptômes plus que des causes de raisons plus profondes, erreurs et problèmes structurels, et que la prise de décision dysfonctionnelle est plus courante qu’on le pense. On y découvre, par exemple, que les 2 ans de retard dans la construction de l’Airbus A380 était dû au fait que les équipes de conception utilisaient 2 versions différentes du logiciel de conception. Le site recense 101 causes courantes de fiasco. Instructif.
-
7:30
Les enjeux de l’IA
sur Dans les algorithmesSur son blog, le prof de philo Serge Cospérec a traduit et adapté l’une des conférences vidéo de Melanie Mitchell, auteure de l’excellent Intelligence artificielle, triomphes et déceptions. C’est souvent clair, trop complet, plutôt pédagogique : 1, 2, 3, 4 et 5.
-
13:59
« Il nous reste environ 30 ans de numérique devant nous »
sur Dans les algorithmes« On devrait se poser sérieusement la question de ce qui va se passer quand les écrans s’éteindront et commencer à anticiper le monde d’après le numérique ». Corinne Morel Darleux.
-
13:17
NART’MUR
sur SIGMAG & SIGTV.FR - Un autre regard sur la géomatiqueNamur est une ville de StreetArt avec ses rues parées de fresques, de sculptures, de motifs ou de mobiliers inattendus. Entre les silhouettes de Pop Art, les personnalités de Wallonie, les pierres sculptées ou le banc géant, la ville a pour objectif de rendre accessible l’art au plus grand nombre. Cette démarche est accentuée depuis une dizaine d’années par le programme Namur Confluent Culture. La ville tente aussi d’interpeller le public et de lui faire découvrir à nouveau les lieux. Une carte interactive propose de fouiller dans la ville et de visualiser les oeuvres d’art proposées. Triés par StreetArt, sculptures, minisculptures de l’artiste espagnol Isaac Cordal et oeuvres de Kalbut, de l’artiste Maxime Gesquière, les points offrent des informations sur les éléments avec leurs adresses, leurs descriptions assez précises, des photos et des liens utiles. De quoi faire une chasse à l’oeuvre.
+ d'infos :
sig.ville.namur.be
-
7:30
Les agents IA arrivent
sur Dans les algorithmesCes dernières semaines, des avancées significatives ont été réalisées dans le domaine des agents IA capables d’utiliser des ordinateurs, des services web ou certaines de leurs fonctionnalités de manière autonome. Anthropic a lancé une fonction dédiée. OpenAI préparerait Operator et ChatGPT s’interface déjà avec des applications. Google travaillerait à Jarvis. L’enjeu est de faire sortir l’IA des fenêtres de discussion où elle est assignée, explique Dharmesh Shah, le cofondateur de HubSpot dans sa lettre d’information sur l’IA, Simple.ai. Désormais, elles vont pouvoir accomplir des actions concrètes, sans même avoir besoin d’API dédiées : ces agents vont pouvoir faire ce que chacun d’entre nous peut faire depuis un ordinateur (prendre un rendez-vous, commander quelque chose à notre place, interconnecter des services entre eux…). Pour les développeurs et entrepreneurs, cela signifie que les feuilles de routes de produits IA à venir doivent dès à présent intégrer ces nouvelles capacités, explique l’entrepreneur à ses pairs, qui a déjà lancé une plateforme d’agents IA, prêtes à l’emploi.
Dans sa newsletter, One Useful Thing, le professeur de management et d’innovation, Ethan Mollick, auteur du livre Co-Intelligence, analyse également la promesse des agents intelligents après avoir testé Claude, l’IA d’Anthropic. Que se passe-t-il quand on confie une souris à une IA ? Mollick a fait jouer Claude au jeu du trombone en lui demandant simplement de gagner. Pour Mollick, l’expérience illustre les forces et faiblesses des agents actuels. D’un côté, l’agent a été capable de jouer, de développer une stratégie et de l’exécuter. De l’autre, l’agent se montre facilement têtu, très sensible aux erreurs et au final peu perspicace. Il faut bien plus le guider que laisser en autonomie.
MAJ du 06/12/2024 : Sur son blog, Fred Cavazza revient également sur la nouvelle promesse de l’économie de l’agentivité… en rappelant qu’elle permet de renouveler la promesse des chatbots et de l’IA générative, en perte de vitesse. En faisant le point sur le paysage et ses acteurs, il en souligne également les limites. A savoir, que l’automatisation annoncée va nécessiter l’accord des plateformes et des applications pour que les robots puissent accéder aux services, ce qui n’est pas assuré. Ensuite, que malgré les promesses de simplification, pour l’instant, il n’est pas sûr que la programmation des agents se destine au grand public.
-
7:30
Réinventer le mérite
sur Dans les algorithmesNotre façon de mesurer le mérite est problématique. Dans son petit livre éponyme (Mérite, Anamosa, 2021), la sociologue Annabelle Allouch rappelait que celui-ci est d’abord un mode de justification de l’ordre social et des inégalités, dénonçant sa transformation en métrique qui masquent leurs biais sous leur fausse objectivité. Elle y invitait déjà à repolitiser le mérite. Dans Le talent est une fiction (JC Lattès, 2023), la neuroscientifiique Samah Karaki dénonçait à son tour la fiction du talent : “Croire que notre mérite découle de nos talents et de notre travail personnel encourage l’égoïsme, la discrimination et l’indifférence face au sort des autres”, écrivait-elle. Le philosophe Michael Sandel dans La tyrannie du mérite (Albin Michel, 2021) invitait également à le défaire notamment parce qu’il nous rend aveugle « aux causes et influences sociales qui échappent pourtant au contrôle individuel ».
Le mérite n’est pas unique. Or, la façon dont nous le promouvons, l’instrumentons tend à saper la diversité des talents dont nous avons besoin. Ces auteurs soulignent tous que la façon dont nous concevons et instrumentons le mérite ne fonctionne pas.
C’est également le constat que dresse le journaliste américain David Brooks dans un passionnant article fleuve pour The Atlantic : la méritocratie ne fonctionne plus, observe avec dépit le journaliste américain, en proposant des pistes particulièrement stimulantes pour la réinventer.
Image : l’article de David Brooks pour The Atlantic. La méritocratie, un idéal déçuDans son article, Brooks rappelle que jusque dans les années 50, l’idéal méritocratique était d’abord un idéal bourgeois qui s’appuyait sur la seule reproduction sociale des élites entre elles. C’était l’âge des privilèges sociaux, où les élèves des grandes universités élitaires n’étaient pas les meilleurs élèves du pays, mais les descendants des élites en place. C’est dans le recrutement universitaire que les choses ont bougé, notamment par l’influence de James Conant, président de Harvard de 1933 à 1953, qui a dénoncé cette « aristocratie héréditaire » et son « féodalisme industriel ». Conant a fait bouger les critères d’admission pour privilégier l’intelligence, révélée par la réussite scolaire. C’est lui qui va introduire des tests d’admission à Harvard qui vont devenir le SAT, cet examen standardisé utilisé par toutes les universités américaines. « En modifiant ainsi les critères d’admission, il espérait réaliser le rêve de Thomas Jefferson d’une aristocratie naturelle des talents, en sélectionnant les personnes les plus intelligentes de toutes les couches de la société. Conant voulait créer une nation avec plus de mobilité sociale et moins de conflits de classes ». Il incarnait une époque où les gens avaient une foi inébranlable dans les projets d’ingénierie sociale et la planification centralisée.
La société s’est très vite adaptée à cette « maximisation » du talent. L’école et l’université sont devenues des systèmes de tri, censés produire une classe dirigeante variée et diverse. « L’ère de l’homme bien élevé était révolue. L’ère de l’élite cognitive était arrivée. » L’effet a été transformateur, souligne Brooks. La société a changé. Les parents ont essayé de produire le type d’enfants qui pourraient entrer dans les universités sélectives, certains y arrivant tout de même mieux que d’autres, notamment ceux dotés eux-mêmes de diplômes, pratiquant une « culture concertée » comme l’explique la sociologue Annette Lareau dans son livre, Unequal Childhoods, c’est-à-dire en apportant à leurs enfants les activités qui sont valorisées par la sélection. Toute l’éducation s’est adaptée à cette évolution. Dans les écoles primaires et secondaires, les temps consacrés à la récréation, aux arts plastiques ou au bricolage ont été réduits…
Le problème, c’est que la maximisation de l’intelligence a eu des effets de bords. L’évaluation permanente conduit à orienter les élèves de plus en plus tôt. Alors que les élèves méritants sont canalisés vers les bonnes écoles, les autres, dès 9 ou 10 ans, savent déjà que l’école ne veut pas d’eux.
La structure des opportunités aux Etats-Unis a également évolué en regard. Il est devenu de plus en plus difficile d’obtenir un bon emploi si vous n’avez pas un diplôme universitaire, en particulier un diplôme d’une université d’élite. « Lorsque j’ai commencé dans le journalisme, dans les années 1980, des journalistes âgés de la classe ouvrière parcouraient encore les salles de rédaction. Aujourd’hui, le journalisme est une profession réservée presque exclusivement aux diplômés de l’université, en particulier de l’élite. Une étude de 2018 a révélé que plus de 50 % des rédacteurs du New York Times et du Wall Street Journal avaient fréquenté l’une des 34 universités ou collèges les plus prestigieux du pays. Une étude plus vaste, publiée dans Nature cette année, a examiné les meilleurs éléments de diverses professions – avocats, artistes, scientifiques, chefs d’entreprise et dirigeants politiques – et a constaté le même phénomène : 54 % avaient fréquenté les mêmes 34 institutions d’élite. » Les entreprises d’élites de la finance, du conseil ou du droit sont également obsédées par le recrutement de prestige, explique la sociologue Lauren Rivera, qui montre que passé une poignée d’écoles d’élites, elles, ne regardent plus les candidatures provenant d’ailleurs.Cette réforme méritocratique aurait dû conduire à un âge d’or à une société plus juste. Et c’est ce qui s’est en partie passé. La classe dirigeante américaine est devenue plus diversifiée et plus intelligente. « Mais nous n’avons pas produit une relation plus saine entre notre société et ses élites ». Nombre de diplômés de ces écoles ont mis leur talent au service d’un emploi bien rémunéré. Certes, cette élite a produit le New Deal, la paix et la prospérité américaine, mais elle a aussi produit les bourbiers militaires, la crise financière, l’essor des réseaux sociaux toxiques et notre actuel dysfonctionnement politique, estime Brooks. « Aujourd’hui, 59 % des Américains pensent que le pays est en déclin, 69 % pensent que l’élite politique et économique ne se soucie pas des travailleurs, 63 % pensent que les experts ne comprennent pas leur vie et 66 % pensent que l’Amérique a besoin d’un dirigeant fort pour reprendre le pays aux riches et aux puissants », estime une enquête Ipsos sur le populisme. En bref, sous la direction de notre classe méritocratique actuelle, la confiance dans les institutions a chuté au point que « une grande masse d’électeurs a fait un gros doigt d’honneur aux élites en votant pour Donald Trump ».
Les 6 péchés capitaux de la méritocratieBrooks confesse qu’il a passé une grande partie de sa vie à fréquenter cette élite et à enseigner dans ces universités d’élites. « Ce sont des institutions impressionnantes remplies de personnes impressionnantes », mais qui restent coincées dans le système que Conant a mis en place avant les années 50. Nous sommes prisonniers de ce système de tri. « Les étudiants ne peuvent pas se concentrer sur les matières académiques qui les passionnent, car les dieux de la moyenne générale exigent qu’ils aient toujours des A partout ». Le piège sélectif s’est refermé sur chacun.
Pour David Brooks, la méritocratie est coincée dans ses 6 péchés capitaux qui en pointent les contradictions insolubles :
1. Le système surestime l’intelligence et ses indicateurs spécifiques, qu’ils aient la forme de tests standardisés ou de tests de QI. « Le QI – malgré toutes ses déficiences – est devenu la mesure non pas de ce que vous faites, mais de qui vous êtes », explique l’historien Nathaniel Comfort. Certes, l’intelligence est importante, mais elle ne fait pas tout. Une étude sur les jeunes mathématiciens précoces, à 12 ou 13 ans, montre que leurs résultats sont corrélés à une plus forte probabilité d’obtenir des doctorats ou de déposer des brevets. Cependant, l’intelligence est moins signifiante qu’on le pense. A partir des années 1920, le psychologue Lewis Terman – qui est l’un des inventeurs du test de QI – et ses collègues de Stanford ont suivi environ 1500 enfants à QI élevé tout au long de leur vie. Le groupe a obtenu 97 doctorats, 55 doctorats en médecine et 92 diplômes en droit… Mais aucun génie n’est sorti du groupe. Ces jeunes gens brillants ont occupé des emplois parfaitement respectables en tant que médecins, avocats et professeurs, mais il n’y a pas eu de figures transformatrices, pas de changeurs de monde ou de lauréats du prix Nobel. Les jeunes prodiges ne sont pas devenus des adultes prodiges. Comme l’a conclu le journaliste scientifique Joel Shurkin, qui a écrit un livre sur l’étude Terman, le QI ne mesure pas la créativité. En 2019, les chercheurs de l’université Vanderbilt ont étudié 677 personnes dont les scores SAT à 13 ans les situaient dans le top des 1%. 12% de ces adolescents ont atteint une « éminence » (c’est-à-dire le fait d’atteindre le sommet dans son domaine, comme de devenir professeur dans une grande université, PDG d’une entreprise Fortune 500, juge, écrivain primé…) dans leur carrière à 50 ans. C’est un pourcentage important, mais cela signifie que 88% d’entre eux n’ont pas atteint ce niveau de réussite. Faire passer un test standardisé à quelqu’un permet d’apprendre quelque chose d’important sur lui, mais ne permet pas de faire une prédiction sur le fait qu’il contribuera utilement à la société.
« L’intelligence n’est pas la même chose que l’efficacité », rappelle Brooks. Le psychologue cognitif Keith E. Stanovich a inventé le terme de dysrationalité pour décrire le phénomène qui conduit des personnes intelligentes à prendre des décisions stupides ou irrationnelles. « Être intelligent ne signifie pas que vous êtes prêt à essayer des points de vue alternatifs, ou que vous êtes à l’aise avec l’incertitude, ou que vous pouvez reconnaître vos propres erreurs. Cela ne signifie pas que vous avez une vision claire de vos propres préjugés. En fait, les personnes à haut QI sont peut-être meilleures que les autres pour se convaincre que leurs propres opinions erronées sont vraies », cingle Brooks.
2. La réussite scolaire n’est pas la même chose que la réussite dans la vie… notamment parce que l’école n’est pas vie. « La réussite scolaire consiste à franchir les obstacles que les adultes mettent devant vous quand la réussite dans la vie implique surtout de tracer sa propre voie ». À l’école, une grande partie de la réussite est individuelle. Dans la vie, les réussites sont souvent bien plus collectives et nécessitent de savoir travailler à plusieurs, ce que les tests évaluent assez mal. « Les notes révèlent qui est persévérant, autodiscipliné et docile, mais elles ne révèlent pas grand-chose sur l’intelligence émotionnelle, les compétences relationnelles, la passion, la capacité de leadership, la créativité ou le courage ». Le mérite est non sequitur. Les étudiants sont classés dans un domaine, puis on les place dans des domaines qui ont peu à voir avec ce pour quoi ils ont été entraînés. Pour le psychologue Adam Grant, « l’excellence académique n’est pas un bon indicateur de l’excellence professionnelle. Dans tous les secteurs, les recherches montrent que la corrélation entre les notes et les performances professionnelles est modeste la première année après l’université et insignifiante au bout de quelques années », expliquait-il dans une tribune pour le New York Times. Dans une étude portant sur 28 000 jeunes étudiants, ceux qui fréquentaient des universités de rang supérieur n’ont obtenu des résultats professionnels dans le conseil que très légèrement supérieurs à ceux qui fréquentaient des universités de rang inférieur. Pire, les étudiants des universités et collèges les mieux classés, étaient plus susceptibles de ne pas accorder suffisamment d’attention aux relations interpersonnelles et, dans certains cas, d’être « moins amicaux », « plus enclins aux conflits » et « moins susceptibles de s’identifier à leur équipe ». Enfin, souligne Brooks, à l’ère de l’IA, qui est déjà capable de rédiger des articles permettant d’obtenir un A à Harvard, ces étudiants ont désormais des talents qui pourraient bientôt se révéler obsolètes.
3. La méritocratie est truquée. Elle ne trie pas les gens selon leurs capacités innées, mais prend en compte la richesse de leurs parents, notamment parce que les parents aisés investissent très massivement dans l’éducation de leurs enfants pour qu’ils puissent gagner la course aux admissions. Selon le professeur de droit Daniel Markovits, auteur de The Meritocracy Trap, les familles plus riches consacrent énormément d’argent à l’éducation de leurs enfants. Les étudiants issus de familles appartenant au 1% des plus riches, ont 77 fois plus de chances de fréquenter une université d’élite que les étudiants de familles gagnant 30 000 dollars par an. Un enfant de 3 ans qui grandit avec des parents gagnant plus de 100 000 dollars par an a environ deux fois plus de chances d’aller à l’école maternelle qu’un enfant de 3 ans dont les parents gagnent moins de 60 000 dollars. Et ces écarts se sont creusés de 40 à 50% au cours des dernières décennies. Selon les données des résultats d’admissions les plus récents, au moment où les étudiants postulent à l’université, les enfants de familles gagnant plus de 118 000 dollars par an obtiennent 171 points de plus au SAT que les étudiants de familles gagnant entre 72 000 et 90 000 dollars par an, et 265 points de plus que les enfants de familles gagnant moins de 56 000 dollars. Comme l’a noté Markovits, l’écart académique entre les riches et les pauvres est plus grand que l’écart académique entre les étudiants blancs et noirs dans les derniers jours des lois instituant la ségrégation raciale américaine. Conant imaginait un monde où les universités ne seraient pas seulement pour les enfants des riches, rappelle Brooks. Ce n’est plus le cas. Les écoles d’élites se sont refermées sur les enfants riches. En 1985, selon l’écrivain William Deresiewicz, 46 % des étudiants des 250 universités les plus sélectives venaient du quart supérieur de la distribution des revenus. En 2000, ce chiffre était de 55 %. En 2006, il était de 67 %.
La méritocratie intellectuelle a « rétabli l’ancienne hiérarchie fondée sur la richesse et le statut social ». « Mais les nouvelles élites ont une plus grande arrogance, car elles croient que leur statut a été gagné par le travail acharné et le talent plutôt que par la naissance ». Elles ont le sentiment qu’elles méritent leur succès, qu’elles ont obtenu le droit d’en tirer les fruits. Le talent n’est pas aussi inné qu’on l’a longtemps pensé. Le talent comme l’effort, comme l’a observé le professeur de droit Joseph Fishkin n’est pas isolé des circonstances de naissances.
4. La méritocratie a créé un système de castes. « Après des décennies de ségrégation cognitive, un gouffre sépare les personnes instruites des moins instruites ». « Le diplômé du secondaire moyen gagnera environ 1 million de dollars de moins au cours de sa vie que le diplômé moyen d’un cursus universitaire de quatre ans. La personne moyenne sans diplôme universitaire de quatre ans vit environ huit ans de moins que le diplômé moyen d’un cursus universitaire de quatre ans. Trente-cinq pour cent des diplômés du secondaire sont obèses, contre 27 pour cent des diplômés d’un cursus universitaire de quatre ans. Les diplômés du secondaire ont beaucoup moins de chances de se marier, et les femmes diplômées du secondaire ont environ deux fois plus de chances de divorcer dans les dix ans suivant leur mariage que les femmes diplômées de l’université. Près de 60 pour cent des naissances chez les femmes diplômées du secondaire ou moins surviennent hors mariage, ce qui est environ cinq fois plus élevé que le taux des femmes titulaires d’au moins une licence. Le taux de mortalité par opioïdes chez les personnes titulaires d’un diplôme du secondaire est environ dix fois plus élevé que chez celles titulaires d’au moins une licence. » Les écarts sociaux sont plus forts que jamais. « Selon une étude de l’American Enterprise Institute, près d’un quart des personnes ayant un diplôme d’études secondaires ou moins déclarent ne pas avoir d’amis proches, alors que seulement 10 % de celles ayant un diplôme universitaire ou plus le disent. Ceux dont l’éducation ne s’étend pas au-delà du lycée passent moins de temps dans les espaces publics, moins de temps dans les groupes de loisirs et les ligues sportives. Ils sont moins susceptibles d’accueillir des amis et de la famille chez eux. » Pire, souligne Brooks, les avantages d’une éducation supérieure d’élite se multiplient au fil des générations. « Des parents aisés et bien éduqués se marient entre eux et confèrent leurs avantages à leurs enfants, qui vont ensuite dans des universités prestigieuses et épousent des personnes comme eux. Comme dans toutes les sociétés de castes, la ségrégation profite aux ségrégateurs. Et comme dans toutes les sociétés de castes, les inégalités impliquent des inégalités non seulement de richesse mais aussi de statut et de respect. » La méritocratie dans son ensemble est un système de ségrégation. Et cette ségrégation par l’éducation a tendance à se superposer à la ségrégation par la race et à y contribuer, un problème qui ne fait que s’aggraver depuis la disparition de la discrimination positive en 2023. Les Noirs constituent environ 14 % de la population américaine, mais seulement 9 % de la classe de première année actuelle de Princeton. En 2024, le MIT a constaté que le nombre de Noirs dans sa classe de première année est passé de 15 % à 5 %.
Depuis environ 50 ans, l’élite cognitive s’est retirée de l’engagement avec le reste de la société américaine. Depuis 1974 environ, comme l’a noté la sociologue de Harvard Theda Skocpol, les Américains diplômés de l’enseignement supérieur ont quitté les organisations sociales où ils côtoyaient les personnes des classes sociales peu éduquées pour rejoindre des organisations où ils se côtoient seulement entre eux. Les classes sociales se sont contractées et se sont refermées sur elles-mêmes, comme l’explique le journaliste David Goodhart dans son livre La tête, la main et le cœur qui dénonce la toute puissance d’une classe cognitive, avec des conséquences sociales délétères : une désillusion massive parmi la jeunesse diplômée et une frustration chez celle qui ne l’est pas.
5. La méritocratie a endommagé la psyché de l’élite américaine. « La méritocratie est un gigantesque système de récompenses extrinsèques. Ses gardiens – les éducateurs, les recruteurs d’entreprise et les superviseurs sur le lieu de travail – imposent une série d’évaluations et d’obstacles aux jeunes. Les étudiants sont formés pour être de bons franchisseurs d’obstacles ». Nous couvrons d’approbation ou de désapprobation ceux qui franchissent ou pas les obstacles des admissions. Ceux qui ne réussissent pas à franchir les critères sociaux que nous avons mis en place s’effondrent. Certains jeunes sont submergés par la pression qui s’impose à eux. D’autres apprennent à trouver les astuces pour franchir les obstacles. « Les personnes élevées dans ce système de tri ont tendance à devenir réticentes au risque, consumées par la peur qu’un seul échec les fasse chuter définitivement ». La réussite professionnelle est devenue le seul critère du jeu.
6. Mais surtout, explique Brooks, cette « méritocratie a provoqué une réaction populiste qui déchire et fracture la société ». Le psychologue Robert Rosenthal et la directrice d’école Leonore Jacobson ont étudié dans les années 60 « l’effet Pygmalion » montrant que les enseignants se comportent différemment envers les élèves qu’ils considèrent comme intelligents. Des années de recherche ont montré qu’ils sourient et hochent la tête plus souvent à ces enfants, leur offrent plus de commentaires, leur accordent plus de temps pour poser des questions… Les autres par contre, eux, se rendent vite compte que ce système n’est pas pour eux. « Beaucoup de personnes qui ont perdu la course au mérite ont développé un mépris pour l’ensemble du système et pour les personnes qu’il élève. Cela a remodelé la politique nationale. Aujourd’hui, la fracture politique la plus importante se situe au niveau de l’éducation : les personnes moins instruites votent républicain, et les personnes plus instruites votent démocrate ». En 1960, John F. Kennedy a perdu le vote des diplômés universitaires blancs par deux contre un et est arrivé à la Maison Blanche grâce à la classe ouvrière. En 2020, Joe Biden a perdu le vote de la classe ouvrière blanche par deux contre un et est arrivé à la Maison Blanche grâce aux diplômés de l’enseignement supérieur. Le problème, c’est que des dirigeants populistes exploitent et rallient désormais les moins instruits et les déclassés, à l’image de Trump. « Ces dirigeants comprennent que la classe ouvrière en veut plus à la classe professionnelle qui sait tout et qui a de beaux diplômes qu’aux magnats de l’immobilier milliardaires ou aux riches entrepreneurs. Les dirigeants populistes du monde entier se livrent à des exagérations grossières, à des généralisations grossières et à des mensonges éhontés, tous destinés à dire à la classe instruite, en substance : « Allez vous faire foutre ! » »
« Lorsque le niveau de revenu est la division la plus importante d’une société, la politique est une lutte pour savoir comment redistribuer l’argent. Lorsque la société est davantage divisée par l’éducation, la politique devient une guerre de valeurs et de culture ». « Dans un pays après l’autre, les gens diffèrent en fonction de leur niveau d’éducation sur l’immigration, les questions de genre, le rôle de la religion sur la place publique, la souveraineté nationale, la diversité et la confiance que l’on peut accorder aux experts pour recommander un vaccin. »
« Alors que les électeurs de la classe ouvrière se sont déplacés vers la droite, le progressisme est devenu un signal élitaire ». En 2023, 65 % des étudiants de dernière année de Harvard, l’école la plus riche du monde, se sont identifiés comme progressistes ou très progressistes.
« James Conant rêvait de construire un monde de mélange de classes et de courtoisie sociale ; nous nous sommes retrouvés avec un monde de lignes de castes rigides et de guerre culturelle et politique à tous les étages. Conant rêvait d’une nation dirigée par des dirigeants brillants. Nous nous sommes retrouvés avec le président Trump. »
Comment changer la méritocratie ?Régulièrement, des gens de gauche proposent de démanteler la méritocratie actuelle, de se débarrasser des admissions sélectives, proposent que les écoles aient toutes les mêmes ressources… Mais pour Brooks, c’est peut-être oublier que toutes les sociétés humaines ont été hiérarchisées, même la Russie soviétique et la Chine maoïste. « Ce qui détermine la santé d’une société n’est pas l’existence d’une élite, mais l’efficacité de l’élite, et le fait que les relations entre les élites et tous les autres soient mutuellement respectueuses. »
« Nous devons toujours trouver et former les personnes les mieux équipées pour devenir des physiciens nucléaires et des chercheurs en médecine. Si la méritocratie américaine ne parvient pas à identifier les plus grands jeunes génies et à les former dans des universités comme Caltech et MIT, la Chine – dont la méritocratie utilise depuis des milliers d’années des tests standardisés pour sélectionner les plus brillants – pourrait nous dépasser dans la fabrication de puces électroniques, l’intelligence artificielle et la technologie militaire, entre autres domaines. Et malgré tous les défauts du système éducatif américain, nos universités d’élite font de la recherche pionnière, génèrent des avancées considérables dans des domaines tels que la biotechnologie, propulsent des étudiants brillants dans le monde et stimulent une grande partie de l’économie américaine. Nos meilleures universités continuent de faire l’envie du monde. »
« Le défi n’est pas de mettre fin à la méritocratie », estime Brooks, « mais de l’humaniser et de l’améliorer ». Un certain nombre d’événements récents rendent cette tâche encore plus urgente – tout en rendant peut-être le moment politiquement propice à une vaste réforme (ou à son délitement dans une idiocratie qui pourrait être le point terminal de la méritocratie, pourrait-on ajouter, dans une perspective plus pessimiste).
Tout d’abord, la fin de la discrimination positive par la Cour suprême a limité la capacité des universités à accueillir des étudiants issus de milieux moins favorisés, estime Brooks. Désormais, pour intégrer des enfants de milieux sous-représentés, elles devront trouver de nouveaux moyens d’y parvenir. Deuxièmement, la concurrence intellectuelle de l’IA nécessite de trouver la manière pour détecter et former les personnes créatives, capables de faire ce que l’IA ne sait pas faire. Enfin, les universités sont confrontées à une crise de valeur lié au conflit Israélo-Palestinien que les Républicains instrumentisent pour intensifier leur guerre contre l’enseignement supérieur. Pour Brooks, cela invite les universités à reposer leurs principes et leurs valeurs. Enfin, le déclin démographique oblige les universités à réformer et réinventer leurs modalités d’inscriptions pour ne pas devenir exsangues.
Mais la première étape consiste à changer la définition du mérite. Nous devons trouver les moyens d’élargir la définition de Conant. Et Brooks de proposer de commencer par pointer les limites de la définition. « Lui et ses pairs travaillaient à une époque où les gens étaient optimistes quant à la possibilité de résoudre les problèmes sociaux grâce à l’application rationnelle des connaissances dans des domaines tels que les statistiques, l’économie, la psychologie, la théorie de la gestion et l’ingénierie. Ils admiraient les techniciens qui valorisaient la quantification, l’objectivation, l’optimisation et l’efficacité. Ils avaient une grande foi dans la puissance cérébrale brute et ont naturellement adopté une vision rationaliste de l’être humain : la raison est distincte des émotions. » Le problème, c’est que l’ingénierie sociale et ses planifications rationalistes, des grands ensembles sociaux à la planification économique, ont échoué. « Et ils ont échoué pour la même raison : les rationalistes partaient du principe que tout ce qui ne peut être compté et mesuré n’a pas d’importance. Ce n’est pas le cas. Les plans rationalistes échouent parce que la vie est trop complexe pour leurs méthodes de quantification. »
Dans L’Oeil de l’Etat, l’anthropologue James C. Scott raconte l’industrialisation de la forêt allemande et son échec. En cherchant à éliminer le désordre organique de la forêt, le cycle nutritif des arbres s’est déréglé. « En se concentrant uniquement sur les parties de la forêt qui semblaient essentielles à leurs usages, les planificateurs n’ont pas réussi à voir la forêt dans sa globalité. En essayant de standardiser et de contrôler le processus de croissance, les planificateurs ont en fait assassiné les arbres. »
« La méritocratie moderne méconnaît les êtres humains de la même manière que les rationalistes allemands méconnaissaient les arbres ». Pour rendre les gens lisibles par le système de tri, les chercheurs établissent une distinction entre ce qu’ils appellent les compétences « cognitives » et « non cognitives » (on dirait plutôt entre compétences académiques, mesurées par les résultats scolaires et les autres, NDT). Les compétences cognitives sont les compétences « dures » qui peuvent être facilement mesurées, comme le QI et les résultats à un test d’algèbre. Les compétences non cognitives sont des choses plus floues et plus difficiles à quantifier, comme la flexibilité émotionnelle, le courage, l’agilité sociale et les qualités morales (et ce sont aussi des compétences cognitives, rappelle bien sûr Brooks). « Ce que cette méthode de catégorisation révèle, c’est à quel point les rationalistes se soucient peu des capacités qui vont au-delà du QI ». La méritocratie moderne traite ce qui ne relève pas du QI ou de ses substituts, comme les résultats scolaires, comme négligeables, alors que ces autres compétences sont certainement plus essentielles qu’on ne le pense. « Avoir un processeur mental rapide est une bonne chose, mais d’autres traits peuvent jouer un rôle plus important pour déterminer votre contribution à la société : Faites-vous des efforts ? Pouvez-vous établir des relations ? Êtes-vous curieux ? Êtes-vous digne de confiance ? Comment réagissez-vous sous pression ? » En ne regardant que les résultats scolaires, la méritocratie actuelle semble favoriser certaines formes de personnalités sur d’autres, à savoir des personnalités plus égocentriques, plus manipulatrices, plus imbues d’elles-mêmes.
Pourtant, les caractéristiques non cognitives sont manifestes. L’économiste Raj Chetty et ses collègues ont tenté de comprendre ce qui caractérise les bons enseignants par exemple. Ce qui les distingue, c’est qu’ils semblent transmettre plus efficacement des compétences générales, comme s’entendre avec les autres, rester concentré. « Les chercheurs ont découvert que ces compétences générales, lorsqu’elles sont mesurées vers 9-10 ans, sont 2,4 fois plus importantes que les résultats en mathématiques et en lecture pour prédire le revenu futur d’un élève ». L’expert en leadership organisationnel Mark Murphy a découvert quelque chose de similaire lorsqu’il a étudié les raisons pour lesquelles les gens sont licenciés. Dans son ouvrage Hiring for Attitude, Murphy indique que seulement 11 % des personnes qui ont échoué dans leur travail (c’est-à-dire qui ont été licenciées ou ont obtenu une mauvaise évaluation de performance) l’ont été à cause d’un manque de compétences techniques. Pour les 89 % restants, les échecs étaient dus à des traits sociaux ou moraux qui ont affecté leur performance au travail (humeur maussade, difficulté à être coaché, faible motivation, égoïsme…). Ils ont échoué parce qu’ils manquaient des compétences non cognitives adéquates. Près de 50% des recrues démissionnent ou sont remerciées dans les 18 mois suivant leur embauche. Les effets du défaut de compétences non cognitives est cataclysmique.
« Pourquoi avons-nous une vision si déformée et incomplète de ce qui constitue les capacités humaines ? »
Les 4 qualités d’une méritocratie humaniste« Pour repenser la méritocratie, nous devons prendre davantage en compte ces caractéristiques non cognitives », estime Brooks. « Nous devons cesser de traiter les gens comme des cerveaux sur un bâton et prêter davantage attention à ce qui les motive ».
Pour Leslie Valiant, professeur d’informatique à Harvard et spécialiste de la cognition, ce qui compte le plus pour le progrès humain n’est pas l’intelligence mais l’éducabilité, c’est-à-dire la capacité à apprendre de l’expérience. C’est là le cœur des qualités que nous devrions chercher à développer pour une méritocratie humaniste.
Pour Brooks, il faudrait redéfinir le mérite autour de 4 qualités cruciales :
- La curiosité. Les enfants naissent curieux, rappelle-t-il. Une étude d’observation a noté que les enfants entre 14 mois et 5 ans posaient en moyenne 107 questions par heure… puis ils vont à l’école et n’en posent plus. La psychologue Susan Engel, dans son livre, The Hungry Mind a montré qu’en maternelle les enfants exprimaient leur curiosité seulement 2,4 fois toutes les 2 heures de cours. A 10-11 ans, ce chiffre tombe à 0,48 fois. La productivité que l’on demande à l’enseignement empêche les élèves de poser des questions. « Notre méritocratie actuelle décourage la curiosité au profit d’une simple accumulation de contenu dans le but d’améliorer les résultats aux tests ». Le problème, c’est que lorsque les enfants ont perdu leur curiosité, vers l’âge de 11 ans, estime Engel, ils ont tendance à rester incurieux pour le reste de leur vie. Dans son étude sur les grandes personnalités de l’histoire, le psychologue Frank Barron estime que la curiosité constante est essentielle à leur réussite, c’est elle qui les aide à rester « flexibles, innovants et persévérants ». Notre système méritocratique encourage les gens à se concentrer étroitement sur les tâches cognitives, mais la curiosité exige du jeu et du temps libre non structuré. Si vous voulez comprendre à quel point quelqu’un est curieux, regardez comment il passe son temps libre, comme le recommandent dans leur livre, Talent : How to Identify Energizers, Creatives, and Winners Around the World, le capital-risqueur Daniel Gross et l’économiste Tyler Cowen.
- Un sens de la motivation et de la mission. Alors qu’il était emprisonné dans les camps de concentration nazis, le psychiatre autrichien Viktor Frankl remarqua que ceux qui survivaient le plus longtemps étaient des personnes qui s’étaient engagés. Comme il le montra dans son livre Découvrir un sens à sa vie (1988), la vie avait un sens pour eux, avant les camps, et ce sentiment les a soutenus dans les circonstances les plus déshumanisantes qui soient. Les personnes qui ont une perception du sens de la vie ou d’un engagement vont là où se trouvent les problèmes, estime Brooks. Certaines personnes sont motivées par des émotions morales, comme l’indignation face à l’injustice, la compassion pour les faibles, l’admiration pour un idéal. « Elles ont un fort besoin d’une vie qui ait un sens, le sentiment que ce qu’elles font compte vraiment ». Ce sentiment transcendant, cette cause qu’ils portent et les dépasse, les pousse à aller de l’avant et leur donne une cohérence interne.
- L’intelligence sociale. Lorsque Boris Groysberg, professeur de comportement organisationnel à la Harvard Business School, a examiné les carrières de centaines de spécialistes de l’investissement qui avaient quitté une société financière pour travailler dans une autre, il a Il a découvert quelque chose de surprenant : « Dans l’ensemble, les performances professionnelles de ceux qui ont changé d’entreprises ont chuté de manière spectaculaire et ils ont continué à souffrir pendant au moins cinq ans après avoir changé d’entreprise », explique-t-il dans Chasing Stars : The Myth of Talent and the Portability of Performance. Ces résultats suggèrent que parfois, le talent est inhérent à l’équipe, pas à l’individu. Dans une méritocratie efficace, nous voudrions trouver des personnes qui sont de fantastiques bâtisseurs d’équipe, qui ont d’excellentes compétences en communication et en cohésion. En sport, les facilitateurs sont des joueurs qui ont une capacité ineffable à rendre une équipe plus grande que la somme de ses parties. Pour l’économiste David Deming, ces compétences sociales sur le lieu de travail sont un fort prédicateur de la réussite professionnelle. Des recherches ont montré que ce qui rend certaines équipes spéciales n’est pas principalement l’intelligence de ses membres les plus intelligents, mais plutôt la façon dont ses dirigeants écoutent, la fréquence à laquelle ses membres prennent la parole, la façon dont ils s’adaptent aux mouvements des autres, la façon dont ils construisent la réciprocité.
- L’agilité. Dans des situations chaotiques, la puissance cérébrale brute peut être moins importante que la sensibilité de perception. Les grecs parlaient de la métis ou ruse de l’intelligence pour désigner cette capacité à synthétiser tous les aspects d’une situation pour la comprendre, une forme d’agilité qui permet l’anticipation. Les tests SAT comme l’apprentissage par les connaissances ne permettent pas d’acquérir cette capacité prédictive. Le psychologue et politologue de l’Université de Pennsylvanie Philip E. Tetlock a découvert que les experts sont généralement très mauvais pour faire des prédictions sur les événements futurs. En fait, il a découvert que plus l’expert est éminent, moins ses prédictions sont précises. Tetlock explique que cela est dû au fait que les opinions des experts sont trop figées : ils utilisent leurs connaissances pour soutenir des points de vue erronés. Les personnes agiles, au contraire, peuvent changer d’état d’esprit et expérimenter des perspectives alternatives jusqu’à ce qu’elles trouvent celle qui s’applique le mieux à une situation donnée. L’agilité vous aide à prendre de bonnes décisions en temps réel. Le neuroscientifique John Coates était un trader financier. Pendant les poussées haussières des marchés qui ont précédé les gros krachs, Coates a remarqué que les traders qui ont ensuite subi d’énormes pertes étaient devenus trop confiants. L’émotion fausse leur jugement, explique Coates dans The Hour Between Dog and Wolf. Ceux qui évitent les pertes dans ces situations ne sont pas ceux qui ont un meilleur QI, mais ceux qui sont capables de comprendre la signification des émotions qui les saisissent. Comme l’explique Leonard Mlodinow dans son livre Emotional: How Feelings Shape Our Thinking, « le contrôle et la connaissance de son état émotionnel sont ce qui est le plus important pour la réussite professionnelle et personnelle ».
Si nous pouvons orienter notre méritocratie autour d’une définition des capacités humaines qui prend davantage en compte des traits tels que la motivation, la générosité, la sensibilité et la passion, alors nos écoles, nos familles et nos lieux de travail se réajusteront de manière fondamentale veut croire David Brooks.
Dans leur livre, In Search of Deeper Learning, les spécialistes de l’éducation Jal Mehta et Sarah Fine ont montré que dans bon nombre d’écoles, la plupart des élèves passent la majeure partie de leur journée à s’ennuyer, à se désintéresser et à ne pas apprendre. Mehta et Fine n’ont pas constaté beaucoup d’engagement passionné dans les salles de classe. Mais ils les ont observé dans les cours optionnels : le club de théâtre et autres activités parascolaires. Dans ces activités là, les élèves dirigeaient leur propre apprentissage, les enseignants faisaient office de coachs et les progrès étaient réalisés en groupe. Les élèves avaient plus d’autonomie et ressentaient un sentiment d’appartenance et de communauté.
« Plusieurs types d’écoles essaient de faire en sorte que la journée entière ressemble davantage à des activités parascolaires – où la passion est éveillée et le travail d’équipe est essentiel. Certaines de ces écoles sont centrées sur « l’apprentissage par projet », dans lequel les élèves travaillent ensemble sur des projets du monde réel. Les relations professeur-étudiant dans ces écoles ressemblent davantage à celles d’un maître et d’un apprenti qu’à celles d’un professeur et d’un auditeur. Pour réussir, les élèves doivent développer des compétences de leadership et de collaboration, ainsi que des connaissances bien sûr. Ils apprennent à se critiquer les uns les autres et à échanger des commentaires. Ils s’enseignent les uns aux autres, ce qui est une manière puissante d’apprendre. » Dans leur livre, Mehta et Fine documentent ces écoles que l’on retrouve également dans le documentaire Most Likely to Succeed et soulignent que dans ces programmes d’apprentissage par projets, les élèves ont plus d’autonomie. Ces écoles permettent aux élèves de faire des erreurs, de se sentir perdus et en difficulté, un sentiment qui est le prédicat de la créativité. « L’échec occasionnel est une caractéristique de cette approche ; elle cultive la résilience, la persévérance et une compréhension plus profonde. Les élèves font également l’expérience de la maîtrise et de la confiance en soi qui accompagne une réussite tangible ».
« Plus important encore, les élèves apprennent à s’engager pleinement dans un projet avec d’autres. Leurs journées d’école ne sont pas consacrées à la préparation d’examens standardisés ou à des cours magistraux, ce qui stimule leur curiosité, et non l’éteint ». Pour Brooks, cet apprentissage par projet nécessite bien sûr d’investir dans la formation des enseignants. Les données suggèrent en tout cas que les élèves de ces écoles ont tendance à réussir mieux que leurs pairs, même aux tests standardisés, et sans passer tout leur temps à s’y préparer.
« Construire un système scolaire axé sur la stimulation de la curiosité, de la passion, de la générosité et de la sensibilité nous obligera à changer la façon dont nous mesurons les progrès des élèves et repérons leurs capacités. Aujourd’hui, nous vivons dans un monde de cours magistraux et de relevés de notes : mais un relevé de notes ne vous dit pas si un élève peut mener un dialogue avec les autres, ou s’il est ouvert ou fermé d’esprit ».
Aux Etats-Unis, quelques 400 lycées font désormais partie d’une organisation appelée Mastery Transcript Consortium, qui utilise des mécanismes d’évaluation alternatifs. Alors qu’un bulletin scolaire standard indique ce qu’un élève sait par rapport à ses camarades de classe à une date donnée, le relevé de maîtrise montre avec beaucoup plus de précision dans quelle mesure l’élève a progressé vers la maîtrise d’un domaine de contenu ou d’un ensemble de compétences donné. Le rapport de maîtrise comprend également des compétences de vie plus larges : quel élève est bon dans l’établissement de relations, qui est bon dans les solutions créatives…
« Aucune évaluation ne peut à elle seule prédire parfaitement le potentiel d’une personne. Le mieux que nous puissions faire est de combiner des techniques d’évaluation ». Notes, portfolios de réalisations de projets, tests de mesures de compétences non cognitives, comme l’échelle de courage imaginée par la psychologue Angela Duckworth, le questionnaire de caractère moral, les évaluations d’apprentissage social et émotionnel, l’indicateur de trait à haut potentiel…
L’enjeu est de comprendre les personnalités, pas de les classer, estime Brooks. En Australie, par exemple, certaines écoles utilisent le Big Picture Learning Credential, qui évalue les traits que les étudiants ont développés en classe et en dehors : compétences en communication, définition d’objectifs, responsabilité, conscience de soi.. La création d’un réseau de centres d’évaluation indépendants dans ce pays qui utilisent de tels outils pourraient aider les étudiants à trouver l’université ou le programme de formation le mieux adapté à leurs intérêts fondamentaux. Ces centres pourraient aider les responsables des admissions à l’université à trouver les étudiants qui conviennent à leur établissement. Ils pourraient aider les employeurs à trouver les bons candidats. En bref, ils pourraient aider tous les membres de la méritocratie à prendre des décisions plus éclairées.
« Ces méthodes d’évaluation seraient inévitablement moins « objectives » qu’un score au SAT, mais c’est en partie là que réside l’intérêt. Notre système actuel est construit autour de la standardisation. Ses concepteurs voulaient créer un système dans lequel tous les êtres humains pourraient être placés sur une seule échelle, soigneusement disposés le long d’une seule courbe en cloche ». Comme l’écrit le spécialiste de l’éducation Todd Rose dans The End of Average, le système méritocratique actuel est construit sur « l’hypothèse paradoxale selon laquelle on peut comprendre les individus en ignorant leur individualité ». L’ensemble du système dit aux jeunes : « Vous devriez être comme tout le monde, mais en mieux ». La réalité est qu’il n’existe pas d’échelle unique que nous puissions utiliser pour mesurer le potentiel humain ou la capacité à diriger efficacement. Nous avons besoin d’un système d’évaluation qui valorise l’individu d’une manière plus complète et plus diverse qu’un relevé de notes. Les gardiens d’une méritocratie plus efficace ne se poseraient pas seulement les questions « Devrions-nous accepter ou rejeter ce candidat ? » ou « Qui sont les meilleurs ? » mais d’abord « En quoi chaque personne est-elle excellente et comment pouvons-nous l’amener à un poste approprié ? »
Pour améliorer et rendre plus juste la méritocratie, nous devons combiner ces mesures avec une refonte de ce que Joseph Fishkin appelle la « structure des opportunités ». À l’heure actuelle, la structure des opportunités de l’Amérique est unitaire. Pour atteindre des sommets, il faut obtenir d’excellentes notes au lycée, obtenir de bons résultats aux tests standardisés, aller à l’université et, dans la plupart des cas, obtenir un diplôme d’études supérieures de préférence dans les meilleures écoles. En chemin, il faut naviguer à travers les différents canaux et goulets d’étranglement qui vous guident et vous limitent.
Historiquement, lorsque les réformateurs ont essayé de rendre les voies d’accès à l’élite plus équitables, ils ont tenu pour acquis la structure des opportunités existante, essayant de donner un coup de pouce à certains individus ou groupes d’individus. Comme l’a proposé la discrimination positive. Pour Fishkin c’est la structure même des opportunités qu’il faut changer, qu’il faut rendre plurielle. « L’objectif doit être de donner aux gens accès à un plus large éventail de voies qu’ils peuvent suivre », écrit Fishkin, afin de donner un choix plus riche à chacun.
Avec un plus grand pluralisme des opportunités, les gardiens auront moins de pouvoir et les individus qui s’efforcent de s’épanouir au sein de la structure en auront plus. « Si la méritocratie avait plus de canaux, la société ne ressemblerait plus à une pyramide, avec un pic minuscule et exclusif au sommet ; elle ressemblerait à une chaîne de montagnes, avec de nombreux pics. »
« Dans une telle société, la reconnaissance serait plus largement distribuée, ce qui diminuerait le ressentiment populiste et rendrait la cohésion culturelle plus probable ».
Pour atteindre cet idéal, il faudra une stratégie à multiples facettes, en commençant par la redéfinition fondamentale du mérite lui-même. « Certains des leviers politiques que nous pourrions actionner incluent la relance de l’enseignement professionnel, l’obligation du service national, la création de programmes de capital social et le développement d’une politique industrielle plus intelligente », estime encore Brooks.
De 1989 à 2016, tous les présidents américains ont pris des mesures pour réformer l’enseignement professionnel et mieux préparer les élèves aux emplois du futur. Mais cela s’est surtout traduit par un recours accru aux tests standardisés, alors que l’enseignement technique dépérissait. La conséquence est que nous n’avons plus assez de travailleurs qualifiés pour faire fonctionner les usines.
Si le retour du service national peut paraître un cliché de la mobilisation sociale, Raj Chetty a montré que les amitiés entre classes sociales stimulent considérablement la mobilité sociale, en cela, la diversité que permet le service national peut être un moteur qui ne devrait pas être négligé (même s’il peut s’obtenir bien différemment et plus efficacement, me semble-t-il, en créant des écoles plus diverses socialement qu’elles ne sont).
Pour Brooks, nous devrions également chercher à réduire l’importance de l’école dans la société. Nombre de recherches ont montré pourtant que les relations de quartiers, les pairs et le contexte familial ou amical, peuvent avoir une plus grande influence sur la réussite scolaire que la qualité d’une école. Nous devrions investir davantage dans les organisations communautaires non scolaires.
Enfin, Brooks estime que pour vivre dans une économie qui récompense la diversité des compétences, il faut soutenir des politiques économiques qui stimulent le secteur industriel afin d’offrir des voies alternatives à tous. « Si nous trions les gens uniquement en fonction de leur intelligence supérieure, nous les trions en fonction d’une qualité que peu de gens possèdent ; nous créons inévitablement une société stratifiée et élitiste. Nous voulons une société dirigée par des gens intelligents, certes, mais aussi sages, perspicaces, curieux, attentionnés, résilients et engagés envers le bien commun. Si nous parvenons à trouver comment sélectionner la motivation des gens à grandir et à apprendre tout au long de leur vie, alors nous trierons les gens en fonction d’une qualité qui est distribuée de manière plus démocratique, une qualité que les gens peuvent contrôler et développer, et nous nous retrouverons avec une société plus juste et plus mobile. » Nous avons besoin d’une méritocratie qui valorise l’initiative et l’énergie. « Notre QI n’est pas la chose la plus importante pour nous ». Le plus important, ce sont nos désirs, ce qui nous intéresse, ce que nous aimons. C’est cela que la méritocratie devrait promouvoir.
-
10:30
Les territoires en déprise, espaces privilégiés de l’accueil d’exilés ? Une analyse des dynamiques du dispositif Asile et intégration dans la région Auvergne-Rhône-Alpes
sur CybergeoCet article porte sur l’hébergement des demandeurs d’asile dans la région Auvergne-Rhône-Alpes et questionne la part des espaces en déprise dans l’accueil de ces personnes. Il analyse la répartition du parc d’hébergement qui leur est dédié dans le cadre du dispositif national français Asile et intégration, à l’aide d’une base de données inédite fournie par la Direction régionale de l’économie, de l’emploi, du travail et des solidarités Auvergne-Rhône-Alpes en 2023. Cette étude est complétée par des entretiens semi-directifs avec des responsables de centre d’accueil. L’analyse à l’échelon fin de la commune permet de faire ressortir plusieurs points. D’une part, la dynamique de dispersion du parc Asile et intégration se poursuit entre 2017 et 2022, mais tend désormais à privilégier les agglomérations urbaines au détriment des espaces ruraux et les petites villes. D’autre part, on observe une tendance à un rééquilibrage territorial du parc d’hébergement des communes en déprise vers des...
-
10:30
Delineating African cities (large urban regions) to compare them within global urban networks
sur CybergeoAn important issue for Africa is evaluating cities' capacities to leverage global networks effectively to foster local development. However, this evaluation is complicated by the absence of a unified framework and criteria, making it difficult to compare African cities to both each other and with cities around the world. The first step, therefore, is to establish a basis for comparing African cities. In this paper, we address the challenges of defining urban boundaries for cities across Africa's 54 countries. We outline our methodology and present the results of adapting the concept of Large Urban Regions (LURs) (Rozenblat, 2020), which encompass regional urbanized areas surrounding the main African cities. In total, we delineated 304 African Large Urban Regions, covering 5,522 Local Administrative Units (LAU). This delineation of LURs enables African urban areas to be comparable with others worldwide and paves the way for evaluating their integration into global urban networks, esp...
-
10:30
Los gemelos digitales: una mediación territorial a vigilar
sur CybergeoExisten distintas soluciones tecnológicas digitales que resultan eficientes para ser utilizadas regularmente en las ciudades. Sin embargo, estas suscitan críticas. Un ejemplo es cuando se habla de “Smart cities”- las cuales no funcionan de correcta manera cuando se enfrentan a la diversidad de formas y funciones urbanas (Caruso, Pumain & Thomas, 2023). Otra, corresponde al concepto de “mobility-as-a-service”, el cual induce efectos no anticipados sobre la equidad del acceso (Pangbourne et al. 2020). También es posible apreciar el caso de las “city dashboards” que no ofrecen más que una vista muy limitada de los procesos urbanos y que cuestionan problemáticas éticas (Kitchin & McArdle, 2017). En este sentido, actualmente el concepto que se impone para las ciudades y territorios corresponde al de Gemelos Digitales ¿Será este un nuevo instrumento que propicie mayor utilidad?
El gemelo digital de un sistema es una representación informatizada que simula los procesos internos y que intera...
-
10:30
Digital twins: a territorial mediation to watch
sur CybergeoDigital technological solutions, supposedly turnkey and always effective, are regularly offered to cities. They can however attract many criticisms: for example, if they are "smart cities" - which work with difficulty when they clash with the diversity of urban forms and functions (Caruso, Pumain & Thomas, 2023); or if it is the concept of "mobility-as-a-service" that induces unanticipated effects on accessibility equity (Pangbourne et al., 2020); or "city dashboards" that ultimately offer only a very limited view of urban processes and raise ethical issues (Kitchin & McCardle, 2017). In this vein, it is the concept of Digital Twin that becomes the most fashionable for cities and territories. Would this new instrument be more convincing?
In the strict sense, the digital twin of a system is a computerized representation that simulates its internal processes and interacts with it in real time by two-way coupling (Batty, 2018). When it applies to the city, the practical meaning of the c...
-
10:30
Les jumeaux numériques : une médiation territoriale à surveiller
sur CybergeoDes solutions technologiques numériques, supposées clé-en-main et toujours efficaces sont régulièrement proposées aux villes. Pourtant, elles s’attirent maintes critiques : par exemple si ce sont des “smart cities” - qui fonctionnent difficilement quand elles se heurtent à la diversité des formes et fonctions urbaines (Caruso, Pumain & Thomas, 2023) ; ou s’il s’agit du concept de “mobility-as-a-service” qui induit des effets non anticipés sur l’équité d’accessibilité (Pangbourne et al., 2020) ; ou encore des “city dashboards” qui n’offrent finalement qu’une vue très limitée des processus urbains et qui soulèvent des enjeux éthiques (Kitchin & McArdle, 2017). Dans cette veine, c’est le concept de Jumeau Numérique qui devient le plus à la mode pour les villes et les territoires. Ce nouvel instrument serait-il plus probant ?
Au sens strict, le jumeau numérique d’un système est une représentation informatisée qui simule ses processus internes et interagit avec celui-ci en temps réel par ...
-
10:30
Couplage de données et méthodes, une approche méthodologique originale de modélisation de la trame noire
sur CybergeoAlors que les impacts anthropiques sur la biodiversité urbaine et péri-urbaine sont étudiés depuis au moins cinquante ans, les effets de la pollution par l'éclairage artificiel sur la biodiversité nocturne par les politiques publiques est moins explorée. Cet article présente une cartographie des surfaces éclairées sur le territoire de Brest métropole, fondée sur les données de gestion du parc d'éclairage public, et son croisement avec les données d'occupation du sol pour construire un modèle de trame noire. La cartographie est d'abord générée en combinant une typologie des distributions photométriques avec les valeurs de flux lumineux. Puis, le modèle est construit par le calcul d'indices de biodiversité carroyés (méthode déductive) et par le calcul de graphes paysagers (méthode intégrative) expérimenté sur une espèce de chauve-souris. Un facteur de correction est intégré afin de permettre d'affiner le modèle par des mesures de terrain. Les résultats obtenus montrent que la cartogra...
-
10:30
Le domaine public, une réserve d’urbanisation invisible ? Application d’une méthode géomatique aux cas d’étude de Rennes et de Bordeaux
sur CybergeoAlors que la propriété foncière publique constitue un levier pour la maîtrise de l’aménagement du territoire, sa connaissance demeure partielle. Une partie seulement de la propriété foncière publique est consignée dans les données cadastrales. En effet, le domaine public, majoritairement non cadastré, n’est de fait pas pris en compte dans les principales bases de données existantes. Cet article propose une méthode d’identification de ces espaces et de leur évolution à partir d’une chaîne de traitements géomatiques. La méthode améliore les données cadastrales historicisées permettant en creux d’identifier l’espace non cadastré et sa correspondance avec le domaine public. À partir des cas d’étude de Bordeaux Métropole et de Rennes Métropole, les résultats montrent que, s’il est théoriquement inaliénable et imprescriptible, le domaine public enregistre, dans les faits, de nombreuses transformations, et est le support de dynamiques d’urbanisation qui échappent à l’actuelle mesure instit...
-
10:30
Une trame communale immuable ? La nécessaire géohistoire des communes françaises (1800-2024)
sur CybergeoLes communes constituent la plus petite des mailles de l’administration territoriale française depuis la Révolution. Ces entités sont également les plus nombreuses. L’évolution de ce maillage est peu connue. Cet article propose une approche spatialisée de l’évolution du nombre de communes françaises. Les données exploitées sont extraites de la base dite "Cassini" qui est ici présentée, tout en pointant ses limites. L’article analyse tout d’abord les rythmes de l’évolution du nombre de communes françaises. On note trois périodes de diminution rapide du nombre de communes : 1800-années 1830, années 1960-1970 et années 2010. Chaque période présente une géographie spécifique, qui invite à penser le département comme un cadre pertinent pour penser l’échelon communal, en raison du rôle que joue l’administration déconcentrée de l’État et particulièrement le préfet. Partant de ce constat, l’article propose une typologie des départements du point de vue de l’évolution du nombre de communes.
-
10:30
Vélo et pandémie du Covid-19 : une structuration multiscalaire du réseau associatif en Île-de-France
sur CybergeoLes travaux réalisés autour de la pandémie de Covid-19 présentent cette dernière comme une période de changement radical en matière de mobilité. La crise sanitaire a permis de renouveler les discours sur le vélo comme mode de déplacement quotidien et de franchir de nouvelles étapes en matière de politiques publiques (aides à la réparation de vélos, aménagements cyclables provisoires tels que les "coronapistes"). Cet article étudie la structuration du réseau associatif pro-vélo en Île-de-France, en analysant ses dynamiques spatiales et son évolution de 1970 à 2023. Dans quelle mesure la crise du Covid-19 a-t-elle constitué un accélérateur des processus en cours, ou bien un levier de changements plus radicaux ? L’article mobilise des données quantitatives (recensement d’associations) et qualitatives (récits d’histoires associatives, entretiens d’acteur.rice.s associatifs, de collectivités territoriales et institutions) issues de deux corpus : l’un constitué avant 2020, l’autre après c...
-
10:30
De la adaptación urbana a la escasez del agua en Phoenix y Tucson (Arizona): una aproximación desde la ecología política
sur CybergeoEn el contexto del cambio climático, las sequias aumentan y los territorios sufren un grave estrés hídrico. Este artículo examina la gestión del desequilibrio entre la disponibilidad de agua y la creciente demande en Phoenix y Tucson, en el árido oeste de Estados Unidos. A partir de un estudio de caso que pone de relieve las cuestiones socioecologicas de la escasez, esta investigación propone considerar las ciudades de Phoenix y Tucson como laboratorios de adaptación urbana al cambio climático para explorar diferentes modalidades de adaptación. El análisis moviliza los conceptos de la ecología política urbana para examinar las relaciones de poder entre los actores de la gestión del agua en un contexto en el que se cuestiona cada vez más el sistema de infraestructuras hídricas que sustenta el crecimiento urbano. Por un lado, el artículo muestra que los actores dominantes aplican estrategias de adaptación para mantener la trayectoria de crecimiento de ciudades especialmente atractivas...
-
9:30
Enfrichement des côtes rocheuses : analyse de la dynamique du paysage et de la végétation
sur MappemondeCette étude porte sur deux secteurs littoraux enfrichés de la commune de Moëlan-sur-Mer soumis à un projet de remise en culture. Il s’agit ici d’interroger l’hétérogénéité paysagère et la diversité spécifique de ces espaces enfrichés. L’analyse des dynamiques d’ouverture et de fermeture du paysage depuis les années 1950 montre une pluralité de rythmes et de trajectoires selon les zones, l’action humaine et les contraintes écologiques. Les résultats font ressortir une diversité des formes végétales et des trajectoires, remettant en cause une uniformisation du paysage des friches littorales.
-
9:30
Geodatadays 2023
sur MappemondeLes GéoDataDays constituent un évènement national indépendant dédié à la géographie numérique en France. Ces rencontres annuelles sont organisées par l’AFIGÉO et DécryptaGéo depuis cinq ans, en partenariat avec une plateforme régionale d’information géographique et des collectivités territoriales. Au cœur de cet évènement, le Groupement de recherche CNRS MAGIS, consacré à la géomatique, co-organise depuis quatre ans un concours, les CHALLENGES GEODATA, qui vise à faire connaître et à récompenser les innovations du monde académique par un jury indépendant et multipartite (recherche, collectivités et services de l’État, industriels). Les domaines d’application sont très variés et touchent à la collecte, au traitement, à l’analyse et à la visualisation de données géographiques (ou géolocalisées). Les six critères retenus par le jury permettent de comparer et d’évaluer ces propositions souvent hétérogènes : originalité, public ciblé, potentiel de dissémination, qualité et justesse des m...