Vous pouvez lire le billet sur le blog La Minute pour plus d'informations sur les RSS !
Feeds
10431 items (11 unread) in 53 feeds

-
Décryptagéo, l'information géographique (8 unread)
-
Cybergeo
-
Revue Internationale de Géomatique (RIG)
-
SIGMAG & SIGTV.FR - Un autre regard sur la géomatique (1 unread)
-
Mappemonde
-
Imagerie Géospatiale
-
Toute l’actualité des Geoservices de l'IGN
-
arcOrama, un blog sur les SIG, ceux d ESRI en particulier
-
arcOpole - Actualités du Programme
-
Géoclip, le générateur d'observatoires cartographiques
-
Blog GEOCONCEPT FR

-
Géoblogs (GeoRezo.net)
-
Geotribu
-
Les cafés géographiques
-
UrbaLine (le blog d'Aline sur l'urba, la géomatique, et l'habitat)
-
Séries temporelles (CESBIO) (2 unread)
-
Datafoncier, données pour les territoires (Cerema)
-
Cartes et figures du monde
-
SIGEA: actualités des SIG pour l'enseignement agricole
-
Data and GIS tips
-
Neogeo Technologies
-
ReLucBlog
-
L'Atelier de Cartographie
-
My Geomatic
-
archeomatic (le blog d'un archéologue à l’INRAP)
-
Cartographies numériques
-
Veille cartographie
-
Makina Corpus
-
Oslandia
-
Camptocamp
-
Carnet (neo)cartographique
-
Le blog de Geomatys
-
GEOMATIQUE
-
Geomatick
-
CartONG (actualités)
Le blog de Geomatys
-
11:37
Geomatys grossit et recrute un(e) full stack développeur (se)
sur Le blog de GeomatysNous sommes à la recherche d’un(e) développeur(euse) Full Stack (Bac+5 ou Ecole d’ingé.) dans l’univers Java avec une première expérience (ou stage) réussie en Java/Spring et/ou Javascript/Angular
Ce que nous cherchons chez vous :
- De la curiosité. En veille permanente sur l’évolution des technologies
- Autonomie et pragmatisme dans vos prises de décisions
- Une capacité et un plaisir à travailler en équipe
- De la rigueur. La lisibilité du code/des Api est fondamentale. Les tests font partie intégrante de votre process de dev.
- Une envie de travailler sur des technologiques riches
- Attentif à l’architecture avec réflexion sur les performances de gestion de données volumineuses et de leur traitements
Si vous avez de l’enthousiasme, une appétence pour la cartographie / les problématiques spatiales, et une envie de travailler dans un domaine ultra-innovant, envoyez-nous votre CV (isabelle.pelissier@geomatys.com), pas besoin de lettre de motivation, rien de tel que des projets concrets pour juger de vos compétences (liens Github… ou autre)
Poste à pourvoir sur Montpellier
Salaire selon expérience
Qui sommes-nous ?
GEOMATYS est un éditeur de logiciel qui développe depuis 15 ans des produits et des nouveaux systèmes d’informations permettant de traiter l’information géographique. Notre activité d’édition logicielle nous conduit à développer des bibliothèques dédiées au traitement de gros volume d’information géographique, des Geo-Webservices et des frameworks cartographiques, que nous intégrons ensuite pour les besoins de nos clients.
Nous sommes une société influencée par la forte culture technique de ses dirigeants, développant des projets innovants au service d’industriels et de scientifiques dans des domaines aussi variés que l’Environnement, le Spatial ou la Défense.
Grâce à un travail reconnu en recherche et développement, notre société, GEOMATYS, a gagné une expertise lui permettant de travailler désormais auprès de grands comptes (Naval Group, Airbus, Le CNES ….).
Vous intégrerez une équipe dédiée au développement d’applications à fortes dominantes géographiques, constituée de développeurs fullstack principalement orientés Java et angular, pour des environnements Docker/Kubernetes, combinés à de nombreux produits open-sources tel que la suite Elastic (ELK), ou PostGreSQL/PostGIS.
-
16:30
Recrutement: IE en Télédétection
sur Le blog de GeomatysNotre partenaire La Tour du Valat recrute! Ce poste est lié au projet AIonWetland auquel participe Geomatys.
La Tour du Valat est un institut de recherche pour la conservation des zones humides méditerranéennes basé en Camargue, sous le statut d’une fondation privée reconnue d’utilité publique. Fondée en 1954 par le Dr Luc Hoffmann, elle est à la pointe dans les domaines de la recherche multidisciplinaire, l’établissement de ponts entre science, gestion et politiques publiques et l’élaboration de plans de gestion. Elle s’est dotée d’une mission ambitieuse : « Les zones humides méditerranéennes sont préservées, restaurées et valorisées par une communauté d’acteurs mobilisés au service de la biodiversité et des sociétés humaines ».
La Tour du Valat a développé une expertise scientifique reconnue internationalement ; elle apporte des réponses pratiques aux problèmes de conservation et de gestion durable des ressources naturelles. La Tour du Valat emploie environ 80 personnes dont une quinzaine de chercheurs et autant de chefs de projets. Elle accueille également sur son site plusieurs autres structures, ainsi que de nombreux doctorants, post-doctorants, stagiaires et/ou volontaires en saison estivale. Plus de détail sur http://www.tourduvalat.org
La Tour du Valat recrute un/e Ingénieur d’étude en analyse de données pour le suivi des zones humides à l’aide des outils d’Observation de la Terre (OT)
Contexte
Le Bassin Méditerranéen est un des 32 Hotspots mondiaux de biodiversité. Ceci grâce, notamment, à la présence d’une grande diversité de zones humides, considérées comme les écosystèmes les plus riches et les plus productifs de la région. Cependant, malgré leur importance pour l’Homme et la nature, ces milieux sont également les plus menacés par les activités humaines. En effet, selon une étude récente réalisée par l’Observatoire des Zones Humides Méditerranéennes (OZHM), on estime que près de la moitié des habitats humides naturels ont disparus depuis les années 1970 au sein de cette région. Une des principales causes de ce déclin rapide serait leur perte directe, avec leur conversion vers d’autres formes d’usage des sols.
Face à cette situation alarmante, il est donc crucial de rassembler un maximum d’informations pertinentes sur l’état des zones humides méditerranéennes et d’analyser les tendances de leurs habitats naturels ainsi que celles des principales menaces qui pèsent sur eux. C’est dans ce contexte que l’OZHM, coordonné par la Tour du Valat dans le cadre de l’Initiative MedWet, développe depuis une dizaine d’année un ambitieux programme de suivi de ces écosystèmes, basé sur les outils et technologies d’Observation de la Terre (OT). Parallèlement, de nouvelles approches d’analyse des images satellitaires ont prouvé leur capacité à extraire de l’information pertinente. Principalement basées sur des méthodes d’apprentissage profond (Deep Learning) et pour les plus récentes sur le transfert de domaine. Elles permettent, par exemple, d’appliquer des modèles, appris sur une zone donnée, sur d’autres zones pour lesquelles il existe peu ou pas de données d’apprentissage. Ce poste d’Ingénieur d’Étude en Télédétection proposé ici, vient donc répondre à ce besoin d’amélioration des connaissances sur les zones humides à l’aide des outils d’OT. Il s’agit d’une part, de mettre en place une chaine de traitements basée sur des algorithmes développés en collaboration avec divers partenaires scientifiques de la Tour du Valat, tels que le laboratoire ICube de l’Université de Strasbourg ou encore l’UMR Littoral, Environnement, Télédétection, Géomatique (LETG) de l’Université Rennes II et, d’autre part, de valider celles-ci sur des données réelles fournies par l’OZHM. La personne retenue devra donc contribuer à la mise en œuvre de différents projets en cours, notamment le projet AIonWetlands (appuyé par le programme Space Climate Observatory), ainsi qu’un projet de R&D porté par le Ministère de la Transition Ecologique et visant à développer une modélisation nationale des milieux humides en France métropolitaine et de leurs fonctions.
Missions
- Contribuer, avec d’autres partenaires techniques de la Tour du Valat, à la mise en œuvre d’outils d’analyse et de traitement des images satellites (essentiellement optiques), notamment ceux intégrant des algorithmes d’Intelligence Artificielle (Deep Learning et Machine Learning)
- Extraire, à l’aide de ces outils, des informations pertinentes sur l’état et les tendances des zones humides suivies, leurs fonctions, ainsi que les principales pressions qu’elles subissent
- Contribuer au développement et à l’application de protocoles de validation de ces résultats cartographiques
- Automatiser, le plus possible, les chaines de traitement et les intégrer dans les protocoles de suivi de l’OZHM, notamment en lien avec les indicateurs spatialisés
- Contribuer, au développement et à la gestion des bases de données spatialisées de l’OZHM (indicateurs de suivi des zones humides)
- Contribuer à la rédaction des rapports techniques des différents projets dans lesquels il/elle sera impliqué(e), en particulier les deux mentionnés plus haut
- Participer à l’élaboration des différents produits de l’OZHM, notamment les rapports sur l’état et les tendances des zones humides méditerranéennes
Profil et compétences recherchées
Indispensables :
- Bac+5 (M2 ou Ingénieur) en informatique, en télédétection ou en géomatique ou toute autre discipline dans les sciences de l’environnement intégrant une forte composante en traitement d’imagerie satellitaires (géographie, aménagement du territoire/littoral, écologie, etc.)
- Maîtrise des outils SIG et de traitement des données d’Observation de la Terre
- Connaissances en analyse de données et apprentissage. Une bonne pratique des algorithmes d’apprentissage profond, sans être obligatoire, sera un plus indéniable
- Autonomie, esprit d’initiative et bonnes capacités d’analyse, de synthèse et rédactionnelles
- Capacité à travailler en équipe, notamment avec des partenaires externes
- Anglais scientifique et de communication en milieu professionnel fortement souhaité
Constitueraient des atouts :
- Connaissance des indicateurs pour le suivi des écosystèmes (état, tendances et pressions)
- ·Maitrise des outils statistiques pour l’analyse des données
- Connaissance et/ou expérience en méditerranée
Encadrement
L’Ingénieur d’Etude sera intégré(e) au sein de l’équipe du Thème « Dynamiques des Zones Humides et Gestion de l’Eau » et placé(e) sous la supervision du responsable de l’Axe « Dynamique Spatiale des Zones Humides », M. Anis Guelmami guelmami@tourduvalat.org.
Type de contrat : Le poste est à pourvoir en Contrat à Durée Déterminée de 18 mois.
Rémunération : 2300€ à 2600€ brut mensuel, selon expérience professionnelle.
Date de prise de poste : Le poste est à pourvoir dès que possible.
Lieu de travail : Tour du Valat, Le Sambuc, 13200 Arles avec la possibilité de télétravailler 2j/semaine.Comment postuler
Envoi des candidatures à Johanna Perret : perret@tourduvalat.org
(Référence à indiquer : TdV-2022-Suivi Spatialisé ZH) avant le 16 octobre 2022, comportant :- Une lettre de motivation
- Un curriculum vitae
- Deux contacts de référents
Les candidat(es) présélectionné(es) seront convoqué(es) pour un entretien en visio-conférence ou en présentiel en fonction des contraintes géographiques.
Pour toute question sur le processus de soumission de candidatures, merci de vous adresser à Johanna Perret perret@tourduvalat.org.
-
16:47
Geomatys recrute! Développeur(euse) Full Stack
sur Le blog de GeomatysFull Stack Dev :Nous sommes à la recherche d’un(e) développeur(euse) Full Stack (Bac+5 ou Ecole d’ingé.) dans l’univers Java avec une première expérience réussie en Javascript/Angular et/ou Java/Spring.
Ce que nous cherchons chez vous :
- De la curiosité. En veille permanente sur l’évolution des technologies
- Un souci de la performance.
- De la rigueur. La lisibilité du code/ des Api est fondamentale
- Une connaissance des outils Maven/ Gradle et Gitlab serait un plus
Qui sommes-nous ?
GEOMATYS est un éditeur de logiciel qui développe depuis 15 ans des produits et des nouveaux systèmes d’informations permettant de traiter l’information géographique. Notre activité d’édition logicielle nous conduit à développer des bibliothèques dédiées au traitement de gros volume d’information géographique, des solutions de gestion et de diffusion de données géospatiales et des frameworks cartographiques, que nous intégrons ensuite pour les besoins de nos clients.
Nous sommes une société influencée par la forte culture technique de ses dirigeants, développant des projets innovants au service d’industriels et de scientifiques dans des domaines aussi variés que l’Environnement, le Spatial ou la Défense.
Grâce à un travail reconnu en recherche et développement, notre société, GEOMATYS, a gagné une expertise lui permettant de travailler auprès de grands comptes (Naval Group, Airbus, CNES ….).
Comment postuler?
Si vous avez de l’enthousiasme, une appétence pour la cartographie / les problématiques spatiales, et une envie de travailler dans un domaine ultra-innovant, envoyez-nous votre CV (isabelle.pelissier@geomatys.com), pas besoin de lettre de motivation, rien de tel que des projets concrets pour juger de vos compétences (liens Github… ou autre)Poste à pourvoir sur Montpellier
Salaire selon expérience
-
14:37
Geomatys recrute! Ingénieur(e) DevOps/BigData
sur Le blog de GeomatysDevOps :Nous recherchons dans le cadre de projets internes un(e) ingénieur(e) Devops / Bigdata pour le maintien et l’évolution de notre infrastructure Datalake. Cette personne sera également fortement impliquée sur des projets clients et participera à différentes phases telles que :
- Mise en place d’architecture et de systèmes adaptés aux différents besoins,
- Configuration et développement.
Le poste nécessite des capacités rédactionnelles. La personne devra notamment établir des documents d’architecture, d’exploitation et de configuration. L’ingénieur devra également assurer les phases de tests et de qualification par
- L’automatisation si possible des déploiements, scripting,
- Des Tests automatiques unitaires et d’intégration,
- De surveillance de l’exploitation et de la qualité de production via des métriques.
Compétences techniques souhaitées :
- Services Cloud,
- Containers (Docker, Kubernetes…)
- GitOps (Git, Gitlab)\n•\tScripting (Python, Bash, …)
- Analyse statique /tests (SonarQube, Selenium, JMeter…)
- Base de données (Relationnelles, NoSQL, Data Lake…) telles que PostGresql, Cassandra, etc.
- ElasticSearch
- Configuration des flux d’information (Kafka, ETL…)
Qui sommes-nous ?
GEOMATYS est un éditeur de logiciel qui développe depuis 15 ans des produits et des nouveaux systèmes d’informations permettant de traiter l’information géographique. Notre activité d’édition logicielle nous conduit à développer des bibliothèques dédiées au traitement de gros volume d’information géographique, des solutions de gestion et de diffusion de données géospatiales et des frameworks cartographiques, que nous intégrons ensuite pour les besoins de nos clients.
Nous sommes une société influencée par la forte culture technique de ses dirigeants, développant des projets innovants au service d’industriels et de scientifiques dans des domaines aussi variés que l’Environnement, le Spatial ou la Défense.
Grâce à un travail reconnu en recherche et développement, notre société, GEOMATYS, a gagné une expertise lui permettant de travailler auprès de grands comptes (Naval Group, Airbus, CNES ….).
Comment postuler?
Si vous avez de l’enthousiasme, une appétence pour la cartographie / les problématiques spatiales, et une envie de travailler dans un domaine ultra-innovant, envoyez-nous votre CV (isabelle.pelissier@geomatys.com), pas besoin de lettre de motivation, rien de tel que des projets concrets pour juger de vos compétences (liens Github… ou autre)Poste à pourvoir sur Montpellier avec première mission dans la région de Marseille
Salaire selon expérience
-
15:26
Modélisation de la distribution des espèces next-level
sur Le blog de GeomatysEnclosure: [download]
Les modèles de répartition des espèces (MDS) sont des modèles statistiques et mécanistes utilisés pour définir la répartition géospatiale des espèces en fonction de la combinaison de variables écologiques (telles que l’environnement biotique et abiotique) offrant des conditions et des possibilités favorisant leur présence.
En projetant les MDS sur des environnements futurs, les scientifiques peuvent déterminer où et quand ces conditions seront réunies pour fournir une prédiction de la répartition future des espèces. Ces prédictions sont souvent prévues des mois, des années ou des décennies à l’avance, et sont statiques en ce qui concerne à la fois l’algorithme et les occurrences prédites.
Cependant, les facteurs qui affectent les espèces et leurs déplacements ne sont pas statiques. Imaginez que vous puissiez appliquer ces modèles à un monde en évolution en temps réel ! C’est précisément l’aide que nous apportons aux scientifiques en utilisant la technologie de traitement géospatial et de science des données à la volée EXAMIND de Geomatys.Lorsque les conditions environnementales changent, ou sont affectées par des perturbations telles qu’un ouragan ou des projets de développement qui perturbent les habitats actuels, des MDS à échelle fine peuvent être appliqués pour prédire comment les animaux se disperseront. En collaboration avec nos partenaires de la recherche et de l’industrie, nous travaillons à l’application de cette technologie en développement pour, par exemple, gérer les populations animales. Cette capacité deviendra essentielle dans presque tous les domaines, y compris la gestion de la biodiversité, car le changement climatique déstabilise les écosystèmes et les habitudes, et ainsi il perturbe les connaissances sur lesquelles nous nous appuyons actuellement pour prendre des décisions.
Un projet dans lequel la technologie de Geomatys facilite ce travail est celui fait pour l’association française pour la gestion et la conservation du cheval de Przewalski, une espèce menacée (TAKH). L’association a présenté son portail Web alimenté par EXAMIND pour visualiser et analyser les populations de chevaux de Przewalski, appelé Shamane, lors du Congrès mondial de la nature de l’UICN de cette année, le 8 septembre 2021 à Marseille.
Explorer le platform Shamane ( [https:]] )
Bien que l’objectif soit de former des algorithmes d’apprentissage automatique qui puissent aider à prédire le comportement des chevaux en réponse à des facteurs environnementaux variant dans le temps, un travail préliminaire que nous ayons effectué pour faciliter ce projet a été de construire la base de données, en rassemblant des sources de données vastes et disparates, en assurant l’interopérabilité et en les rendant accessibles à l’utilisateur dans un seul environnement.
Grâce aux nouvelles fonctionnalités disponible sur son socle EXAMIND en réponse aux besoins des chercheurs TAKH, les utilisateurs peuvent suivre des animaux individuels à travers le temps, basculer leur histoire et leur pedigree, explorer leurs habitats en 4D, interroger des ensembles de données connexes et lancer des analyses, le tout dans l’environnement de l’infrastructure de données spatiales de Shamane. L’outil permet donc non seulement d’analyser les données, mais aussi de fournir des renseignements permettant de prendre des décisions en temps réel en matière de surveillance et de gestion des populations.
Vidéo teaser crée pour le TAKH par Les Fées SpécialesLa vidéo teaser du projet Shamane ci-dessus illustre comment l’utilisateur peut suivre le mouvement de chevaux individuels génétiquement distincts (représentés par des couleurs différentes, souvent regroupés en troupeaux) dans une vue 3D du paysage. À l’aide du curseur situé en bas de la page, il peut suivre les changements de position des animaux ainsi que l’évolution de l’habitat dans le temps. Cela permet aux chercheurs de déterminer, par exemple, quels types de barrières d’habitat peuvent influencer les déplacements.
Dans un prochain temps, ils vont pouvoir également superposer d’autres données, telles que des données météorologiques à cette vue et effectuer des analyses dans la barre latérale de gauche à l’aide d’un notebook de datascience. A priori, ces analyses visent à identifier les facteurs écologiques qui déterminent les comportements de déplacement des animaux afin de soutenir les stratégies de gestion des populations et d’autres efforts de conservation.
Le futur de l’environnement interactif de visualisation de données 4D de Shamane, alimenté par EXAMIND.Bien que l’outil soit disponible via un portail web, l’accès est limité aux utilisateurs autorisés, sécurisé avec la même technologie que celle utilisée par Geomatys dans le domaine de la défense. Ceci est important pour traiter des données sensibles, telles que la localisation précise d’espèces menacées. Cet outil fournit donc une plateforme performante et sécurisée pour gérer la conservation de ces populations fragiles.
-
10:11
Visualization des conditions météo à la volée en réalité augmenté
sur Le blog de GeomatysHolloLens de Microsoft
Depuis quelques mois les équipes R&D de Geomatys travaillent sur l’exploitation de données GHOM (Géographiques, Hydrographiques, Océano et météo ) en réalité augmentée.
L’enjeu étant de convertir, côté serveur à l’aide d’Examind-Server, des formats complexes tel que GRIB, NetCDF ou encore S-57, pour les servir en 3D sur un client Unity et de visualiser ces données à la volée avec des HolloLens.
Conditions météo en XR
Voici donc un exemple de visualisation de vecteurs de vent issus de fichiers GRIB en réalité augmentée.
D’autres cas d’usages arrivent en particulier pour le monde maritime, nous vous les présenterons bientôt. -
14:41
Développeur(se) Full Stack (H/F)
sur Le blog de GeomatysNous sommes à la recherche d’un(e) développeur(euse) Full Stack (Bac+5 ou Ecole d’ingé.) dans l’univers Java avec une première expérience (ou stage) réussie en Java/Spring et/ou Javascript/Angular
Ce que nous cherchons chez vous :
- De la curiosité. En veille permanente sur l’évolution des technologies
- Un souci de la performance.
- De la rigueur. La lisibilité du code/ des Api est fondamentale
- Une connaissance des outils Maven/ Gradle et Gitlab serait un plus
Si vous avez de l’enthousiasme, une appétence pour la cartographie / les problématiques spatiales, et une envie de travailler dans un domaine ultra-innovant, envoyez-nous votre CV (isabelle.pelissier@geomatys.com) , pas besoin de lettre de motivation, rien de tel que des projets concrets pour juger de vos compétences (liens Github… ou autre)
Poste à pourvoir sur Montpellier
Salaire selon expérience
Qui sommes-nous ?
GEOMATYS est un éditeur de logiciel qui développe depuis 15 ans des produits et des nouveaux systèmes d’informations permettant de traiter l’information géographique. Notre activité d’édition logicielle nous conduit à développer des bibliothèques dédiées au traitement de gros volume d’information géographique, des Geo-Webservices et des frameworks cartographiques, que nous intégrons ensuite pour les besoins de nos clients.
Nous sommes une société influencée par la forte culture technique de ses dirigeants, développant des projets innovants au service d’industriels et de scientifiques dans des domaines aussi variés que l’Environnement, le Spatial ou la Défense.
Grâce à un travail reconnu en recherche et développement, notre société, GEOMATYS, a gagné une expertise lui permettant de travailler désormais auprès de grands comptes (Naval Group, Airbus, Le CNES ….).
Vous intégrerez une équipe dédiée au développement d’applications à fortes dominantes géographiques, constituée de développeurs fullstack principalement orientés Java et angular, pour des environnements Docker/Kubernetes, combinés à de nombreux produits open-sources tel que la suite Elastic (ELK), ou PostGreSQL/PostGIS.
-
11:59
Dataviz : “voir et donner à voir”
sur Le blog de GeomatysDans le cadre de ses activités Geomatys s’est structuré selon trois axes :
1. La mise en place et l’exploitation de Datalakes Geospatiaux (basé sur des infrastructure Cloud et exploitant des volumes massifs de donnée)
2. La (Geo)Datascience
3. La visualisation de données incluant la 3D et la réalité augmentée.
Cet article présente un retour d’expérience sur la mise en place de traitements à la volée sur un DataLake pour les besoins d’une agence spatiale.Les masses de données brutes et les résultats de leurs analyses disponibles pour la prise de décision humaine sont un challenge pour les outils de visualisation. Ainsi si les masses de données actuelles permettent l’émergence des Jumeaux Numériques, pour la Dataviz elle peuvent parfois ressembler à Janus :
- Agréger les données afin de produire un indicateur pour l’aide à la décision ou un tableau de bord synthétique est une solution pragmatique, mais elle a le défaut de masquer la complexité des données sources.
- Donner accès en visualisation à toutes les données est transparent mais difficilement analysable pour l’opérateur.
Autrement dit et pour paraphraser René Char qui s’interroge quand même un peu sur ce qu’il vient faire là, pour les outils de Dataviz conduisant à une prise de décision, “l’essentiel est toujours menacé par l’insignifiant” .
C’est en cherchant à dépasser cette ambivalence que nous tâchons de concevoir notre environnement d’exploration et de visualisation de la donnée : EXAMIND Playground dont nous faisons ici une petite revue d’inventaire.
S’appuyant sur les capacités de notre socle logiciel à diffuser de large volume de données géospatiaux, le cas échéant en streaming, EXAMIND Playground est conçu comme un ensemble de modules de visualisation cartographique mobilisable et configurable à façon qui s’appuie sur un moteur de visualisation géographique 4D (3D plus la dimension temporelle) sur lequel viennent se greffer des outils d’exploration de la donnée.
Ainsi à partir d’une vue d’ensemble contextuelle à son besoin, l’utilisateur va pouvoir se concentrer et zoomer sur des zones spécifiques et éventuellement en observer la dynamique temporelle (cf infra). L’utilisateur va également pouvoir forer sa donnée et examiner l’évolution de plusieurs variables dernière le long d’une trajectoire ou en un point donné.
L’outil de visualisation interagit avec le serveur de données ainsi, si le cas d’usage le nécessite, l’utilisateur peut ajouter des objets à l’environnement cartographique et simuler leurs impacts. Comme ici, dans le cas de la simulation de l’impact de la circulation des flamands roses après un ajout de linéaire de haies.
CamGIS PlatformEnfin, la donnée géographique pouvant venir enrichir notre perception du monde réel, EXAMIND Playground est utilisable avec des casques de réalité augmentée afin de proposer à l’usager de voir directement son univers enrichi.
EXAMIND Playground propose donc toute une panoplie d’outils de visualisation cartographique mobilisables en fonction du besoin et du cas d’usage traité afin de pouvoir explorer au mieux toute la richesse de ses données. Le seul risque à trop bien voir ses données étant d’ « avoir la surprise de trouver un lion dans un placard là où l’on était sûr [au départ] d’y trouver des chemises. »(Frida Kahlo)
-
10:42
Datalakes geospatiaux : Un pas de plus pour faire face à l’augmentation des volumes de données brutes
sur Le blog de GeomatysDans le cadre de ses activités pour les acteurs du domaine Spatial et de l’Observation de la Terre, Geomatys a structuré ses activités selon trois axes :
- La mise en place et l’exploitation de Datalakes Geospatiaux (basé sur des infrastructure Cloud et exploitant des volumes massifs de donnée)
- La (Geo)Datascience
- La visualisation de données incluant la 3D et la réalité augmentée
Cet article présente un retour d’expérience sur la mise en place de traitements à la volée sur un DataLake pour les besoins d’une agence spatiale.
Que l’on soit en charge de la production et la collecte de données où en charge d’un DataLake et de l’analyse ultérieure de ces mêmes données, force est de constater que la quantité d’information produite ne cesse d’augmenter. Les segments sols et centres de mission scientifiques, n’échappent pas à cette tendance, en raison notamment des nouveaux instruments scientifiques avec de très hautes résolutions, entraînant des volumes de données à produire, stocker et transmettre toujours plus conséquents.
Cependant, combien de données seront réellement utilisées au regard du volume de données brutes acquises ? Si l’on prend le cas du satellite optique Sentinel 2, une recherche sur la plateforme SciHub sur l’année 2020, indique que, tous types de produits confondus, un peu moins de 11 Millions de produits ont été générés cette année là et qu’ environ 1,7 millions possèdent une couverture nuageuse supérieure à 95 % soit la quasi totalité de l’image. Il est donc probable que plus de 15% des données acquises en 2020 ne soient jamais utilisées. Ce pourcentage peut varier en fonction du capteur à l’origine de la mesure (radar, optique…) mais le constat reste valable pour tous, un nombre non négligeable de données brutes ne sera pas utilisé pour produire des analyses. A ce pourcentage de données “non utilisables” s’ajoutent les données pour lesquelles la mesure est exploitable mais qui ne seront simplement pas utilisées par manque d’utilisateurs pour la zone ou la période.
Pour le producteur (et le gestionnaire de DataLake) cela représente une quantité de données non négligeable (environ 1,7 PetaOctet de données par an. dans le cas de Sentinel 2). Dans le cas de chaînes de production complexes telles que les segments sols de satellite ce nombre peut être multiplié par le nombre de post-traitements que subit la donnée depuis la mesure brute (L0 ou L1) jusqu’à devenir un produit prêt à l’utilisation (L2 à L4). Toujours dans le cas Sentinel 2, trois post-traitements sont appliqués (niveau L1A, L1B et L1C) à la donnée avant d’obtenir une donnée de niveau L2, produite systématiquement. Finalement, ce sont donc plusieurs dizaines de Po de données qui ont été traitées et stockées et qui ne serviront pas. Outre que cela ne s’inscrit pas vraiment dans une démarche “GreenIT”, cela impacte également le coût de l’infrastructure matérielle. Passer d’un traitement systématique à une donnée prête à l’emploi (dans la mouvance de la démarche Analysis Ready Data) et produite à la demande, permettrait d’éviter cette sur-production inutile (note pour l’aspect GreenIT : nous laissons au futur résultat d’une étude ACV le soin de déterminer le point d’équilibre entre traiter deux fois une même image ou mettre le résultat en cache après la première demande, l’un consommant plus d’énergie ou l’autre nécessitant plus de disque dur).
Aujourd’hui, cette approche “à la demande” est de plus en plus mise en œuvre pour des traitements à partir des données post-traités (production à la demande d’occupation des sols, de taux d’humidité comme pour le projet européen Phidias sur lequel Geomatrys est impliqué au côté de nombreux partenaires dont le CNES le CINES et l’IRD …), évitant ainsi tout ou partie de la production systématique. Cependant, la plupart des segments sols (du niveau L0 au niveau L2 dans le cas de Sentinel 2) reste sur une approche systématique malgré les quantités de données inutiles. Pourquoi ? Une raison possible, sans doute pas la seule, est qu’un des post-traitements essentiels consiste à projeter sur une grille régulière les mesures dérivées du signal capté par le satellite.
La projection des données consiste à associer des valeurs du signal (le signal pour chaque pixels) de manière directe ou indirecte à des coordonnées géospatiales distribuées selon une grille régulière. Cela rend les données beaucoup plus faciles à exploiter que des valeurs distribuées de manière irrégulière. Or, l’algorithme de re-échantillonage à partir de ces simples valeurs est complexe et peut s’avérer coûteux en termes de performances. Depuis 2018, RESTEC (Remote Sensing Technology Center of Japan) société affiliée à l’Agence Spatiale Japonaise (JAXA), travaille avec Geomatys sur l’application de cette projection à la volée pour les données issues des satellites GCOM-C et W.
Exemple de donnée brute GCOM-W (GCOM-W1 AMSR2 Total Precipitable Water and Wind Speed products)
Exemple de sortie d’un service Analysis Ready Data – WMS via Examind
Dans l’exemple du GCOM-W, la donnée brute à laquelle est appliquée la projection à la volée correspond à une partie conséquente de l’orbite du satellite. La position de chaque pixel est exprimée en latitude et longitude pour chaque pixel, ainsi de l’équateur au pôle existe t’il une très grande variabilité dans la taille des pixels.
L’objectif est donc de fournir à l’utilisateur un accès à la volée à des données prêtes à l’emploi (approche Analysis Ready Data), moins dépendant de la structure initiale des produits et, dans le cas de GCOM-W, de l’orbite du satellite.
Pour cela, l’ensemble des données est indexé comme une couche spatio-temporelle unique (ou cube de données). Ainsi l’utilisateur peut télécharger l’emprise spatio-temporelle des données qu’il souhaite via des services standards (WCS ici) indépendamment de la structure des données acquises par le satellite.
Proposer un tel service à la volée nécessite de disposer d’une opération de projection efficace. C’est sur cet aspect que nous avons concentré le gros de nos travaux durant 2 ans.
Il est assez facile de déterminer les coordonnées géographiques (latitude et longitude) de chaque pixel lorsque ces coordonnées sont déclarées dans le fichier. Il est beaucoup plus difficile d’effectuer le cheminement inverse, c’est-à-dire de trouver le pixel auquel correspond des coordonnées géographiques, lorsque ces pixels ne sont pas distribués sur une grille régulière. L’approche brute (inapplicable pour les grandes images) consisterait à itérer sur chaque pixel jusqu’à trouver le plus proche. L’approche présentée ci-dessous, et mise en œuvre par Geomatys permet de résoudre la problématique à la volée avec une précision et des performances maîtrisées.
D’un point de vue technique, la démarche est la suivante :
- Tout d’abord, les coordonnées géographiques de chaque pixels sont projetées vers une projection Mercator universelle (UTM). La zone de la projection UTM est sélectionnée de manière à contenir le pixel qui se trouve au centre de l’image. Cette projection est appliquée parce que la distribution des pixels des images GCOM se rapproche grandement d’une grille régulière lorsqu’on utilise cette projection.
- Ensuite, les coefficients d’une transformation affine sont calculés par la méthode des moindres carrées moyens. Cette transformation affine est un ensemble d’équations linéaires permettant de convertir les coordonnées UTM de chaque pixel par une estimation de ses coordonnées pixels dans le fichier GCOM. Les transformations affines étant linéaires alors que la relation entre les coordonnées pixels et les coordonnées géospatiales dans un fichier GCOM est non-linéaire, l’utilisation d’une transformation affine induit une erreur. Le Datacube calcule les coefficients qui font que la moyenne de (coordonnées pixels réelles ? coordonnées pixels estimées)² soit le plus petit possible.
- Une grille des résidus est construite. Cette grille contient, pour chaque pixel, la valeur de (coordonnées pixels réelles ? coordonnées pixels estimées). Pour rappel, les étapes 1 et 2 ci-haut ont chacune contribué à ce que les résidus soient les plus petits possibles.
- Pour calculer les coordonnées du pixel correspondant à des coordonnées UTM données, on applique d’abord la transformation affine pour avoir une première estimation puis on calcule les coordonnées UTM réelles de cette première estimation en ajoutant les résidus. On trouvera une erreur par rapport aux coordonnées spécifiées. Cette erreur, exprimée en unités de la projection UTM, est convertie en erreur exprimée en unités pixels en multipliant le vecteur représentant l’erreur par l’inverse de la matrice Jacobienne de la fonction représentée par la grille des résidus; à la position du pixel estimée multipliée par la matrice Jacobienne de la transformation affine. On obtient une nouvelle estimation des coordonnées pixels, que l’on convertit à nouveau en coordonnées UTM afin de vérifier l’erreur et on répète le processus jusqu’à ce que l’erreur soit suffisamment faible. Cet algorithme est le même que celui appliqué pour les changements de référentiels utilisant les grilles NADCON, excepté qu’on y ajoute l’utilisation des matrices Jacobiennes pour mieux prendre en compte l’aspect non-linéaire de la transformation. A titre de comparaison, l’algorithme employé par NADCON suppose implicitement que les matrices Jacobiennes sont très proches de la matrice identitée. C’est une approximation raisonnable pour NADCON mais pas pour les images GCOM.
- Les étapes décrites ci-dessus fournissent un mécanisme nécessaire pour projeter l’image sur une grille régulière. Il nous reste à choisir une grille régulière. La transformation affine calculée à l’étape 2 fournit un bon point de départ puisqu’elle cherchait à se rapprocher le plus possible de la répartition des données originales. On prend l’inverse de cette matrice comme source des coefficients du fichier .TFW qui accompagne les images au format TIFF. IlN ne reste plus qu’à projeter les pixels de l’image GCOM vers le système de référence déterminée à l’étape 1 sur une grille inférée par le fichier TFW déterminé à cette étape 5 en utilisant la transformation non-linéaire décrite à l’étape 4.
Les tests de performances réalisés par RESTEC sur l’infrastructure de la JAXA ont permis de qualifier et valider la viabilité de l’outil et de l’approche, qui entrera en production en 2021. Bien conscient que la problématique lié au satellite GCOM est applicable à d’autre sources de données, Geomatys s’est employé au cours des deux dernières années à mettre en place un process générique via le logiciel Examind DataCube qui capitalisent cette expérience et permettront d’accélérer les prochaines mises en oeuvre de la solution.
-
7:30
Intelligence Artificielle – du hasard et de la nécessité
sur Le blog de GeomatysImage via www.vpnsrus.com
“Vivre, c’est transformer en conscience une expérience aussi large que possible” disait André Malraux. Nos Intelligences Artificielles contemporaines, souvent fantasmées pour leurs capacités, sont bien loin de ces considérations.
Il ne s’agit pas ici de nier, les résultats spectaculaires obtenus depuis le tournant des années 2010, dans le domaine des algorithmes d’apprentissage ou Machine Learning, dû en partie, d’une part à la démocratisation des capacités de calcul nécessaires à ces algorithmes et d’autres part au verrou de la dimensionnalité qu’ont su, si ce n’est résoudre, au moins grandement dégripper les réseaux de neurones convolutifs (ou CNN). La libération de ces verrous a trouvé des applications pour tous et dans tous les domaines , qui plus est de manière si rapide, que les capacités nouvelles de ces outils, ainsi mis en lumière, peuvent se transformer pour certains en miroir aux alouettes. Qui n’a pas entendu ou lu depuis quelques années des récits prophétiques où les robots bientôt rêveraient.
A Geomatys, peut être en partie car un de ses fondateurs possédait un retour d’expérience notable sur ces outils manipulés durant sa thèse au milieu des années 2000, de leurs avantages et de leurs limites, nous avons dans un premier temps, regardé ce bel objet qu’étaient les réseaux de neurones convolutifs comme un prolongement de nos activités plutôt que comme un axe d’activité à part entière.
Ainsi l’avons nous mis en en œuvre très tôt pour des besoins de classification d’objet dans des d’image satellites, où à d’autres fins mais sans pour autant en faire l’alpha et l’oméga de nos activités futures. Il faut sans doute y voir ici, un hasard conjoncturel où la connaissance de l’outil nous a empêché d’adhérer à la mythologie collective se mettant en place. Ainsi avons-nous continué à consolider nos fondamentaux quant à la maîtrise de la gestion de l’information spatiale pour les grosses infrastructures de données, cet outil étant un parmi tant d’autres.
Or aujourd’hui, à la ville comme à la campagne, force est de constater qu’il y a les entreprises qui en sont et celles qui n’en sont pas. Nécessité faisant loi, nous faisons donc ici notre coming out communicationnel et présentons ci-après nos activités dans le domaine pour affirmer que oui, nous en sommes!
Aujourd’hui l’IMINT mobilise grandement les réseaux de neurones convolutifs pour automatiser très efficacement les tâches de reconnaissances d’objets dans une image, et avec force données d’apprentissage cela fonctionne très bien eu égard aux types de corrélations spatiales qu’un CNN est capable de capturer.
De nombreuses sociétés se sont donc positionnées sur ce segment d’activité. Ayant raté le premier train, nous avons donc décidé de construire nous même notre locomotive et de nous positionner sur ce que nous pensons constituer le gros du potentiel encore sous exploité du Machine Learning, et avons démarré depuis un an trois projets distincts sur chacun des domaines.- Axe 1, l’IA a des fins de prédiction : En effet les CNN utilisés à des fins de classification automatique produisent leurs résultats sur une observation à un temps, lors de son analyse, il s’agit déjà du passé. Ils ne permettent pas nativement de combiner les informations détectées pour prévoir et corréler un futur comportement. Or, devant le flux d’information susceptible d’être détecté, un humain va les hiérarchiser et les mettre en perspective avant de prendre une décision. Les outils de machine learning, qui plus est, les architectures telles que l’apprentissage par renforcement ou les réseaux de neurones génératifs, plus complexes ont cette capacité. Un projet en cours, visant à la production automatisée de cartographie nautique complexe à partir d’information hétérogène et contradictoire, l’arbitrage étant aujourd’hui réalisé humainement nous a permis de confirmer le potentiel des architectures de réseaux de neurones complexes, sujet que nous poursuivons en parallèle pour de la production de carte de probabilité de présence de population animale en fonction des conditions environnementales.
- Axe 2, le Edge Computing : Dans certains contextes, le transit d’une image depuis son lieu d’acquisition vers son lieu de traitement n’est pas envisageable. Il convient donc, afin de minimiser le coût du message, de classifier sur place l’image pour ne transmettre que l’information déduite. Nous travaillons actuellement avec des partenaires aux tests en conditions réelles de ce genre de dispositifs.
- Axe 3 : La détection de signaux faibles implique d’explorer des masses de données conséquentes, et l’apprentissage sur ce type de signaux implique des masses de données d’autant plus conséquentes. Or dans certains cas, la centralisation des données en une infrastructure unique n’est pas réaliste soit pour des raisons de confidentialité de la donnée ou parfois plus pragmatiquement encore pour des raisons de taille d’entrepôt mobilisé. Déporter une partie du modèle d’apprentissage au plus près de la donnée et en fédérer les résultats est alors une solution que nous mettons actuellement en œuvre dans le cadre d’un projet couplant géolocalisation et données santé.
Couplé aux 15 années d’expertises de Geomatys dans le domaine de l’interopérabilité, du traitement et des infrastructures massives de données géospatiales, et de consolidations de cette expertise dans sa gamme logiciel Examind, nous oeuvrons désormais à transformer nos expériences dans le domaine du machine learning en des fonctionnalités facilement re-mobilisables pour nos client. Ce n’est pas Malraux mais ce n’est pas mal non plus.
Signé H.A.L
-
9:46
Geomatys begins work on OGC Testbed-16
sur Le blog de GeomatysThe Open Geospatial Consortium (OGC) organizes a yearly Innovation Initiative (a “testbed”) where members collaborate to quickly prototype the latest solutions to geo-spatial data problems. Geomatys has begun working on this year’s initiative, Testbed-16, which will address Earth Observation Clouds; Data Integration, Interoperability & Analytics; Data Containers; and Security. The full scope of Testbed-16 is summarized in the following schematic:
Geomatys will work on 2 components of the testbed workflow: one dealing with Jupyter Notebook and the other with Jupyter Kernel:
- Jupyter Notebook – Jupyter Notebook interacts with API endpoints D165-167 for data retrieval and data processing.
- ADES1/EMS2 with Jupyter Kernel – ADES/EMS implementation with Jupyter supports notebook chaining. The platform will interact with Data Access and Processing APIs.
Geomatys is working on a Datacube solution providing Java/Python API accessible through Jupyter and Zeppelin notebooks.
Planned work :
1.Within Geomatys (extending beyond the Testbed objectives):
- Extend Datacube capabilities to include access to OGC DAPA API.
- Improve access and processing APIs by leveraging OGC GeoAPI features.
2. With other OGC Testbed-16 teams:
- Unify APIs to seamlessly delegate access and processing of data to best fitting back-end service (DAPA or Datacube/Dask cluster).
3. Specific contributions to the Testbed:
- Deploy Jupyter/Zeppelin notebooks exploiting DataCube/GeoAPI engines.
- Develop a WPS component capable of supporting the deployment of a user notebook (or chain of notebooks) as an independent WPS process.
Architecture of the thematic exploitation platform (TEP)
1 ADES (Application Deployment and Execution Service) is a single server-side component and it is in charge of all aspects pertaining to the deployment and execution of Earth Observation applications on different cloud providers
2 EMS (Execution Management Service) is in charge to validate user credentials, perform product search on OpenSearch Catalogue, transfer requests to the relevant ADES server and execute workflow, dispatching each step to differents ADES where are located the relevant data and merge all results provide by ADES
More information: https://www.ogc.org/projects/initiatives/t-16
-
18:00
Geomatys en charge du catalogue Phidias
sur Le blog de GeomatysLe projet Phidias, débuté en octobre 2019, doit préfigurer la mise en place d’une infrastructure de données géospatiale Big Data et multi-thématiques. Il regroupe donc des partenaires aux compétences en calcul scientifique haute performance affirmé et les équipes informatiques d’infrastructure thématique (océanographie, surface continentale, atmosphère).
A terme, l’infrastructure Phidias doit fournir un ensemble de services et d’outils interdisciplinaires basés sur des ressources HPC, mobilisables par les différents pôles et facilitant le croisement des données de chacune des infrastructures distantes.
Dans ce cadre, Geomatys est en charge de la mise en place d’un catalogue au niveau de la fédération qui permet de découvrir les données des pôles et de solliciter les traitements et services disponibles. Chaque pôle est riche d’un très grand nombre de données, décrites et diffusées selon les pratiques usuelles du domaine, la découverte et l’utilisation des données à un plus haut niveau passent donc par un alignement des variables, unités de mesure et vocabulaire métier.
Cet enjeux est en passe d’être résolu par l’utilisation d’ontologies et l’utilisation des derniers concepts en matière de technologie sémantique (JSON-LD…). L’objectif étant de disposer d’un catalogue présentant des ressources avec une description fournie après un enrichissement de vocabulaire automatique et contrôlé qui faciliteront leurs découvertes via des utilisateurs humain mais également leurs utilisations dans des chaînes de traitements complexes mobilisant des ressources multi-thématiques.
D’autre post viendront illustrer ces éléments au fur et à mesure des avancées notables du projet.
En savoir plus :
Press Release : PHIDIAS Launch User-friendly Browsing Experience with HPC Service Access Portal
-
17:09
Geomatys recrute des alternant(e)s
sur Le blog de GeomatysGeomatys recrute deux alternant(e)s l’un en développement, l’autre en marketing/communication.
Voici les offres proposées sur Montpellier :
1 Développeur(se) Full Stack :
Nous sommes à la recherche d’un(e) développeur(euse) Full Stack avec une première expérience (ou stage) réussie en Java/Spring et/ou Javascript/Angular ayant un bon niveau en mathématiques.
Ce que nous cherchons chez vous :
- De la curiosité. En veille permanente sur l’évolution des technologies
- Un souci de la performance.
- De la rigueur. La lisibilité du code/ des Api est fondamentale
- Une connaissance des outils Maven, Jenkins, Git serait un plus
Le poste est à pourvoir dans un premier temps en alternance, vous deviendrez petit à petit responsable de la roadmap du projet central de Geomatys : Examind et serez responsable de la qualité de son code et de ses évolutions. En interaction avec les développeurs de Geomatys vous acquérez une partie de leur connaissances pour les mettre à profit dans l’outil et deviendrez peu à peu le référent sur le logiciel.
Vous intégrerez donc une équipe dédiée au développement d’applications à fortes dominantes géographiques, constituée de développeurs fullstack principalement orientés Java et angular, développant des microservices pour des environnements Docker/Kubernetes, combinés à de nombreux produits open-sources tel que la suite Elastic (ELK), ou PostGreSQL/PostGIS.
Si vous avez de l’enthousiasme, et une envie de travailler dans un domaine innovant, envoyez-nous votre CV (isabelle.pelissier@geomatys.com) , pas besoin de lettre de motivation, rien de tel que des projets concrets pour juger de vos compétences (liens Github… ou autre)
2 Chargé(e) de Marketing et Communication
en Alternance dans un premier temps. Rattaché(e) directement à la direction et avec le soutien de l’équipe de management de l’Entreprise vous intégrez Geomatys et ses méthodes de travail en équipe. Vous faites vôtre la problématique de l’entreprise, son travail sur objectifs et la recherche de solutions dans votre champ d’intervention.
Description du poste
Vous aurez quelques mois de travail chez Geomatys pour vous approprier notre secteur et pour aboutir en fin d’année à des solutions en terme d’outils de communication orientés client.
Communication, animation et élaboration d’un plan de communication visant à la définition et la mise en place de la stratégie commerciale avec entre autres
- Mise à jour du site Web et acquisition de trafic et de référencement. Conception et mise en oeuvre d’un plan d’animation (contenus éditoriaux, démos en ligne…) sur les différents supports digitaux (mobile, tablette, réseaux sociaux)
- Création de nouveaux espaces d’échanges online : forums de discussion, blogs, animation de communautés sur les réseaux sociaux avec les responsables produits / librairies de Geomatys
- Actualisation des supports de communication plaquettes produits, email, courrier, newsletter…
- Choix des vecteurs de communication adaptés au lancement du produit (annonces publicitaires, plan média, évènements promotionnels)
- Gestion des évènements : organisation des salons, séminaires, conférences utilisateurs
A partir de la fin d’année, lorsque ces outils seront réalisés et opérationnels, que vous vous vous serez approprié notre domaine, votre mission sera complétée par des fonctions de Marketing avec entre autres
- Analyse des besoins clients
- Analyse des pistes de différenciation de Geomatys
- Evaluation des nouveaux marchés potentiels (Scope / Ecart avec nos produits actuels / Roadmap pour atteindre notre marché /Concurrence /Plan d’affaires / Stratégie commerciale / communication…..)
Profil
Vous êtes de formation supérieure (Bac+3 et plus), vous aimez les nouvelles technologies, vous êtes autonome, enthousiaste et avec un sens aigu des responsabilités. Vous êtes formé(e) aux outils classiques de communication (Illustrator, PowerPoint…) et aux outils de gestion de réseaux sociaux type Hootsuite ou autre. Le marketing et le développement du business d’une PME sont votre ambition….
….Alors votre profil nous intéresse.