Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considèrerons que vous acceptez l'utilisation des cookies. J'ai compris ! ou En savoir plus !.
banniere

Le portail francophone de la géomatique


Toujours pas inscrit ? Mot de passe oublié ?
Nom d'utilisateur    Mot de passe              Toujours pas inscrit ?   Mot de passe oublié ?

Annonce

Suite à un problème technique intervenu entre le 22 et le 23 mars, nous avons du procéder dans la soirée du 25 mars, à la restauration de la base de données du 24 mars (matinée).

En clair, nous avons perdu vos contributions et inscriptions du dimanche 24 et du lundi 25 mars.
Nous vous prions de nous excuser.

#1 Sat 04 February 2017 11:47

DécryptaGéo
Participant assidu
Date d'inscription: 4 Oct 2008
Messages: 2424

SIG : l’intelligence au service des données géospatialisées

SIG : l’intelligence au service des données géospatialisées


http://www.decryptageo.fr/wp-content/up … nneman.jpgUne tribune de Raoul Penneman, Business Development Manager chez 1Spatial, 25 ans d’expérience dans le marché géospatial.
« Où » et « Quand », sont les réponses apportées par les SIG. Mais comment rendre ces données pertinentes quand les flux de données deviennent si imposants, qu’aucune solution n’arrive plus à livrer une information intelligente pour une prise de décision adéquate? Qu’est-ce qui définit une « SmartData » ?
Des outils de traitement des données, on n’attend plus seulement un affichage thématique, avec zoom et filtrage de la présentation mais de recevoir les notifications d’événements adéquats et circonstanciées, pour de meilleures prises de décisions. La société intelligente des smart cities demande une vision globale, placée dans le bon contexte. Dans cette structuration, les notions de « Quand » et « Où » sont particulièrement importantes pour comprendre le « pourquoi » et le « comment », les comportements humains étant entièrement dépendants de l’espace et du temps.
La loi de Moore inapplicable au Big Data
Depuis 20 ans, les usages et fonctionnement des SIG (Systèmes d’Information Géographique) ont largement évolué et se sont étendus à mesure que les outils se transformaient. Ce n’est pourtant qu’un début : il est impossible qu’un système SIG actuel reste en service sans changement fondamental au cours des 10 prochaines années – et probablement moins. Nous sommes confrontés à une telle explosion des quantités d’informations, d’origines et de formats très différents, pour qu’elles soient traitées sans transformation, malgré une augmentation presque conforme à la loi de Moore de la puissance des processeurs informatiques et l’avènement du cloud computing. Capteurs des IoT (Internet of Things), réseaux sociaux, « opendata », terminaux mobiles… les flux d’informations progressent bien trop rapidement ! Les experts tablent même sur une multiplication de ces flux par 20 d’ici 3 ans !
Véracité et Valeur donnent sens à la donnée
Le SIG, comme les autres technologies qui se transforment avec le Big Data, doit répondre aux 3v : Volume, Variété et Vélocité. Mais pour assimiler et transformer ces données presque en temps réel, il faut ajouter 2v complémentaires : Véracité et Valeur. Le sens, le contexte, les relations entre les données et leur qualité définissent leur pertinence et leur valeur à la prise de décision, par rapport à une masse de données isolées qui de ce fait sont presque inutiles. Le premier pas pour leur donner sens est un contexte géospatial fiable et cohérent pour positionner un événement là où il se produit réellement.
Des terraoctets du Big Data aux octets du Smart Data
Pour créer de la Sagesse permettant d’avoir la Vision et d’agir intelligemment, à partir de données, il faut développer un système de règles et de filtrage intelligent et évolutif, qui transformera les terraoctets du Big Data en octets de données exploitables du Smart Data. Les données récupérées, si elles émanent souvent de systèmes bien structurés du monde de l’entreprises ou des collectivités, doivent être combinées à d’autres sources, opendata, IoT ou encore des réseaux sociaux, dont la structuration n’est pas toujours la même. Les systèmes de règles automatisées doivent être suffisamment souples pour révéler et assimiler de nouveaux formats et modèles de données et les rendre exploitables, voire, pouvoir compléter les données présentes en développant des raisonnements logiques.
Fixer un objectif pour déterminer les bons filtres
Il s’agit de donner un objectif aux données. Il déterminera le sens des règles qui trieront automatiquement les données exploitables. Par exemple, pour comprendre l’évolution du taux de remplissage des hôtels d’une ville comme Bruxelles et définir les actions pour accroître ce taux, les filtres devront, notamment, intégrer les prix des billets de train et d’avion vers cette destination, le bon état des zones touristiques en centre-ville, mais ignorer la rénovation d’un tunnel routier liant la ville à sa banlieue. Seule une planification intelligente des données permettra de répondre à ce défi et de présenter les tableaux de bords synthétiques, comprenant rapports, graphiques et cartes, avec différents niveaux de filtres transformant les big data en KPI (Indicateur clé de performances) permettant d’obtenir une vision globale. Des règles flexibles et adéquates et l’automatisation permettront de fournir le bon contexte et d’adapter les produits en peu de temps aux besoins du marché par quelques réglages.
Faire ressortir les sources saines
Les objectifs déterminés, on peut créer les filtres pour nettoyer les données, en supprimer le bruit, éventuellement les compléter et agir sur des ensembles raffinés. Mais ce n’est qu’un début. Au-delà des règles il faut pouvoir faire confiance aux données collectées. Des données trompeuses (véracité) ou de mauvaise qualité (valeur) n’aideront en rien aux prises de décision, au contraire. Certains moteurs de règles modernes, évolutifs, intuitifs et basés sur des standards ouverts peuvent aider à faire ce tri, pour nettoyer les données disponibles, les intégrer, les compléter et en tirer des KPI ou des notifications d’événements exploitables.
Le processus plus important que le résultat
Ce qui importe vraiment est le processus, c’est lui qui valide les résultats. Les outils et méthodologies utilisés sont d’abord utiles pour donner sens aux données récupérées. Les SIG les plus modernes adoptent une approche par règles positives et s’adaptent à tout type de formats. Les données qui ne se conforment pas aux règles préétablies seront identifiées et automatiquement remontées. Les « erreurs » similaires seront traitées collectivement par un simple affinement des règles. Ce sont ces notions de sens et de contextualisation des données qui font le web 3.0 et préfigure le web 4.0 ou web ubiquitaire.

http://www.addtoany.com/add_to/facebook … t;Facebookhttp://www.addtoany.com/add_to/twitter? … ot;Twitterhttp://www.addtoany.com/add_to/google_p … ot;Google+http://www.addtoany.com/add_to/pinteres … ;Pinteresthttp://www.addtoany.com/add_to/linkedin … t;LinkedInhttp://www.addtoany.com/add_to/tumblr?l … uot;Tumblrhttp://www.addtoany.com/add_to/viadeo?l … uot;Viadeo


Lire le communiqué de presse sur DécryptaGéo

________________________________________________________________________________

Une collaboration DécryptaGéo / GeoRezo


[img]http://georezo.net/img/logo/logo_decryptageo.png[/img]  [img]http://georezo.net/img/logo/banniere_georezo.gif[/img]

Hors ligne

 

Pied de page des forums

Powered by FluxBB