banniere

Le portail francophone de la géomatique


Toujours pas inscrit ? Mot de passe oublié ?
Nom d'utilisateur    Mot de passe              Toujours pas inscrit ?   Mot de passe oublié ?

#31 Mon 14 January 2008 16:57

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 1999
Fiche n°28 : Les données de référence
Cas du système d’information à la parcelle de la Mairie de Paris

Introduction

Les "données géographiques de référence" d'un SIG sont celles qui permettent de localiser les informations, non pas directement par leurs coordonnées géographiques, mais indirectement par une adresse, par un numéro de parcelle ou d’îlot, dont les coordonnées géographiques sont déjà connues. Il est ainsi possible de représenter des données statistiques ou des données de gestion sur des cartes et d’analyser leur répartition spatiale. Généralement, dans un SIG à usages multiples, les données géographiques de référence ne sont pas spécifiques à une seule application. Elles ont pour vocation d’être partagées entre plusieurs domaines de gestion. Elles permettent alors de rapprocher des données de sources différentes et offrent ainsi de puissantes possibilités d’analyse. Ces caractéristiques confèrent en pratique aux données de référence un statut particulier qui fait l’objet de cette fiche.

Des données de gestion à la cartographie :

[img]http://georezo.net/img/cnig/cnig_28_1.gif[/img]

Ce schéma montre comment des données de gestion élémentaires peuvent être cartographiées, soit au moyen de données de référence détaillées telles que l’adresse, soit par le biais de synthèses statistiques (totalisations, moyennes, classifications…) à des niveaux plus ou moins agrégés (parcelles, îlots, arrondissements, communes, etc.). Les données de référence apparaissent ainsi comme un outil commode de représentation cartographique de données localisées. Le cheminement inverse est également possible : en cliquant sur le plan, à l’écran, on obtient les données de gestion associées à l’objet graphique de référence affiché.

Quelles sont les données de référence du SIP  ?

Par définition, ce sont les données de localisation les plus couramment utilisées par les services de la Mairie de Paris. Pour les utilisateurs, la permanence dans le temps de ces données de référence, pour souhaitable qu’elle soit, est un critère moins décisif, que la possibilité de disposer en permanence de leur mise à jour. Mais surtout, ce qui détermine le choix d'une "donnée de référence" du SIP est son usage courant, et donc sa commodité d'usage, reconnue bien avant sa mise à disposition sous forme informatisée.

Voici la liste des données de référence que propose le SIP (système d’information à la parcelle) :

- Adresse (numéro)
- Voie (nom et code)
- Réseau des voies (segments dans l’axe des voies)
- Découpage administratif (arrondissements et quartiers)
- Parcelle cadastrale
- Parcelle du plan de la ville
- Ilot de recensement (1982, 1990, bientôt 1999…)
- Ilot actualisé


Opération d’urbanisme

Bien que les utilisateurs en aient souvent exprimé le souhait, le bâtiment n’est pas une donnée de référence du SIP. Il est difficile en effet de le délimiter et de l’identifier sans ambiguïté à Paris : le bâti parisien est physiquement continu, des circulations internes permettent souvent de passer d’un bâtiment à l’autre. Mais, surtout, chaque source a sa propre définition du bâtiment sans pour autant disposer d’une représentation cartographique susceptible de servir de référence. Par exemple, le bâti du plan cadastral n’est pas décomposé et ne peut pas être associé aux bâtiments du fichier de la propriété bâtie. Pour sa part, le bâti du plan parcellaire de la Ville est décomposé (par volumes), mais selon un découpage différent de celui du fichier de la propriété bâtie. De plus, il n’est disponible à ce jour qu’en format maillé (raster).


Comment sont " produites " les données destinées à servir de référence spatiale ?

Les données de référence du SIP proviennent de différentes sources qui les gèrent pour leur propre compte. Celles-ci n’ont pas forcément conscience des besoins qui naissent de l’usage élargi de leurs données. Il ne sera pas possible ici d’examiner tous les problèmes que crée cette situation. Nous signalerons cependant les principaux d’entre eux, auxquels le SIP a apporté (ou parfois simplement tenté d’apporter) une réponse. Celle-ci consiste à structurer et stabiliser ces données, à les compléter et à les rendre cohérentes entre elles et parfois à ajouter aux données de référence disponibles des données nouvelles, mieux adaptées.

Les numéros d’adresse sont attribués officiellement par le service de l’identification foncière de la Ville de Paris (attestation et décision de numérotage) qui les positionne sur un plan au 1/500 et les affecte à une parcelle du plan de la ville ; mais il existe aussi des cas d’adresses d’usage, non officielles, ne figurant pas sur le plan de la Ville, et néanmoins utilisées dans les fichiers et sur le terrain et donc prises en compte par le SIP et positionnées géographiquement après enquête ; les espaces sans adresse propre (certains monuments publics par exemple…) sont également difficiles à localiser avant que le SIP ne leur donne une adresse de convention ; un autre problème concerne l'adressage d’objets qui n’existent pas encore, comme les futures constructions nouvelles encore au stade de l’instruction d’un permis de construire (voir ci-dessous les opérations d’urbanisme et les lots opérationnels).

Les voies et les espaces publics divers (places, squares, parcs) font l’objet d’arrêtés de dénomination du Maire sur proposition d’une commission municipale. C’est le service du plan de la Ville qui délimite dans chaque cas l’espace à dénommer et reporte ce nom sur le plan, y compris quand il s’agit de voies privées. Mais un jardin, une bouche de métro ou une allée dans un centre commercial doivent-ils être considérés comme des voies ? Les réponses sont apportées cas par cas. Il n’a pas été possible de faire converger la nomenclature officielle des voies de Paris et la codification des voies et lieux dits dont le domaine de définition (souterrains, bretelles du périphérique…) et d’application est plus large. En revanche, le SIP a contribué à réduire les décalages de mise à jour entre la codification DGI (code RIVOLI-FANTOIR) et la codification propre à la Ville, ainsi que les non recouvrements en termes de définition.

Le réseau des voies constitue une représentation schématique de celles-ci, réduite à une ligne passant par leur axe et à des nœuds aux carrefours. Le réseau des voies est très commode pour certaines études (circulation par exemple). Cette représentation est précisée par de nombreuses conventions : doublement des axes lorsque les voies de circulation sont physiquement séparées, prise en compte des îlots directionnels dans les carrefours complexes, etc. Mais plusieurs réseaux des voies, même établis à partir de sources publiques, coexistent, sans que cette multiplicité réponde à des différences fonctionnelles avérées. Pour répondre aux besoins exprimés par ses utilisateurs et servir de référence, le SIP, en concertation avec plusieurs directions de la ville de Paris, au nombre desquelles le service de la voirie, a réalisé le "Schéma du réseau des voies", SRV.

Le découpage administratif de Paris en quartiers et arrondissement est relativement stable. Les changements procèdent généralement de nouveaux aménagements urbains. Ils font l’objet d’arrêtés préparés par le service du plan de la Ville. Mais ces nouveaux découpages ne sont pas toujours immédiatement signalés et pris en compte par le cadastre… Le SIP a été l’occasion d’intensifier les échanges et d’assurer une meilleure synchronisation.

Les parcelles cadastrales forment la plus petite unité de propriété du sol. Les modifications de ce découpage résultent de divers mouvements : divisions de propriété en vue d’une revente partielle ; regroupements entre propriétés voisines appartenant au même propriétaire ; incorporation d’une propriété à l’espace public (classement) et, inversement, création d’un espace parcellisé à partir de sols d’espaces publics (déclassements). Ces mouvements donnent lieu à la constitution de divers documents (documents d’arpentage, actes notariés, etc.) et alimentent la mise à jour des parcelles du plan cadastral (DGI) ainsi que celles du plan de la Ville de Paris. Mais la disparition d’une parcelle par classement, par exemple, répond à des critères complexes qui conduisent parfois à des incertitudes ou à des retards dans la mise à jour du plan cadastral. Par ailleurs le morcellement du parcellaire est parfois excessif, les regroupements entre parcelles voisines du même propriétaire n’étant pas obligatoires. Enfin, chacun sait qu’en France le domaine public n’est pas parcellisé, sauf lorsqu’il est concédé… il ne peut donc pas être directement référencé.

Le SIP ne pouvait remédier directement aux défauts de cette source. Il s'est donc attaché à favoriser le retour vers le cadastre des informations indispensables et à constituer un " parcellaire " propre à la Ville de Paris.

Le plan parcellaire de la Ville de Paris a servi de cadastre pendant plus d’un siècle. Ses qualités (décomposition du bâti, représentation des mitoyens, enrichissement des détails topographiques) lui assurent un large usage. Sa maintenance se poursuit donc malgré la réalisation d’un cadastre d’Etat depuis les années 70. Ce plan est disponible désormais en format maillé (raster). Toutefois, le SIP a créé, à partir du plan cadastral, une représentation des parcelles du plan de la Ville en format vecteur qui peuvent ainsi servir de référence (le format maillé étant inerte et donc inutilisable pour cet usage). Le SIP assure en permanence la cohérence entre ce parcellaire vecteur du plan de la Ville et celui du cadastre dont les références sont inscrites dans les actes notariés. A ce titre, le SIP favorise la prise en compte du classement des voies et des élargissements de voirie. Il intervient également pour signaler les cas de parcelles voisines qui pourraient, ou devraient, être regroupées. Enfin, le SIP a parcellisé, sous forme de " fausses parcelles ", de nombreux espaces publics résiduels ou inaccessibles à la circulation : quais de Seine, talus du périphérique, îlots de voirie, espaces plantés, terres pleins divers et leur a attribué des adresses (non officielles)...

Les îlots des recensements sont définis par l’INSEE selon une méthode homogène sur l’ensemble du territoire national. Ils sont délimités en concertation avec la Ville de Paris avec la participation de la Banque de Données Urbaines de l’APUR. En pratique, il s’agit des espaces délimités par des voies de circulation (généralement publiques) et parfois par des limites administratives ou par des barrières naturelles (bras de Seine…). Mais l’INSEE ne décompose pas systématiquement en îlots les grands espaces (publics) non bâtis dès lors qu’ils sont vides de matière à recenser, et - surtout - ne tient pas compte du parcellaire : on ne peut donc pas toujours remonter par agrégation des parcelles aux îlots INSEE. De plus, les îlots de recensement souffrent d’une mise à jour trop épisodique (7 à 9 ans entre les recensements). Le SIP a remédié à ces divers défauts en créant les îlots actuels.

Les îlots actuels créés par le SIP sont comme leur nom l'indique, régulièrement mis à jour (une fois par an en attendant d’éventuelles mises à jour pluriannuelles). De plus, ils sont compatibles avec le parcellaire, rendant possibles de opérations d’agrégation des parcelles au niveau îlots actuels. Enfin, ils offrent une décomposition des espaces publics reflétant leur desserte réelle par le réseau viaire.

Les opérations d’urbanisme sont des portions du territoire parisien donnant lieu à des interventions des services de la Ville de Paris, en coordination le plus souvent avec des sociétés d’aménagement ou des constructeurs publics. Ces opérations s’appuient généralement sur des procédures d’urbanisme (ZAC, DPUR, RHI, RI,…) mais pas toujours. Ces périmètres d’intervention doivent servir de référence car de nombreux services de la ville les utilisent. Les difficultés principales rencontrées ici sont de savoir tout d’abord à partir de quand un "périmètre d’étude peut être considéré comme une " opération " de référence pour les divers services et organismes impliqués. Il faut ensuite déterminer quelles interventions publiques constituent une " opération ". Celle-ci ne conduit pas toujours, en effet, au lancement de procédures d’urbanisme particulières, de telles procédures ne pouvant concerner qu'une fraction du périmètre de l’opération.

Le découpage de ces opérations en lots opérationnels (préfigurant en principe le parcellaire et les voies à venir) devait compléter ce dispositif de référence et faciliter plus encore le suivi coordonné des réalisations dans les opérations d’urbanisme. Mais cette donnée de référence, initialement prévue, n’est pas disponible pour l’instant dans le cadre du SIP.

Ce tour d’horizon montre que la plupart des données susceptibles de servir de référence ont fait l’objet de multiples interventions de coordination ou d’amélioration, soit par l’équipe du SIP, soit par les services municipaux. Les échanges entre services ont dû s’intensifier, des règles ont été explicitées et appliquées et dans plusieurs cas des objets complémentaires ont dû être créés. Ce travail commence à atteindre son but : les données de référence sont de plus en plus utilisées par la Ville de Paris (y compris sur Internet et à titre expérimental sur l’Intranet). Des mises à jour régulières doivent garantir la qualité, au cours du temps, de ces données de référence.

Les qualités attendues des données géographiques de référence

Eriger certaines données en données de référence implique qu’elles répondent à une série d’exigences concernant leur format graphique, leur cohérence, leur actualité et enfin leur gestion dans le temps. De plus ces données doivent être documentées (voir la fiche technique n°23).

Les données de référence doivent être établies dans un format graphique de haut niveau. Du format graphique disponible dépend largement, en effet, la diversité de l’usage des données de référence. Un format de type " vecteur " (par opposition à " raster ") et le respect de règles topologiques (connexion des arcs du réseau des voies, contiguïté des parcelles mitoyennes, inclusion rigoureuse des parcelles dans les îlots ou du point d’attache de l’adresse dans la parcelle, etc.…) sont indispensables. Le SIP respecte scrupuleusement, en la matière, des règles d’intégrité rigoureuses et profitables à tous.

Modèle conceptuel (simplifié) des données de référence du SIP :

[img]http://georezo.net/img/cnig/cnig_28_2.gif[/img]

Les données de référence doivent être cohérentes. Il s’agit de respecter des règles de définition et d’établir systématiquement, en mode graphique et en mode logique, les liens entre les données de référence : un numéro d’adresse est obligatoirement lié à une voie et une seule, mais il est aussi lié à un arc du réseau des voies, à une parcelle cadastrale, à une parcelle du plan de la Ville, à un îlot de recensement, à un îlot actualisé, à un quartier de Paris, et enfin, éventuellement, à une opération d’urbanisme  ; une parcelle cadastrale est liée généralement à une parcelle ville et inversement une parcelle "ville" correspond à une ou plusieurs parcelles cadastrales, etc. Ces liens résultent de la localisation de ces objets dans l’espace et peuvent généralement être établis ou contrôlés automatiquement au moyen d’opérateurs d’analyse spatiale. Cette cohérence garantit la possibilité de rapprochements pertinents entre des informations rattachées à l’une quelconque des données de référence. Ils permettent également d’agréger ces données aux niveaux géographiques pertinents.

Les données de référence doivent être à jour. Il ne peut toutefois être question d’une actualité instantanée s’agissant de références issues de plusieurs sources et ayant subi un processus d’élaboration relativement complexe. En revanche la régularité de la production des données de référence, selon les mêmes règles, en respectant les mêmes définitions, est indispensable. Le SIP suit un rythme annuel. Certaines données seront peut-être disponibles par trimestre ultérieurement.

La généalogie des données de référence doit être disponible. Un historique complété par les filiations entre objets doit être associé à la mise à disposition de données de référence : il s’agit pour des utilisateurs travaillant dans leur propre environnement et ayant extrait des données de référence de la base du SIP, de pouvoir procéder à des actualisations automatiques (voies dont le nom a changé), ou d’examiner les mouvements cas par cas, afin de vérifier leurs données là où le référentiel a été modifié (permis de construire en cas de modification du découpage parcellaire par exemple). Ce suivi historique des objets est contraignant pour la production des données. Sa nécessité n’est généralement pas très bien comprise tant que l’usage des données est épisodique ou expérimental. Il devient indispensable lorsque de véritables processus applicatifs déportés, incluant la dimension spatiale, sont mis en place.

Pour que les données de référence présentent toutes ces qualités, un travail important d’initialisation a été nécessaire. Il se poursuit par un travail de maintenance, consistant à mettre en cohérence les données provenant de ces différentes sources lors de leur mise à jour et à les compléter en concertation, notamment, avec le service du plan de la Ville et différents services utilisateurs. Le SIP assure également la promotion de l’utilisation des données de référence en banalisant les outils informatiques capables d’afficher des données statistiques ou des données de gestion à travers la cartographie ou de remonter aux données de gestion en cliquant sur des objets du plan.

La disponibilité d’un référentiel géographique de qualité est un préalable à la généralisation de l’usage des fonctions (principales) des SIG. Cette généralisation suppose, certes, de réunir d’autres conditions, en particulier organisationnelles, mais grâce aux données disponibles elle est désormais réellement amorcée.

Fiche établie par Paul Rouet, APUR

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#32 Mon 14 January 2008 16:57

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 1999
Fiche n°29 : Livre vert sur les données publiques

Introduction

La Commission européenne a publié un "Livre vert" sur la meilleure façon d'utiliser l'information détenue par le secteur public afin de permettre aux citoyens et aux entreprises d'Europe d'en tirer le maximum de profit dans le contexte de la société de l'information.

La présente fiche rassemble les principaux commentaires associés à ce livre vert. Les données publiques comprennent une proportion importante de données géographiques.

De nombreuses informations réunies par le secteur public, dans le cadre de ses tâches, pourraient être exploitées par l'industrie du multimédia pour mettre au point de nouveaux produits et de nouveaux services. Les citoyens pourraient davantage profiter de leurs droits s'ils avaient plus facilement accès à des informations concernant, par exemple, les conditions dans lesquelles il est possible de travailler, d'étudier ou de passer sa retraite dans les différents États membres. Nombre de personnes aimeraient disposer d'informations complètes sur les dispositions fiscales en vigueur en matière d'achats transfrontaliers. Les entreprises pourraient accroître leur compétitivité si elles pouvaient prendre connaissance, de manière simple et rapide, des réglementations et procédures applicables aux exportations dans d'autres pays.
Sur tous ces points, les informations existent, mais les conditions dans lesquelles les États membres les communiquent, comme les procédures techniques et juridiques, varient et ne sont guère transparentes pour les citoyens et les entreprises. Le Livre vert appelle à la discussion et pose des questions sur la manière d'améliorer cette situation. La Commission souhaite obtenir des réponses d'ici le 1er juin 1999.

L’enjeu

L’information émanant du secteur public (question1) joue un rôle fondamental dans le bon fonctionnement du marché intérieur et dans la libre circulation des marchandises, des personnes et des services. En l’absence d’une information publique de nature administrative, législative, financière ou autre, facilement disponible, les acteurs économiques ne sont pas suffisamment informés pour prendre les décisions qui leur incombent.

L’information du secteur public en Europe est souvent fragmentée et dispersée, à un point tel que la transparence en est affectée. Cette situation résulte principalement de législations nationales différentes (question 2) régissant l’accès à l’information ainsi qu’à des pratiques divergentes qui entravent la mise à disposition des données. L’enjeu n’est pas pour les États membres de produire plus d’informations mais d’assurer que l’information déjà disponible au public soit plus facilement accessible et compréhensible pour les utilisateurs potentiels.

Une mise à disposition sans entrave de l’information publique est une condition préalable à la compétitivité de l’industrie européenne. A cet égard, les entreprises européennes souffrent d’un sérieux désavantage vis-à-vis de leurs concurrents américains qui bénéficient d'un système d'information publique efficace et hautement développé à tous les niveaux de l’administration (question 3). Une disponibilité de l’information du secteur public dans les meilleurs délais est de plus en plus importante afin de soutenir l’économie en réseau et valoriser son potentiel économique.

En Europe, le problème est particulièrement crucial pour les PME qui ont peu de ressources à consacrer à la recherche souvent difficile d’une information fragmentée. Cette situation a pour conséquence ultime un effet négatif sur la création d’emplois. Plus spécifiquement, les entreprises européennes de "l'industrie du contenu" connaissent de grandes difficultés face à leurs concurrents américains lorsqu’il s’agit d’exploiter l’information du secteur public.

Que les citoyens et les consommateurs de l’Union Européenne ne puissent faire un meilleur usage de l’information publique disponible dans d’autres États membres relève de l’anachronisme, alors même que l’Euro joue un rôle moteur dans le processus d’intégration économique. Cette situation constitue un défi aux droits conférés aux citoyens dans le cadre des traités communautaires.

L’utilisation grandissante des médias électroniques pour la conservation et la diffusion de l’information du secteur public peut certes aider à améliorer cette situation, mais elle risque également d'amplifier encore davantage les différences existantes entre les États membres. Un certain nombre d'entre eux ont commencé à examiner les effets des nouvelles technologies sur les services publics et sur l’accès et l’exploitation de l’information du secteur public (question 4).

Le sujet est également d’importance dans la perspective de l’élargissement de l’Union Européenne. Les pays candidats à l’adhésion devront adapter leurs systèmes juridiques ainsi que leurs services publics afin de se conformer aux exigences leur incombant en qualité d’Etat membre. Un meilleur accès à l’information du secteur public peut contribuer à ce processus.

La nécessité de lancer une concertation au niveau européen est aujourd’hui plus claire et plus urgente que jamais. L’objectif de ce Livre vert est d’entreprendre une large consultation de l’ensemble des acteurs concernés, afin d’examiner les principales questions qui se posent et de stimuler la discussion politique au niveau européen. Le Livre vert se fonde sur les résultats d’un long processus de consultation préliminaire, engagé en juin 1996, et auquel furent conviés des représentants des États membres, des groupes de citoyens et d’utilisateurs ainsi que des représentants du secteur privé et plus spécifiquement, de l’industrie de l’information. Tous ceux qui ont été consultés ont approuvé le lancement d’un débat sur ce sujet.

Les sujets abordés dans ce Livre vert sont tirés des résultats de cette large consultation. Les réactions aux questions qu’il soulève guideront l’action future. Il est clair qu’une discussion approfondie et un échange des meilleures pratiques seront nécessaires entre les États membres et les autres principaux acteurs.

Certaines des questions soulevées peuvent requérir des solutions techniques ; d’autres peuvent être traitées par le biais de l’amélioration de procédures administratives ; d’autres encore nécessiteront des réponses politiques. A la lumière des résultats du processus de consultation publique, des propositions d’action pourraient être formulées par la Commission afin d’améliorer la situation au niveau européen dans des domaines spécifiques. Bien entendu seules les propositions conformes aux principes de subsidiarité et de proportionnalité seront considérées. Le type et l’intensité de toute réponse doivent être limités à ce qui est nécessaire pour atteindre les objectifs des Traités.

Rien dans ce Livre vert, ni dans d’éventuelles actions de suivi, ne devrait être considéré comme préjugeant le régime de la propriété ou la mission reconnue aux organismes publics dans les États membres.

Toutes les parties intéressées appartenant aux secteurs public et privé, sont instamment invitées à commenter les questions traitées dans le présent document. La Commission sera heureuse de répondre à toute demande d'information complémentaire concernant les politiques nationales ou communautaires régissant l'accès à l'information publique.

Les commentaires et les demandes devront parvenir à l’adresse suivante avant le 1er juin 1999 :

Commission européenne
A l'attention de M. Huber Chef d'Unité DG XIII/E-1
Bâtiment EUROFORUM, Bureau n°1174, Rue Alcide de Gasperi L-2920 Luxembourg
E-mail: pubinfo@texte-a-enlever.cec.be

Remarques finales

Le manque de transparence de l’information émanant du secteur public à travers l’Europe constitue une barrière substantielle pour les citoyens comme pour les entreprises qui veulent exercer les droits reconnus par le Traité communautaire et bénéficier des avantages du marché intérieur.

Simultanément, l’industrie européenne de l’information est confrontée à une pléthore de lois et de pratiques différentes qui, de l’opinion de la Commission, sont susceptibles de les freiner lorsqu’il s’agit d’exploiter pleinement le potentiel d’information en Europe.

Une action éventuelle au niveau européen pourra être envisagée en fonction des réponses apportées au Livre vert et, en particulier, des commentaires sur les barrières et obstacles de nature réglementaire ou autres, pouvant affecter les possibilités d’accès et d’exploitation de l’information du secteur public.

Cette réponse aux attentes des partenaires pourrait porter par exemple sur :

- La législation (par exemple par le biais de recommandations, de lignes directrices ou des mesures contraignantes).

- L’échange d’information à travers l’Europe, permettant aux organismes publics de tirer parti des expériences des autres.

- Une sensibilisation accrue, à tous les niveaux (citoyens, entreprises et administrations), concernant les sources d’information existantes.

- Les projets pilotes et de démonstration permettant la diffusion des technologies soutenant les nouveaux services d’informations et expériences avec de nouveaux modèles de partenariats entre le public et le privé.

- Des initiatives en matière d’éducation et la formation pour améliorer les capacités de gestion de l’information, des administrations et des particuliers.



Liste des questions

La liste suivante récapitule l’ensemble des questions soulevées.

1. Quelle est la définition du secteur public qui vous semble la plus appropriée ? Quelles catégories d’information du secteur public devraient-elles être utilisées dans le débat ?

2. Est-ce que des conditions différentes d’accès à l’information du secteur public dans les États membres créent des barrières au niveau européen ? Dans un tel cas, quels éléments sont en cause : l’exigence d’un intérêt, les exemptions, le délai, le format, le volume ? Quelles solutions peuvent être envisagées ?

3. L’établissement de métadonnées (information sur l’information disponible) au niveau européen pourrait-il aider les entreprises et les citoyens européens à trouver leur chemin dans l’information du secteur public disponible à travers l’Europe ? Dans l’affirmative, comment cela pourrait-il être réalisé le mieux ? Quelles catégories d’information devraient contenir des annuaires de ressources d’information du secteur public ?

4. Quel est l’impact des différentes politiques de tarification sur l’accès et l’exploitation de l'information du secteur public ? Est-ce que cela crée des différences dans les opportunités qui s’offrent aux citoyens et aux entreprises au niveau européen ?

5. Dans quelle mesure et sous quelles conditions, les activités des organismes du secteur public sur le marché de l’information pourraient-elles créer une concurrence déloyale au niveau européen ?

6. Est-ce que différents régimes de droit d’auteur portant sur l’information du secteur public en Europe représentent des barrières à l’exploitation de cette information ?

7. Est-ce que des considérations liées au respect de la vie privée méritent une attention particulière au regard de l’exploitation de l’information du secteur public? De quelle façon les intérêts commerciaux pourraient-ils justifier un accès aux données personnelles détenues par le secteur public ?

8. Dans quelle mesure les différents régimes portant sur la responsabilité dans les États membres représentent-ils un obstacle à l’accès ou à l’exploitation de l’information du secteur public ?

9. Dans quelle mesure les politiques poursuivies par les institutions de l’Union européenne dans le domaine de l’accès et de l’exploitation de l’information sont-elles adéquates ? De quelle façon peuvent-elles être améliorées ?

10. Quelles sont parmi les actions possibles, celles qui appellent une attention prioritaire au niveau européen ?



Fiche établie par le groupe de travail à partir du document référencé COM(1998)585

"L'information émanant du secteur public : une ressource clef pour l'Europe"

avril 1999


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#33 Mon 14 January 2008 16:57

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 1999
Fiche n°30 : l'infrastructure géographique de référence

Introduction

Une réflexion est engagée au plan national pour mettre en place une infrastructure géographique de référence répondant aux besoins des collectivités publiques. Il s'agit d'examiner avec les représentants de l'administration et des collectivités territoriales, la nature des données qu'ils utilisent et leurs modalités de mise en œuvre pour dégager les spécifications et conditions d'accès à une infrastructure géographique favorisant les utilisations les plus larges.

Or, la manipulation des données géographiques, directement sous forme numérique, par les utilisateurs, a profondément modifié leurs attentes en produits et services de base. Il est essentiel que les utilisateurs précisent rapidement ces attentes pour qu'elles puissent être prises en considération dans les investigations actuellement engagées.

L'infrastructure géographique de référence

Depuis plus d'un siècle, la notion d'infrastructure géographique de référence est attachée aux réseaux de repères géodésiques et de nivellement. Aujourd'hui, l'usage des SIG s'appuie toujours sur cette infrastructure topographique mais requiert également la disponibilité de divers données complémentaires constitutives d'une nouvelle structure de référence, à préciser, comprenant : les numéros des parcelles cadastrales, les contours parcellaires, les limites administratives, les îlots de recensement, les adresses postales, …

Or, aujourd'hui, les produits topographiques de base sous forme cartographique rassemblent un ensemble important de données et d'information qui s'avère difficile à manipuler informatiquement depuis un poste de travail d'utilisateur.

La nouvelle structure de référence à établir doit permettre de distinguer quatre types de fonctions qui pourraient aider à mieux structurer l'organisation des produits numériques de base :
- la fourniture d'une image complète, actuelle et lisible d'un territoire,
- la fourniture d'un squelette descriptif du territoire qui permette l'attachement d'informations thématiques particulières,
- la fourniture complémentaire de diverses données d'intérêt général, dans des représentations normées et des caractéristiques de qualité garanties,
- la fourniture d'une localisation prédéterminée d'identifiants de référence qui autorise la mise en relation spatiale de diverses informations administratives, économiques ou sociales requises dans le cadre d'une analyse ou d'une application sur un territoire.

Visualiser un territoire

Fonctions principales :

- fournir une image globale d'un territoire donné,
- fournir un état objectif d'un territoire à un moment donné,
- fournir un fond de plan "riche".

Principales caractéristiques :

- l'instantanéité (cohérence temporelle interne),
- l'exhaustivité (limiter les pertes d'informations liées au processus de saisie, à la schématisation de la représentation, …)
- l'actualité (la non-péremption ou le faible vieillissement de l'information est un critère objectif de l'appartenance potentielle à un référentiel)
- la cohérence interne (notamment lorsque le produit est composite).

Offrir une infrastructure topographique

Fonctions principales :

- mettre en cohérence spatiale des données thématiques issues de cartographies variées,
- fournir un fond de plan "dépouillé",
- constituer le référentiel spatial de bases de données locales,

Principales caractéristiques de l'infrastructure topographique :

- fréquence d'emploi (valeur quantitative, fondant des raisonnements économiques pour la mise en œuvre des référentiels),
- qualité de la précision absolue,
- universalité d'emploi (diversité des emplois effectifs, indépendamment des quantités : richesse potentielle de croisement d'information),
- pérennité des objets,

Proposer des données thématiques d'intérêt général

Fonctions principales

- fournir "sur étagère" un enrichissement minimal des fonds de plan,
- standardiser la représentation des objets topographiques d'utilisation large et fréquente,

Principales caractéristiques des données thématiques d'intérêt général

- diversité des emplois
- universalité de la définition et de la représentation,
- cohérence de ces données avec l'infrastructure topographique,
- définition de règles de généralisation et de "dégénéralisation" de ces objets aux différentes échelles de représentation cartographique,[/i]

Géoréférencer des données administratives et socio-économiques

Fonctions principales :

- localiser géographiquement des données administratives et socio-économiques diverses,
- mettre en cohérence spatiale des données thématiques distinctes à associer dans une analyse,
- expliciter les améliorations de qualité de certains référentiels administratifs,

Principales caractéristiques :

- universalité du référentiel (respect des normes internationales, cohérences transfrontalières…)
- précision de localisation relative
- niveau de résolution des descriptions géométriques

Les services associés au référentiel spatial

Les nomenclatures sectorielles

- universalité
- stabilité temporelle

Le transfert d'échelle

- généralisation et "dégénéralisation" géométriques
- emboîtement des nomenclatures

Le transfert de date

- standardisation des dates de référence
- standardisation des modes d'archivages des historiques et/ou des mises à jour

Les variables d'ajustement

Richesse du contenu, quantité d'objets et niveau de détail de description des objets

Les utilisateurs ont une vision fonctionnelle des objets topographiques. Comme par essence, un référentiel spatial doit permettre la combinaison d'un nombre aussi grand que possible de vues sectorielles différentes, l'accroissement du nombre d'objets entrant dans le référentiel en dégrade rapidement la fonction.

Complexité du contenu, niveau de structuration, fragmentations possibles

Pour être effectivement utilisées, les données de référence doivent être techniquement et économiquement accessibles. Aussi ces données doivent-elles pouvoir être délivrées par sous-ensembles (au moins selon les quatre fonctions distinguées mais également au sein de chacune d'elles, les tarifs correspondants variant essentiellement en fonction des quantités de données.

De même, le niveau de structuration des données doit être simple. Le cas échéant, des structurations plus complexes peuvent être proposées.

Précision de localisation, liens avec les autres référentiels, gamme d'échelle

La forme numérique conduit à stocker les objets en base de données, donc en les individualisant, indépendamment de leur transcription graphique. Cette caractéristique modifie la perception de la précision des données dans leur localisation et leur représentation. Elle conduit en outre à prendre en considération le "grain" des objets, c'est-à-dire le seuil de dimension réelle à partir duquel un objet ou un détail constitutif d'objet, est pris en compte..

- La précision des données ne peut plus être qualifiée par la précision graphique de leur transcription globale, mais par la précision de localisation de chaque objet.
- Faut-il entériner la proposition européenne d'échelles gigognes dans un rapport 10 (1/1000000, 1/100000, 1/10000, 1/1000, 1/100), en la traduisant en précision de localisation (décimétrique, métrique, décimétrique, …) et en niveau de grain ?

Les fréquences d'actualisation

- Faut-il privilégier quelques exploitations approfondies ou rapprocher les dates d'observation ?
- Faut-il multiplier les formes technologiques de mise à disposition pour atteindre des clientèles nouvelles?

Economie du référentiel

Un référentiel technique peut ne pas être utilisé si sa forme technologique n'est pas adaptée aux pratiques et aux moyens des utilisateurs, ou si son coût le met hors d'atteinte d'une majorité d'entre eux.

Aussi est-il nécessaire d'étudier particulièrement l'articulation entre l'infrastructure topographique, qui doit être largement et facilement utilisée, et les données thématiques d'intérêt général, dont la production dans des conditions stables et fiables garantissent l'utilité.

Par ailleurs, les conditions économiques générales : tarification, droits d'usage, droits d'auteur, modalités de distribution, … doivent être actualisées pour que les nombreuses applications de l'information localisée prennent la place qui leur revient dans la société de l'information.

Fiche établie à partir d'un document de travail du METL

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#34 Mon 14 January 2008 16:57

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 1999
Fiche n°31 : Le GPS au CRIGe PACA

Introduction

Les utilisateurs publics de données géographiques de la Région Provence Alpes Côte d'Azur ont mis en place depuis plusieurs années un fonctionnement en réseau dénommé "tour de table PACA" qui s’est transformé en Comité Régional de l’Information Géographique (CRIGe PACA). Dans ce cadre, différentes réunions techniques sont régulièrement organisées sur les sujets intéressant les partenaires du tour de table. Les applications du GPS ont rapidement constitué l'un des thèmes important d'échange et une journée d'état des lieux et de débat leurs ont été consacrées le 23 mars 1999. La présente fiche restitue divers éléments du dossier de cette journée.

Partenaires et applications

Une quinzaine de membres du tour de table ont déjà mis en œuvre une ou plusieurs exploitations du GPS pour la localisation d'informations : les services départementaux d'incendie et de secours, la direction régionale des impôts, certains conseils généraux, l'INRETS, une chambre départementale d'agriculture, la Société du canal de Provence, le centre d'études et de recherche sur l'environnement et la gestion de l'eau (CNRS), un Parc naturel national, l'IFREMER, le CETE Méditerranée.

Les applications d'ores et déjà mises en œuvre sont nombreuses et diverses :

- densification de canevas de points de triangulation : remaniement du plan cadastral,
- relevés topographiques : pistes de défense contre l'incendie, description des équipements de lignes de bus, réseaux d'irrigation, chemins de randonnée, localisation de prélèvements en mer, trait de côte…
- gestion routière : localisation d'accidents, gestion de réseaux, …
- établissement de points côtés : impacts des remblais d'infrastructure,
- environnement : localisation de points de mesure de pollution, localisation de contours particuliers intéressant la faune et la flore, suivi de glissement de terrain,

Le bilan réalisé par enquête pour la réunion du 23 mars a mis en évidence la confirmation de l'intérêt des techniques de localisation par GPS. La plupart des utilisateurs indiquent que leurs objectifs initiaux ont été atteints et beaucoup d'entre eux envisagent des exploitations ultérieures, tant pour procéder à des actualisations régulières des informations relevées que pour expérimenter de nouvelles applications.

Les bilans techniques établis à l'occasion des premières mises en œuvre permettent de tirer de nombreux enseignements tant sur les choix des équipements que sur les modalités de mise en œuvre ou l'organisation de l'accès à la balise fixe pour les procédures différentielles. Des problèmes de cohérence avec les référentiels topographiques traditionnels ont également été relevés.

Le rôle de l'animation

Veille et développement technologique

Les techniques GPS évoluent très vite et l'organisation d'une veille technologique est indispensable. L'animation régionale est évidemment un cadre qui peut favoriser le partage des tâches et la rediffusion des informations. Cette rediffusion est essentielle et ne s'effectue pas facilement. depuis le niveau national. Il serait pourtant utile de faire plus connaître les travaux de groupes nationaux comme le groupe "positionnement statique et dynamique" du CNIG ou le "club GPS" initiés par les laboratoires des ponts et chaussées. En outre, les questions techniques sont nombreuses, comme la localisation en temps réel et le calcul différentiel actuellement, qu'il faut pouvoir adresser aux professionnels concernés. Le tour de table mettra sans doute assez prochainement en place un groupe de travail pour assurer l'animation nécessaire.

Le niveau régional est sans doute également le bon niveau pour associer dans cette veille et ces échanges techniques utilisateurs et chercheurs. Les premiers apportent en effet de nombreuses questions touchant aux conditions opératoires et aux applications nouvelles, les seconds apportent leurs compétences et leur disponibilité aux investigations nouvelles.

Formation

Les problèmes de formation sont évidemment nombreux. Trois types de public sont à distinguer. Le premier niveau, primordial, est celui des décideurs et concepteurs. Il est en effet nécessaire qu'ils connaissent non seulement l'existence mais aussi les utilisations possibles de ces techniques, et les modalités de leur mise en œuvre. Le second niveau est celui des chefs de projet pour qu'ils intègrent correctement les caractéristiques des levés GPS tant pour la préparation des relevés de terrain que pour la conception des bases de données. Le troisième niveau est celui des opérateurs, pour qu'ils maîtrisent correctement les manipulations instrumentales et les conditions de mise en œuvre.

Certains partenaires du tour de table ont développé des programmes internes de formation et même, c'est le cas des services départementaux d'incendie et de secours, une formation de formateur. Le club SIG du ministère de l'Equipement envisage la réalisation d'une valise pédagogique.

Les milieux universitaires et de la recherche sont bien placés pour contribuer à ces actions de formation. Une partie de leur activité est en effet liée à l'enseignement et par ailleurs, il est aujourd'hui dans la politique du ministère de l'éducation nationale et de la recherche de valoriser les activités de la recherche orientées vers des applications concrètes et la formation.

Equipement technique

Le bon fonctionnement en réseau appelle nécessairement une bonne connaissance des équipements existants. Le repérage de ces équipements est assez facile dans le contexte du tour de table, d'autant que le CNIG a également commencé un recensement. Par contre, il nécessaire d'approfondir le recensement des caractéristiques techniques et d'emploi de ces équipements.

Les premières expérimentations ont mis en évidence diverses limites d'emploi des équipements existants, en précision de localisation et facilité de mise en œuvre. Par ailleurs, plusieurs partenaires se sont récemment ou vont prochainement s'équiper (CETMEF, IGN, …). La connaissance de l'équipement existant que peut apporter le tour de table permet d'opter pour la solution technique la plus adaptée à l'application projetée et de rationaliser les choix d'équipements partagés. En particulier, la question de la précision recherchée est fondamentale. Il semble bien que 50 centimètres de précision et l’utilisation d’une balise bi-fréquence soit un objectif réaliste.

Regroupement d'utilisateurs

Le tour de table favorise une mise à niveau rapide des différents utilisateurs. Cette rediffusion des savoir faire techniques est d'autant plus appréciée qu'il est indispensable que les techniciens maîtrisent et s'approprient toutes les techniques géomatiques modernes et pas seulement le GPS. Car c'est bien en montrant les apports de ces nouveaux outils dans les analyses et les restitutions que l'on peut réellement sensibiliser les décideurs et garantir le fonctionnement dans la durée de ces moyens. Il est donc indispensable de mettre en place les dispositifs permettant d’assurer à court et à moyen terme l’information, les comptes rendus d’expérimentation et les synergies locales.

La balise fixe du CIRCOSC

Le Conseil Régional PACA a équipé le Centre interrégional de coordination opérationnelle de la sécurité civile (CIRCOSC) d'une antenne réceptrice fixe monofréquence. Les membres du tour de table peuvent actuellement accéder aux données GPS qu'elle recueille sur demande préalable, les données leur étant envoyées sur disquette.

Le Conseil régional a développé un accès serveur qui sera prochainement opérationnel et permettra des temps d'accès et de réponse optimaux.

Fiche établie par le groupe de travail à partir d'éléments du CRIGe PACA
avril 1999


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#35 Mon 14 January 2008 16:57

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 1999
Fiche n°32 : Normalisation
(remplace la fiche technique n°9)

Introduction

De la production initiale d’une donnée de base à son utilisation finale pour l’aide à la décision, le marché de l’information géographique concerne un très grand nombre d’acteurs qui valorisent et enrichissent cette information.

Mais pour que l’information circule, il faut qu’elle soit comprise et qu’elle reste utilisable à chacune des étapes de sa propagation. Le nombre d’acteurs intervenant dans ce flux - des producteurs de données, des collectivités locales, des administrations de l’Etat, des gestionnaires de réseaux, des sociétés de service, des utilisateurs privés - est sans cesse en expansion. Dès lors, au-delà de la rationalisation technique qu’offre déjà les standards des éditeurs les plus établis, la normalisation est un enjeu essentiel de la valorisation de l’information parce qu’elle permet ces flux, ces réemplois et cet enrichissement.

La présente fiche se propose d’éclairer les caractéristiques des normes en cours de préparation et de souligner les orientations perceptibles.

Généralités

Objet de la normalisation

L’objet de la normalisation est de permettre les échanges de données en altérant le moins possible leur signification et leurs caractéristiques. Pour être utilisable, une donnée géographique, qui décrit une portion de territoire, doit comporter quatre éléments distincts:
- des coordonnées qui permettent de situer les informations dans un système de référence connu,
- une nomenclature qui énumère les différents objets auxquels on s’intéresse,
- la " structuration " de ces objets, c’est-à-dire la description des liens qui peuvent exister entre certains d’entre eux, comme, par exemple, l’appartenance d’un bâtiment à une parcelle
- les caractéristiques de qualité de ces données.

Or, les formats informatiques de données des logiciels ne permettent pas de transmettre ces informations de façon satisfaisante, même si certains d’entre eux, très diffusés, peuvent être considérés comme des standards. A cela trois raisons :
- ils dépendent de logiciels particuliers et n’offrent pas de garantie de durée et de rigueur,
- aucun ne gère complètement les quatre caractéristiques de l’information géographique présentées précédemment,
- ils ne s’appuient pas sur un vocabulaire commun.

Les différentes approches

L’information géographique est, pour une large part, issue de l’administration ou des services publics. Les stratégies nationales de normalisation sont donc fortement influencées par des aspects non techniques liés à l’organisation des pouvoirs publics.

Ainsi, suivant que l’on se trouve dans un pays où le cadastre a une vocation fiscale ou juridique, les flux d’informations géographiques générés sont très différents. Dans un système de cadastre juridique, chaque transaction d’achat ou de vente exige une validation des limites de l’objet de la transaction, ce qui conduit à une structure d’échange de " message ", assez courte mais fréquente, de type EDIFACT. Dans un système uniquement fiscal comme en France, ces échanges d’informations géographiques avec les utilisateurs n’ont lieu, au mieux, qu’une fois par an, lors de la mise à jour des données alphanumériques associées au plan cadastral. Il en résulte un concept d’échange par lots, auquel correspond en France la norme EDIGéO.

Par ailleurs, suivant que la responsabilité de la production d’information géographique est plus ou moins centralisée, le besoin de formaliser la description précise et stabilisée des produits cartographiques se fait plus ou moins pressant...

Enfin, l’échelle retenue pour la cartographie de base influe sur la complexité des fichiers à constituer. Plus l’échelle est grande et plus la représentation cartographie seule suffit à transmettre la totalité de l’information : une maison, un bâtiment, une voie, se reconnaissent à leurs formes et à leurs positions relatives. Mais à des échelles plus petites, les représentations cartographiques constituent des vues très généralisées et spécialisées d’entités généralement complexes : une zone urbanisée, un espace naturel, ... Une représentation cartographique particulière ne suffit plus à transmettre l’essentiel de l’information, il faut y adjoindre des indications relatives aux objets géographiques eux-mêmes, indépendamment de leur représentation.

Les normes

EDIGEO

Caractéristiques

La norme EDIGéO est destinée à l’échange d’informations géographiques numériques sur support informatique entre des systèmes d’information géographique.

Ses objectifs sont :
- d’optimiser l’efficacité et le volume des échanges de données géographiques numériques,
- de réduire au strict minimum le coût financier de ces échanges,
- d’être indépendant des systèmes d’information géographique.

Statut actuel

EDIGéO est aujourd’hui une norme NF. Publiée en août 1992, elle aurait dû voir son statut évoluer au bout d’une période de deux ans. L’engagement d’une démarche de normalisation au niveau européen a eu pour effet de figer ce statut dans l’attente de la norme européenne présentée ci-après.

En 1998 une enquête publique a été conduite sur une version révisée de la norme. Cette enquête a permis la correction d'erreurs éditoriales et la clarification de certaines ambiguïtés avant la publication définitive.

La norme est complétée par une nomenclature générale des objets géographiques que publie le CNIG.

Etat d’intégration

- dans l’offre de données :

Les producteurs de données nationales intègrent la norme EDIGéO. Le Service du Cadastre l'a adoptée pour la mise en œuvre du plan cadastral informatisé. L’IGN propose également ses bases de données numériques dans ce format.

- dans l’offre logicielle :

Si le format EDIGéO n’est pas encore intégré dans les versions standard des logiciels, les principaux d’entre eux proposent des modules de conversion dans leurs compléments et interfaces. Par ailleurs, des logiciels spécifiques de conversion sont aujourd’hui disponibles.

Certification

Le CNIG a mis en place un dispositif de certification composé d’un comité technique et d’un laboratoire de tests pour :
- vérifier la conformité physique et la conformité logique de fichiers d’échanges, c’est-à-dire le respect des règles de la norme,
- attribuer un certificat de conformité.

Comité technique n° 287 du Comité européen de normalisation

La diversité européenne

Pour les raisons indiquées précédemment, les points de vue nationaux des pays rassemblés au sein du " comité technique n° 287 " du Comité européen de normalisation sont très variés. Cela a conduit à définir des normes européennes plus " ouvertes ", permettant notamment de traiter tant des échanges de type " message " que des échanges par lots.
Si les normes diffèrent d’EDIGéO, c’est essentiellement par le langage adopté pour le codage, transcription qui pourra être largement automatisée. Par contre, leur structure est très proche de celle d’EDIGéO que l’on pourra assimiler à un sous-ensemble de ces normes.

Les différentes normes produites

Les normes européennes sont constituées d’un ensemble de huit normes :

- Modèle de référence : description du domaine de l’information géographique ; identification des composantes à normaliser,
- Description des données - Schéma spatial : géométrie des objets, relations spatiales entre les objets, liaisons avec les données non géométriques,
- Localisation - Position : définition des concepts fondamentaux, système géodésique de référence et de leur mode de description (mais ne propose pas le choix d’un système particulier),
- Localisation - Identificateurs géographiques : description des méthodes de documentation des identifiants géographiques - c’est-à-dire permettant de localiser des objets de position inconnue par rattachement à d’autres objets géographiques de position connue.
- Qualité : modèle associant les principaux critères de qualité déjà définis dans EDIGéO : précision géométrique, précision sémantique, exhaustivité, ...
- Métadonnées : liste ordonnée de " métadonnées " c’est-à-dire de " données sur les données ", à destination tant des producteurs que des utilisateurs, comprenant la classification des données, leur couverture géographique, des informations sur la qualité, la structure géométrique, et l’accès aux données.
- Transfert : définition du schéma de transfert des données et des métadonnées, pour le transfert de fichiers, la messagerie ou le dialogue.
- Requête et mise à jour : interface spécialisée entre deux systèmes d’information permettant à l’un de requérir des données de l’autre.

Avancement et perspectives

Ces projets de normes ont été adoptés en 1998.

En Décembre 1998, le CEN/TC 287 a constaté qu'il avait mené à bien son programme de travail initial et a décidé de suspendre ses travaux.

Pour se préparer aux normes européennes, il conviendra de :

- mettre en place des formations ad hoc, y compris au langage adopté pour la norme, EXPRESS,

- développer des " profils spécifiques " permettant l’emploi effectif de ces normes à caractère générique. En particulier, il faudra vraisemblablement définir un profil " cadastre ", un profil " collectivité locale ", un profil " environnement ", ... d'ores et déjà deux profils nationaux ont été définis pour les normes "métadonnées" et "qualité".

- promouvoir la norme " métadonnées " et son profil national et inciter les principaux producteurs, établissements spécialisés et administrations, à documenter leurs données en respectant cette norme.

ISO 211

Une démarche de normalisation en information géographique s’est également engagée au niveau mondial au sein de l’ISO. Le programme de travail du comité technique 211 de l’ISO est beaucoup plus ambitieux que celuidu TC287 du CEN. Si il comprend comme celui-ci les aspects normatifs liés aux données, son programme prévoit également des normes liées aux systèmes d’information géographique et aux services. Si, pour les parties communes aux deux comités techniques, les normes européennes ont été utilisées comme l’une des bases des travaux de l’ISO, la prise en compte pour les autres thèmes des besoins ou des spécificités propres à l’Europe dépend fortement de l’implication des acteurs européens concernés.

OGC

En parallèle à ces travaux des instances officielles, les principaux acteurs du marché se sont regroupés au sein du consortium OpenGis afin d’arriver à un consensus sur des normes communes d’interopérabilité.

La présence des leaders mondiaux en SIG et en informatique générale au sein de ce consortium implique que, si l’objectif de consensus est effectivement atteint, les normes produites par OGC deviendront de facto les standards du marché.

OGC a conclu en 1999 un accord de coopération avec l’ISO facilitant la reconnaissance officielle de ses travaux.

Pour en savoir plus :
AFNOR
TOUR DE L’EUROPE
92049 PARIS LA DEFENSE CEDEX
téléphone : 0142915534
- nomenclature et certification : CNIG téléphone 0143988312

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#36 Mon 14 January 2008 16:57

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Télécharger toutes les fiches de 1999 (voir ci joint)


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#37 Mon 14 January 2008 16:58

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°33 : PROPOSITIONS DU RAPPORT LENGAGNE

"L’information géographique est un outil de la modernisation de l’Etat et de la gestion publique, déclare le député Guy Lengagne. Elle facilite une allocation plus rationnelle des ressources aussi bien des collectivités publiques que des entreprises, elle leur permet des gains considérables de temps et de moyens. Ainsi, elle génère des retombées positives très supérieures à ses seuls effets économiques directs.
L’intérêt collectif justifie, dès lors, que l’Etat se préoccupe de créer les conditions au développement de ses utilisations et y consacre les moyens nécessaires."


Le député Guy Lengagne, dans le cadre de l'investigation que lui avait confiée le Premier ministre pour actualiser les missions de l'IGN, a proposé un ensemble de mesures qui rompent avec les errements de ces dernières années. Le ministère de l'Equipement, en charge de la tutelle de l'IGN, a préparé un ensemble de mesures destinées à permettre, dans la durée des trois ans d'un nouveau contrat de plan Etat-IGN, de procéder aux importantes évolutions nécessaires.
L'objet de la présente fiche est de rappeler les principales propositions du député Guy Lengagne. Elle est essentiellement constituée d'extraits du chapitre 3 "propositions" de son rapport.


CONSTITUER UNE REFERENCE PUBLIQUE COHERENTE

Les utilisateurs tant publics que privés attendent de l’Etat la fourniture d’un ensemble cohérent d’informations à grande échelle de description objective du territoire mis à jour en permanence qui permette le rattachement à une position géographique des informations qu’ils recueillent. Le partage, par tous, de cet ensemble cohérent constitue la première condition pour que l’information circule, soit comprise et puisse être combinée et traitée.
La communauté des utilisateurs ne serait pas la seule à y trouver son intérêt.

Cet ensemble comprend :

Les coordonnées

Le premier niveau de la référence est constitué par la mesure de la position géographique.
L’utilisation d’un système de coordonnées unique commun est la première condition de la cohérence des données, reconnue par l’article 53 (1) de la Loi d’Aménagement et de Développement Durable du Territoire.
Conformément aux propositions du président du CNIG, le réseau géodésique traditionnel doit évoluer dans les délais les plus courts vers un service de positionnement de précision en temps réel par satellite.

La description physique du territoire

Si les professionnels de l’information géographique- géomètres, topographes, cartographes- utilisent directement les coordonnées, la plupart des utilisateurs se positionnent par rapport aux objets concrets de leur espace de travail : routes, bâtiments, rivières, voies ferrées, etc.
C’est cette couche d’information décrivant physiquement le territoire qui constitue la référence géographique de la majorité des applications.
Cette description physique doit être parfaitement qualifiée à une précision au moins métrique et de quelques décimètres en zone urbaine et comporter la géométrie des objets associée aux seuls éléments nécessaires à leur identification. Elle doit être mise à jour en permanence au moins pour les éléments les plus significatifs du paysage.

Les limites administratives et les zonages statistiques

Une masse considérable d’information administrative, économique ou sociale est attachée au découpage administratif. A l’heure des technologies de l’information, la reconnaissance du rôle de l’IGN comme gestionnaire officiel de la base nationale de référence des limites administratives paraît nécessaire. Elle doit se traduire par une procédure administrative lui permettant d’être officiellement informé de toute modification de ces limites.
Par ailleurs, les zonages statistiques établis par l’INSEE servent de base au rattachement de l’information socio-économique sur les personnes ou les entreprises. Il est proposé qu’une convention entre les deux organismes définisse les modalités d’utilisation par l’INSEE de la référence produite par l’IGN ainsi que les règles de diffusion de la référence statistique ainsi constituée.

L’information foncière

Les collectivités locales, les ministères “aménageurs» et les entreprises à réseau utilisent la parcelle foncière comme outil premier de l’analyse. Qu’il s’agisse des plans d’occupation des sols, des projets d’aménagement, des contrats territoriaux d’exploitation la parcelle cadastrale est au cœur du processus de décision publique.
Mais cette décision publique intègre d’autres éléments - sur le contenu de la parcelle et les caractéristiques physiques de son environnement- et ignore le découpage en section du plan cadastral. La cohérence de l’information parcellaire avec la réalité physique du territoire et sa continuité territoriale doivent donc être assurées ce qui est loin d’être le cas à l’heure actuelle.
Il est proposé que l’IGN en parallèle avec la création de la référence topographique assure, selon des modalités contractuellement définies entre lui et la DGI, cette remise en géométrie du plan scanné ou, lorsque cette version existe, vectorisé et qu’une reconnaissance officielle permette à ce plan rectifié de se substituer au plan ancien.
La distinction doit être faite aujourd’hui entre l’IGN chargé de la description physique du territoire et le Cadastre chargé de gérer sa description foncière sans limitation d’échelle ni pour l’un ni pour l’autre.
Concrètement, dès lors que l’IGN se sera mis en mesure d’assurer la mise à jour des bâtiments en temps quasi réel, il est proposé que cette mise à jour constitue la couche “bâtiment» unique de la référence publique, qu’il s’agisse de sa version topographique ou du plan cadastral.

L’adresse

L’adresse postale constitue l’interface de localisation la plus couramment utilisée parles administrations ou les entreprises. Elle permet de localiser les individus et les entreprises mais aussi les équipements des réseaux publics ; elle est essentielle aussi bien pour des services publics comme les services de secours que pour les entreprises de vente à distance.
Il est proposé qu’un organisme officiel, qui pourrait être le CNIG, soit chargé, en concertation avec l’ensemble de ces acteurs, de proposer les méthodes et l’organisation nécessaires à la constitution et à l’entretien de cette référence ainsi que les modalités de son financement.
Le rôle de l’IGN dans cette opération sera d’associer une position géographique à chaque adresse mais aussi, dès lors qu’il aura la charge de la mise à jour continue de l’information sur les bâtiments, d’assurer son entretien en partenariat avec l’ensemble de ces partenaires et enfin de diffuser et valoriser cette référence dans sa version localisée.


LE POSITIONNEMENT STRATEGIQUE DE L’IGN

L’intérêt de l’IGN est donc de disposer dans les termes les plus courts de l’information de référence sur tout le territoire, de se mettre en mesure dans le même temps de l’entretenir de façon permanente et, bien loin d’en restreindre l’usage d’en multiplier les utilisations grâce à une politique tarifaire adaptée et en facilitant l’apport de valeur ajoutée par les entreprises privées.

La doctrine d’utilisation de la subvention

Il serait possible d’envisager un fractionnement en quatre de la dotation budgétaire :

• une enveloppe dédiée au financement de la constitution de la référence nationale précitée (2) ; cette enveloppe aurait vocation à décroître, une fois la constitution de la référence achevée ;

• une enveloppe dédiée au financement des activités de service public pur de l’IGN (formation, recherche, relations publiques, coopération internationale, etc.) ;

• une enveloppe liée à l’existence, pour certains produits, de zones géographiques de non-rentabilité commerciale ; elle peut avoir pour objet, à la fin de la constitution de la référence, de garantir une mise à jour de même qualité sur l’ensemble du territoire.

• une enveloppe consacrée à la couverture des frais généraux et de structure non couverts par la marge sur coûts directs

La politique tarifaire

Si la subvention finance la constitution de la référence, la tarification doit, quant à elle, viser à couvrir ses frais d’entretien. Cette orientation conduit à une politique tarifaire sensiblement différente de celle pratiquée aujourd’hui.

• au lieu de se fonder sur les 50 000km2 à constituer chaque année, elle le fait sur les 550 000 km2 à entretenir. La recette à recueillir par km2 est alors sensiblement différente. Elle conduit à des prix unitaires notablement plus bas et favorise le développement des usages.

• au lieu d’avoir pour objet de compléter le financement des opérations annuelles de production, elle a celui de financer un service continu de mise à jour. Elle doit viser le lissage des ressources au cours du temps au lieu de chercher à maximiser la recette immédiate. Les contrats d’abonnement à la mise à jour doivent être privilégiés.

La stratégie de tarification doit, enfin, être complétée par les orientations suivantes :

• bien loin de refuser à ses clients l’utilisation de ses produits pour éditer des cartes ou générer de la valeur ajoutée, l’IGN doit, au contraire, prévoir un tarif de copyright qui permette aux utilisateurs d’éditer de tels documents et à lui-même de compléter ses ressources.

• la tarification doit permettre à l’utilisation de l’information géographique de se répandre chez les clients. Elle doit favoriser la diffusion des applications chez les utilisateurs en prévoyant une dégressivité très rapide en fonction du nombre de postes de travail (3) exploitant son information.


RECHERCHE ET FORMATION : DEUX CLEFS DU DEVELOPPEMENT DES UTILISATIONS

La croissance du marché de l’information géographique dépend du positionnement de l’IGN mais elle dépend également de la capacité technologique des entreprises et de la qualité de la formation des hommes.

Vers un réseau de recherche technologique

Il est donc proposé la mise en place sous l’autorité du Ministère de l’Education Nationale, de la Recherche et de la Technologie d’un Réseau de Recherche Technologique en information géographique sur le modèle de ce qui est en cours sur les thèmes de l’observation de la terre ou du data mining par exemple.

La formation et la place de l’ENSG

L’Ecole Nationale des Sciences Géographiques (E.N.S.G.) doit affirmer davantage son rôle national pour la formation en information géographique, tant en ce qui concerne sa production que son utilisation. A cet effet, elle doit développer les partenariats déjà créés, notamment avec l’Ecole Nationale des Ponts et Chaussées mais aussi avec l’Ecole Nationale des Travaux Publics de l’Etat et l’Ecole Nationale du Cadastre.

L’IGN archive de l’image du territoire

Un effort particulier doit être fait pour promouvoir l’utilisation de ces archives. La première étape peut consister en la numérisation complète du catalogue de ces archives et sa mise à disposition publique.


CONCLUSION

Les quelques mois consacrés à l’exploration du monde de l’information géographique ont permis à la mission de vérifier qu’il est en rapide évolution et en pleine expansion. La France ne peut y tenir (ou y retrouver) sa place que si l’IGN joue pleinement son rôle, en permettant aux pouvoirs publics (nationaux ou locaux) de disposer de documents précis et fiables et au secteur privé d’y apporter de la valeur ajoutée source de richesse. Ceci ne se fera pas sans une profonde remise en cause des habitudes de travail à tous les niveaux de la hiérarchie car c’est aussi de cette remise en cause que dépend l’avenir de l’établissement et même, au delà, le rôle de notre pays dans un domaine porteur de progrès.


notes
------

(1) Loi n° 99-533 du 25 juin 1999 Journal Officiel du 29 juin 1999 Article 53 : “ Les informations localisées issues des travaux topographiques ou cartographiques réalisés par l'Etat, les collectivités locales, les entreprises chargées de l'exécution d'une mission de service public, ou pour leur compte, doivent être rattachées au système national de référence de coordonnées géographiques, planimétriques et altimétriques défini par décret et utilisable par tous les acteurs participant à l'aménagement du territoire. ”

(2 ) Dont le coût total serait allégé par l’adoption de spécifications substantiellement allégées pour la BD Topo.

(3) Il faut noter qu’avec la tarification unitaire par poste actuelle, un utilisateur souhaitant acquérir 15 licences de la BD Topo a plutôt intérêt à faire refaire le travail qu’à se fournir auprès de l’IGN.

-----------------------------------------------------------------
fiche élaborée par le groupe de travail à partir du rapport "Les perspectives d'évolution de l'information géographique et les conséquences pour l'IGN" présenté au Premier Ministre par le Député Guy Lengagne en septembre 1999.
-----------------------------------------------------------------

avril 2000

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#38 Mon 14 January 2008 16:58

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°34 : PROPOSITIONS DU RAPPORT MANDELKERN 

Plusieurs fiches techniques du CNIG ont déjà abordé le thème de la diffusion des données publiques (1). Mais elles ne pouvaient prendre en compte la pression technologique qui s'exerce aujourd'hui, en particulier par les accès à distance. Un rapport administratif récent, entrepris dans le cadre d'une réflexion confiée par le Premier ministre à Bruno Lasserre sur "L'Etat et les nouvelles technologies de l'information" aborde le sujet de la "diffusion des données publiques et révolution numérique". Son auteur, Dieudonné Mandelkern, propose un ensemble de définitions et élabore des recommandations qui marquent une évolution de plus dans l'accessibilité des données publiques. Elles devraient connaître une suite règlementaire sinon législative dans les prochains mois.
La présente fiche, constituée d'extraits du rapport, en propose les éléments principaux. 

INTRODUCTION 

Avec la mise en place d'un Programme d'action du Gouvernement pour l'entrée de la France dans la société de l'information (PAGSI), les Pouvoirs publics ont pris acte de l'ampleur des modifications qu'introduit la forme numérique de l'information, en créant de nouveaux services, en modifiant les usages, en bouleversant les positions acquises.

Si la question de la diffusion des données publiques a déjà donné lieu à maintes réflexions et décisions, leur numérisation pose les problèmes sous un jour nouveau en raison de l'instantanéité, de l'extension sans limite et du faible coût de la diffusion, ainsi que de l'interactivité que permettent les nouvelles technologies de l'information et de la communication.

L'Atelier mis en place pour préparer le rapport a permis de faire débattre de ces problèmes conflictuels la plupart des parties intéressées : administrations, diffuseurs publics, éditeurs privés, représentants de la presse spécialisée, universitaires, 

DEFINITIONS UTILISEES

Données publiques

Les données publiques sont des données collectées ou produites, dans le cadre de sa mission, par un service public sur fonds publics, à condition d'avoir vocation à être diffusées.
Cette définition reprend celle proposée par la circulaire Premier ministre du 14 février 1994 et la complète pour tenir compte des secrets légaux. Elle s'applique quelle que soit la modalité d'exercice du service public : régie, EPA, EPIC, délégation de service public.

Données de base

Les données de base sont des données brutes traitées de manière strictement nécessaire pour être techniquement et légalement communicables.
Cette notion est préférée à celle de données brutes, certaines d'entre elles ne pouvant faire l'objet d'une diffusion sans un traitement minimum ou bénéficient d'une valeur ajoutée minimale résultant de leur mise en oeuvre pour les besoins propres du service. 

LES EFFETS DES NOUVELLES TECHNOLOGIES

• le faible coût de la diffusion et de la duplication remet en cause la structure tarifaire de la diffusion des données publiques. Même si la diffusion numérique peut entraîner des coûts de structuration de l'information, les prix des matériels baissent et les services publics se doivent d'utiliser les techniques disponibles en application du principe de mutabilité. La notion de coût marginal perd de plus en plus de sa pertinence.

• une nouvelle prise en compte de la dimension du temps donne un sens nouveau à la notion de qualité. L'exigence croissante de réactivité conduit à des mises à jour fréquentes, à des délais de téléchargement et de réponse aux messages rapides. Par ailleurs, l'intégrité et l'authenticité des données deviennent des composantes importantes de la qualité et sont sources d'une demande de labellisation.

• l'interactivité provoque diverses conséquences. Elle impose une délimitation claire et publique des compétences administratives qui ont mécaniquement tendance à aller au-delà, pour satisfaire l'usager. Elle conduit à faire évoluer l'organisation interne des services, pour rendre disponible l'expertise ad hoc et adapter les chaînes de délégations de pouvoir. Elle poussera à l'extension de la notion de "données essentielles" introduite par le PAGSI.

UN SECTEUR TRES CONFLICTUEL

• la diffusion des données publiques paraît en France une activité peu dynamique, traversée par des conflits multiples. Mais beaucoup des difficultés qui agitent ce secteur sont indépendantes du progrès technologique et tiennent à l'inadaptation de l'encadrement juridique actuel. Trois secteurs sont apparus particulièrement conflictuels, le secteur de l'information géographique, les données publiques juridiques, l'information économique et financière sur les entreprises.

• quatre griefs principaux sont relevés : l'accès des éditeurs privés est l'un des sujets majeurs de conflits, la tarification est contestée, de même que les modalités de l'organisation de la diffusion. De plus, différentes critiques d'ordre technique sont également fréquemment formulées.

RECOMMANDATIONS

L’obligation de mise à disposition numérique

La numérisation du travail administratif permet et rend aujourd'hui nécessaire l'instauration d'une obligation incombant aux organismes publics de mettre à disposition les données publiques de base numérisées diffusables, moyennant la possibilité d'une rémunération, sauf pour les données "essentielles"(2).

• l'obligation de mise à disposition se limiterait à une attitude de diffusion passive, qui devrait normalement consister en une mise en ligne des données. Elle ne vise que les flux de données nouvelles. Elle a pour corollaire l'instauration effective d'un inventaire, pour chaque administration, des gisements de données numérisées. Pour inclure les collectivités locales, et dans certains cas les services publics industriels et commerciaux, une telle obligation devrait être instaurée par un texte de nature législative.

• une telle obligation imposerait aux services publics de motiver et de justifier un refus de diffusion.

• elle offrirait aux entreprises ainsi qu'aux associations et au monde universitaire, une possibilité très large de retraiter les données publiques. Elle contribuerait aussi à la mise en oeuvre effective d'un accès citoyen.

• elle ouvrirait largement les gisements de données publiques aux opérateurs privés.

La diffusion gratuite des données essentielles

Le rapport considère données essentielles les données publiques dont la mise à disposition est une condition indispensable à l'exercice des droits du citoyen. Le critère de la finalité de l'usage commande une présentation des données essentielles sous une forme facilement et universellement accessible.

Les données essentielles incluront, pour une compréhension facile par un large public, des données plus ou moins enrichies, sans que cet enrichissement conduise à offrir un service qui pourrait concurrencer l'activité éditoriale privée. Les données essentielles ne recoupent ni les données brutes, ni les données de base.

La notion de citoyen renvoie par ailleurs à la catégorie des personnes physiques ou des personnes morales sans but lucratif. Elle exclut les entreprises. En outre, le citoyen ne se réduit pas à l'administré dans la mesure où il participe au débat public démocratique. Les données publiques indispensables à cet exercice (et notamment un certain nombre de statistiques économiques) sont incluses dans la catégorie des données essentielles.

L'application dynamique de cette définition ne peut enfin se concevoir que dans la cadre d'une instance de concertation avec les différentes parties concernées. En effet, pour garantir la sécurité juridique et la pérennité des investissements du secteur privé, il importe que celui-ci soit tenu au courant à l'avance des évolutions possibles du périmètre des données essentielles.

L’organisation des modalités de diffusion

Dans le cadre de l'obligation générale de diffusion, et le cas des données essentielles étant réglé par ailleurs, une réglementation de l'organisation économique du secteur doit répondre aux conflits rémanents qui opposent opérateurs publics et éditeurs privés, prévenir la transposition de difficultés semblables apparues dans les autres modes de valorisation de l'information publique et favoriser le développement harmonieux de cette activité.

• il est proposé de distinguer deux catégories de producteurs de données publiques. Les "diffuseurs publics institutionnels" sont les organismes producteurs dont la production, en vertu des textes, est organisée en vue justement de sa diffusion, comme l'IGN, Météo-France, l'INPI, etc, ou auxquels les textes assignent comme mission principale la diffusion des données produites par d'autres administrations, comme la direction du Journal Officiel ou la Documentation Française. Ces organismes resteraient libres d'organiser leurs modes de diffusion commerciale directe ou indirecte, dans le respect du droit de la concurrence et des conventions internationales. Tous les autres organismes administratifs seraient tenus de diffuser leurs données publiques selon une relation de partenariat avec le secteur privé, dont les modalités seraient variées mais obéiraient à quelques principes généraux.

• dans le cas des diffuseurs publics institutionnels, le tarif demandé pourrait prendre en compte une contribution aux frais de maintien du système informationnel, calculée selon des méthodes objectives et contrôlables. Dans le cas des autres organismes publics, la tarification serait limitée aux coûts de mise à disposition des données en ligne, c'est-à-dire aux coûts techniques d'accès. La transformation des données brutes en données de base ne serait en revanche pas facturée puisque la plupart des données publiques ont vocation à être communicables

• dans tous les cas, la tarification - éventuelle - des licences de rediffusion devrait être calculée de façon à ne pas entraîner de distorsion de concurrence à l'égard du secteur privé et à favoriser le développement du marché. Dans certains cas, une tarification proportionnelle au volume pourrait être le meilleur moyen de remplir cet objectif, notamment en facilitant l'entrée de nouveaux opérateurs de faible taille.

La forme de régulation du secteur

L'Atelier préconise la création d'une instance de régulation compétente pour l'ensemble des acteurs de la diffusion des données publiques, y compris les diffuseurs institutionnels. Elle serait placée auprès du Premier ministre compte tenu du caractère interministériel du sujet.

• Cette instance remplirait une tâche de formulation de recommandations générales en matière de services, en matière de tarifs, etc…
• Elle serait consultée à une périodicité régulière sur la définition des données essentielles de chaque secteur, 
• Concernant les différends entre secteurs public et privé, cette instance pourrait comprendre un comité plus restreint remplissant un rôle de médiation.

LES TEXTES EXISTANTS

Les rapports

Ces rapports sont consultables sur le site de la documentation française ou sur le site "admi.net"

• la commercialisation des données publiques, M. Gaudrat pour l'Observatoire Juridique des Technologies de l'Information (1992)
• diffusion des données publiques et marché de l'information, P. Soubie à l'Association "Communication publique"
• les relations entre le secteur public et le secteur privé dans le domaine de l'industrie éditoriale, M. Groshens au Premier Ministre
• Données personnelles et société de l'information, M. Braibant, mars 1998
• Le commerce électronique : une nouvelle donne pour les consommateurs, les entreprises, les citoyens et les entreprises publiques, F. Lorentz au ministre de l'Economie, des Finances et de l'Industrie, janvier 1998

Les textes législatifs, de portée très générale

• la loi n° 78-753 du 17 juillet 1978 sur l'accès aux documents administratifs
• la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés
• la loi n° 79-18 du 3 janvier 1979 sur les archives
• le projet de loi relatif aux droits des citoyens dans leurs relations avec les administrations

Les circulaires générales

• la circulaire du 14 février 1994 relative à la diffusion des données publiques
• la circulaire du 20 mars 1998 sur l'activité éditoriale de l'administration
• la circulaire du 28 janvier 1999 relative à la diffusion gratuite des rapports officiels sur internet

Les textes de niveau communautaire

• le droit communautaire de la concurrence
• la directive 95/46/CE du 24 octobre 1995, relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données
• la directive 96/9/CE du 11 mars 1996 concernant la protection juridique des bases de données
• la directive 90/313/CEE sur les données environnementales
• le livre vert du 20 janvier 1999 sur l'information émanant du service public dans la société de l'information


notes
---------------------
1) n°8 données publiques localisées, aspects juridiques, n°24 La diffusion des données informatiques publiques, contraintes, méthodologie et enjeux

2) voir paragraphe suivant

--------------------------------------------------------------------------------------------------------------------

fiche élaborée par le groupe de travail à partir du rapport "Diffusion des données publiques et révolution numérique" établi par Dieudonné Mandelkern en novembre 1999.

--------------------------------------------------------------------------------------------------------------------
avril 2000

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#39 Mon 14 January 2008 16:58

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°35 : LES ANIMATIONS REGIONALES EN INFORMATION GEOGRAPHIQUE 

Depuis plusieurs années, on assiste au développement des initiatives d’animation régionale pour la promotion de l’information géographique. Celles-ci prennent la forme d’actions conjointes entre les différents services des collectivités publiques, notamment entre des services déconcentrés de l’Etat et des services techniques de collectivités territoriales. L’ensemble de ces acteurs se retrouvent aux différentes manifestations organisées périodiquement par le CNIG, à Paris et en région. Le CNIG, avec le Conseil régional et la Préfecture de région de Provence-Alpes-Côte-d’Azur a organisé une première rencontre nationale de ces animations, à Marseille au printemps 1999, pour échanger et débattre sur différents points d’actualité.

Cette fiche aura un double but :

- présenter ces initiatives intéressantes qui constitueront de plus en plus des relais utiles aux travaux du CNIG,

- susciter des réactions, concernant les articulations possibles entre ces animations de niveau régional et les structures plus locales, comme les CDIG par exemple, ou portant sur d’autres initiatives du même ordre.

DES LIEUX

La décennie 1990 a été marquée par le développement des animations professionnelles géomatiques.

Elles sont organisées par des structures verticales, comme le groupe de travail de l’AIVF "SIG et topographie" ou des comités de coordination dans les ministères de l’agriculture, de l’environnement ou de l’équipement, ou à l’initiative de clubs d’utilisateurs d’une marque de logiciels ou d’une base de données géographiques de référence. Elles ont toutes vu leur audience - et donc leur responsabilité - s’accroître.

A côté de ces pionnières, un nouveau type d’animation est né durant cette période : les animations régionales. Cette appellation générique recouvre une grande diversité d’initiatives et d’organisations, mais qui visent toutes à réunir un certain nombre d’utilisateurs au sein d’un territoire commun, en l’occurrence à l’échelle régionale :

• A l’origine de ces réunions on trouve le plus souvent la volonté de mettre en commun des données ou plus simplement la nécessité de partager le coût d’acquisition des données de base.
• si l’impulsion a une dimension politique, l’animation reste le fait de l’initiateur, le partenariat demeure resserré.
• si l’impulsion émane essentiellement des techniciens, l’animation s’ouvre à quelques autres partenaires et leur cercle s’agrandit. Ces animations visent aujourd’hui à répondre aux différents besoins des utilisateurs: • échanges de techniques et de méthodologie,
• développement des échanges de données,
• participation de la géomatique au développement de la société de l’information,
• participation de la géomatique à l’activité économique régionale.

[img]http://georezo.net/img/cnig/cnig_35_1.png[/img]


ECHANGES TECHNIQUES ET DE METHODOLOGIES

C’est une fonction classique des dispositifs d’animation professionnelle. On pourrait s’attendre à la voir suffisamment prise en compte dans les structures verticales plus traditionnelles. Mais les besoins d’échanges techniques et méthodologiques subsistent pour les raisons identifiées dans le livre blanc d’AFIGEO :

• outils et méthodes du marché encore trop généraux; insuffisance des applications "métiers",
• insuffisance des formations initiales en analyse spatiale, en analyse de données,
• insuffisance de données sous forme numérique accessibles et qualifiées.

Ces problèmes risquent de rester d’actualité pour quelques années encore.

DEVELOPPEMENT DES ECHANGES DE DONNEES

C’est la fonction la plus spécifique des animations régionales. Elle répond aux besoins conjointement ressentis par différents partenaires sur un même territoire. C’est l’un des motifs importants d’intérêt du CNIG pour ces animations.

Cette fonction recouvre un vaste champ de préoccupations :

• catalogage des données, description standardisée de leurs caractéristiques,
• adoption de référentiels géographiques commun, en cohérence avec les politiques nationales,
• développement des nomenclatures sectorielles et spécification des données thématiques d’intérêt général.

Ces investissements sont effectivement nécessaires pour que les organisations internes de chaque partenaire soient durables et que les données échangées puissent être réellement utilisées.

SOCIETE DE L’INFORMATION

Dans ce domaine, les techniciens de l’information géographique sont, tout autant que d’autres, méfiants à l’égard des formules technocratiques. Mais leur expérience les conduit à donner un sens concret à plusieurs d’entre elles :

• la qualité des données au service de la qualité de l’action publique,
• contribution au développement de la transparence de l’action publique,
• contribution au développement du débat démocratique - une attitude bien en phase avec différentes évolutions législatives récentes et en préparation, dans l’aménagement du territoire et en urbanisme local.

Plusieurs contrats de plan Etat-Région intègrent des investissements particuliers en données géographiques au titre de diverses politiques. Ce qui prouve que les contributions d’une information géographique adaptée bénéficient à l’ensemble des acteurs publics. L’une des questions d’actualité est de faire prendre en compte une part complémentaire pour l’animation proprement dite.

FORMATION, VEILLE TECHNOLOGIQUE

Les animations permettent également de confronter et de compléter les initiatives sectorielles au service de la veille technologique et de la mise en place d’actions de formation continue.

Elles permettent d’organiser plus facilement des journées techniques ou thématiques particulières.


ACTIVITE ECONOMIQUE REGIONALE

Ces animations amènent les acteurs de la géomatique à revendiquer la place qui lui revient dans l’activité économique régionale. En effet, s’il devient assez courant de reconnaître sa part prise dans la qualité des décisions publiques, il est plus rare d’évoquer sa contribution directe à l’activité économique proprement dite. Or, ces animations contribuent indéniablement à cette forme de reconnaissance :

• en maintenant des annuaires des compétences professionnelles disponibles,
• en capitalisant les investigations locales au travers de cahiers des charges et de documents techniques,
• en mettant en relations les centres de formation, les entreprises et les maîtres d’ouvrage publics,
• en développant des échanges avec les différentes structures de recherche concernées.

ET MAINTENANT

Le principe de réunions périodiques organisées par le CNIG, conjointement avec l’une ou l’autre des régions disposant d’une "animation régionale", a été retenu lors de la réunion de Marseille. L’appui du CNIG pourra revêtir plusieurs formes :

• organisation périodique de réunions d’échanges entre animations régionales,
• développement d’une rubrique spécifique sur le serveur du CNIG permettant d’identifier les différentes animations existantes et de constituer un "portail" de leurs sites respectifs,
• capitalisation des expériences en aidant à formaliser les travaux sectoriels qui le justifieraient.

Il s’agit maintenant de passer de l’animation à l’administration des données, en professionnalisant les comportements, en pérennisant les structures, en développant les liens avec les CDIG, pour contribuer pleinement au développement des utilisations de l’information géographique et participer en particulier aux réflexions nationales sur les données de référence.

------------------------------------------------------------------------

fiche établie par le groupe de travail à partir du compte rendu de la journée nationale des animations régionales du 25 mars 1999 à Marseille.

------------------------------------------------------------------------

avril 2000

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#40 Mon 14 January 2008 16:58

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°36 : LE « GLOBAL POSITIONING SYSTEM » (GPS)

Le Global Positioning System (GPS) est un moyen de positionnement dont la conception date des années 1970. Mais il ne fut réellement opérationnel (industrialisation des récepteurs, nombre de satellites en service...) que vers 1991, d'importants retards de lancement ayant été causés par les aléas du programme de la navette spatiale américaine.


Principes généraux

Un ensemble de près de trente satellites (Navstar, lancés par le ministère américain de la défense) orbite vers 20 000 km d'altitude. Ceux-ci émettent en permanence des signaux radioélectriques de très faible puissance, à des fréquences de l'ordre de 1,2 GHz (appelée L2) et 1,6 GHz (appelée L1) modulés par des signaux numériques pour lesquels chaque bit d'information est émis à une date connue avec une extrême précision.
Ces bits décrivent par ailleurs la position du satellite concerné, avec un débit élevé (10 MHz), ce qui conduit à une émission à spectre très large et donc à une grande insensibilité aux émissions parasites.

Au sol, un récepteur observe avec précision la date de réception de ces mêmes bits, et les décode.

Les satellites sont tous calés sur la même échelle de temps. Par contre, le récepteur ne dispose pas, au départ, d'une heure précise. Il y a donc quatre paramètres inconnus par le récepteur : les 3 coordonnées de son antenne, ainsi que son décalage temporel avec l'échelle de temps des satellites. Il faut donc observer simultanément au moins quatre satellites dont on connaît la position, pour calculer la position du récepteur.
Ce type de fonctionnement, compte tenu des différentes limites physiques du système, peut donner en temps réel une précision d’une dizaine de mètres en absolu.

Cela suffit à satisfaire les exigences des applications militaires, mais pas celles de la topographie.

Pour cette dernière, il a fallu mettre au point une application dérivée en utilisant le système en mode différentiel : si deux récepteurs (ou plus) reçoivent les mêmes satellites au même moment et s'ils sont capables de faire les mesures de manière continue (par un asservissement sur la phase même du signal émis) pendant de longues durées (de quelques minutes pour une distance de quelques kilomètres à une heure pour de longues distances), le vecteur orienté joignant les deux antennes peut être calculé avec une précision de l'ordre du centimètre.

Sources d’erreurs résiduelles

a) Connaissance de la position des satellites, dont les paramètres d'orbites font partie des informations émises par les satellites eux-mêmes
Cette position n’est précise qu’à quelques mètres, mais l'observation différentielle élimine la plus grosse partie de cette erreur. Lorsqu'on recherche la précision maximale, on est amené à employer des orbites recalculées avec une très grande précision, depuis 1992, par un service international composé d’un groupe de laboratoires scientifiques volontaires (IGS, pour International GPS Service) qui fournit gracieusement ces informations avec un différé d’une dizaine de jours.

b) Connaissance de l'indice de réfraction des derniers kilomètres de l'atmosphère (troposphère)

Cette erreur est difficile à modéliser. La teneur en vapeur d'eau des basses couches de l'atmosphère, très imprévisible, est un facteur prépondérant d’incertitude.
Mais ce risque d’erreur s'élimine en partie lorsque les deux récepteurs sont à la même altitude et dans des conditions climatiques proches, l'observation différentielle soustrait l'un de l'autre deux facteurs, mal connus, mais presque égaux.

Ce n'est plus le cas si les altitudes des antennes sont très différentes (montagne).

On note donc sans surprise que la détermination de la coordonnée verticale (altitude ellipsoïdique) est toujours moins bonne que celle des coordonnées planimétriques (d'un facteur significatif, d’à peu près 2 dans les meilleurs cas, jusqu'à 5 et plus dans des configurations de réception médiocres).

c) Connaissance du contenu électronique de l’ionosphère (couche très haute de l’atmosphère)

Pour les ondes radio, l'ionosphère est une couche très perturbatrice. Le signal qui s’y propage est ralenti en fonction de la teneur locale en charges libres (qui varie parfois très rapidement avec le flux de particules venant du Soleil et de l'espace) et de la fréquence du signal. Lorsqu'on recherche la précision maximale, en recevant les deux fréquences émises et en comparant les temps de propagation sur ces deux canaux, on sait éliminer l'essentiel de cet effet. Mais ceci exige des récepteurs dits « bifréquence », bien plus onéreux que les appareils « monofréquence » devenus très courants.

d) Réflexions parasites des ondes avant de parvenir à l'antenne

Ces « multitrajets » se produisent à proximité de surfaces très réfléchissantes (surfaces planes à 10 cm près, et conductrices). Ils représentent un allongement de la distance antenne/satellite impossible à connaître et, donc, des erreurs de mesure parfois très gênantes, que bien des logiciels de traitement ne permettent pas de détecter facilement.

On remarque donc que le matériel employé, la nature des opérations de mesure ainsi que le type de calcul effectué sont essentiels pour la précision des résultats. Aujourd'hui, on mesure sans trop de difficultés des réseaux de quelques kilomètres à un centimètre près avec des appareils monofréquence et des logiciels fournis par les fabricants de matériel. Mais en mettant en œuvre les méthodes les plus raffinées (recalcul d'orbite, mesures bifréquences, observations longues, etc...), des chercheurs savent mesurer des distances de plusieurs centaines de kilomètres, voire plusieurs milliers, avec une erreur sub-centimétrique.

Il faut ajouter une information générale importante : les informations émises par les satellites sont volontairement « bruitées » (N.D.L.R. ce brouillage est désactivé en temps de paix) et leur qualité est dégradée par un code réservé aux militaires américains, ce qui conduit à des qualités de localisation avec un récepteur unique de l'ordre de 50 à 100 m. La conséquence de ces brouillages (appelés AS et SA) est simplement d'exiger, en mode différentiel précis, plus de temps de mesure pour une même qualité de résultat.


Différents types de récepteurs et de modes de réception

Il y a sur le marché une grande variété de récepteurs GPS. Les plus nombreux, les récepteurs destinés à un usage isolé, ne travaillent que sur la fréquence L1 et ne mesurent pas la phase du signal reçu. Ces récepteurs sont destinés à la navigation automobile (guidage intelligent en complément d'une base de données cartographique), à la navigation de plaisance, à la randonnée. Ces récepteurs sont fabriqués à partir d’éléments électroniques qui ne coûtent que quelques dizaines d’euro, habillés sous un format très compact. Précision : 100 m en planimétrie, 200 m en altimétrie.

Ces appareils peuvent être associés par paire, avec, par exemple, une liaison radio entre eux. Dans ces conditions, le matériel est plus onéreux (prix de la liaison radio et d'un petit calculateur temps réel). La précision, dans la zone où la liaison radio fonctionne, est alors métrique (de 0,5 à 3 m selon les matériels).

Il existe, pour des besoins de précision plus élevés, des récepteurs ne travaillant encore que sur L1 (appelés donc « monofréquences »), mais qui mesurent la phase de la porteuse en plus des codes qui la modulent. Ces appareils n'ont d'intérêt que lorsqu’ils travaillent en mode différentiel, soit en enregistrant de part et d'autre les signaux reçus sur des mémoires de masse, soit en mode temps réel avec une liaison radio. La précision sur le vecteur orienté joignant les antennes peut alors atteindre couramment le centimètre. Les coûts, pour une paire de récepteurs, sont très variables (mémoires de masse, liaison radio...).

Ce sont des matériels professionnels, typiquement destinés aux géomètres.

Comme ils ne travaillent que sur L1, ils ne peuvent s'affranchir des effets ionosphériques. Aussi leur précision se dégrade pour des distances dépassant 10 km : le modèle d'erreur sera en planimétrie, par exemple, de 1 cm combiné avec 2 x 10-6 de la distance mesurée. En mode différentiel temps réel (avec liaison radio), ces équipements permettent les levers centimétriques en temps réel, qui concurrencent directement les méthodes topographiques traditionnelles, sans jamais poser de problèmes d'orientation.

Enfin, il existe des récepteurs mesurant les codes et la phase sur L1 et L2 (ils sont appelés alors « bifréquences »), avec des capacités de suivi de tous les satellites visibles, et des mémoires de masse permettant des enregistrements sur plusieurs heures. Ils permettent la mesure de grandes bases sans dégradation due à l'ionosphère, mais, de plus, les temps de mesures sont bien plus courts qu'avec des appareils monofréquences (deux fois plus de données). Ces appareils, destinés à un marché beaucoup plus limité, sont nettement plus onéreux que les précédents.


Contraintes operationnelles pour les usagers

La contrainte principale est d'ordre expérimental : l'antenne doit être en position de recevoir au moins quatre satellites. La plupart des récepteurs reçoivent assez mal sous les feuillages, en ville les immeubles peuvent limiter considérablement la zone visible du ciel. Donc, il existe de nombreux environnements où l'on peut être dans l'incapacité de mesurer : le matériel employé n'y est en général pour rien.

Un autre point important est relatif aux calculs effectués : que ce soit en point isolé ou sous forme de vecteur orienté allant d'une antenne de récepteur à une autre, les résultats sont purement géométriques, et n'ont d'utilité que si l'on connaît le système de référence employé.

Ils sont disponibles sur un ellipsoïde international (WGS 84), et ne pourront être fournis dans un autre système que si les paramètres de transformation sont connus du logiciel : ceci peut poser de graves problèmes dans certains pays, en particulier si le système de référence national n’est pas basé sur des mesures spatiales homogènes en précision (par exemple après ré-observation par GPS).

Par ailleurs, les mesures GPS sont géométriques, c'est à dire qu'aucun lien n'est effectué avec le champ de pesanteur terrestre.

Or, les systèmes d'altitudes nationaux sont tous référencés sur le champ de pesanteur terrestre : la surface d'altitude nulle étant très voisine d'une surface équipotentielle du champ de pesanteur, le géoïde. Cela revient à dire que les mesures GPS ne peuvent concourir à des déterminations d'altitudes que si le géoïde est connu avec une grande précision, ce qui n'est le cas que dans quelques pays. Il faut donc faire extrêmement attention à la coordonnée d’altitude délivrée par le GPS : il ne s'agit jamais d'une altitude (sauf correction de géoïde incluse dans le post-traitement si de telles données sont disponibles, ce qui peut être le cas en France compte tenu de la disponibilité de la grille de correction RAF 98), mais une grandeur géométrique qui en est proche.

Évolution de la qualité d'un référentiel national

Pendant des siècles et jusqu'aux années 1990, les réseaux géodésiques nationaux étaient obtenus par triangulation, avec des mises à l'échelle assez difficiles puisque les mesures de distances n'ont pu être effectuées facilement sur grandes distances que depuis les années 70.

L'histoire de la conception globale d'un réseau impliquait, par suite des imperfections des procédés employés, des modèles d'erreurs très complexes.

Typiquement, les coordonnées diffusées en France pour la NTF s'écartaient des valeurs exactes (que l'on aurait obtenues si tout avait été parfait) de grandeurs d'autant plus élevées que l'on s'éloignait de Paris, pouvant par exemple atteindre 10 mètres vers Nice. Le référentiel faisant foi n'était donc pas le référentiel théorique, mais celui réellement disponible au travers de ses bornes et de leurs coordonnées (fausses) publiées. D'où des difficultés sans fin lorsque les bornes étaient détruites et reconstruites : rien ne permettant de garantir que la re-détermination aurait les mêmes erreurs que la détermination ancienne. On a coutume de présenter les modèles d'erreurs de la NTF sous la forme « 1 cm/km », erreur purement relative, sans trop évoquer l'erreur absolue (pouvant donc atteindre plusieurs mètres) des coordonnées publiées.

Ceci avec une excellente excuse : personne ne s'intéresse à des coordonnées absolues fausses de 10 m à Nice, mais tous sont concernés par l'erreur relative entre deux points proches. Hors, celle-ci était inférieure à 5 cm entre deux points éloignés de 5 km. Le problème d'erreurs absolues se pose surtout lorsqu'on passe d'un système à un autre, pour passer, par exemple, de la NTF au référentiel italien dans notre cas : personne ne devra alors s'étonner que le simple changement de coordonnées puisse être entaché d'erreurs atteignant le mètre...

Le modèle d'erreurs, avec la géodésie moderne utilisant le GPS précis appuyé sur la référence mondiale, est complètement différent. On peut alors parler d'erreur absolue, par exemple de 2 cm pour le RBF (réseau de base français, observé par GPS vers 1995), et guère plus (moins de 5 cm en général) pour la NTF (triangulation française terminée vers 1980) recalculée en s'appuyant sur le RBF et le densifiant, en quelque sorte.

Les « GPS » russes et européens

Il existe un système russe équivalent du GPS, le GLONASS, lui aussi en phase opérationnelle à titre militaire. De nombreuses démarches internationales visent à obtenir, en y ajoutant quelques autres contributions (Européenne, Japonaise) sous forme de satellites géostationnaires (pour l’Europe il s’agit d’EGNOS), un système pleinement opérationnel pour les applications civiles comme la navigation aérienne et navale. Le GPS ne peut en effet pas servir à ce but tout seul, puisqu'il reste sous le commandement direct du Ministère de la Défense américain qui peut à tout instant le désactiver sans préavis.

Dans cette logique, l’Agence Spatiale Européenne a également engagé le projet Galileo, qui pourrait vers 2008 constituer une alternative de grande qualité au GPS.

Les stations permanentes

Pour les professionnels de l'information géographique, le GPS ne présente une utilité qu'avec une précision allant du centimètre au mètre. Cela implique, comme nous l’avons vu, un fonctionnement en mode différentiel : un appareil est sur un point de coordonnées connues, l'autre sur le point à déterminer.

Soulignons encore les différences entre variantes existantes :

• En matière de matériel : la précision de la « détection à bon marché », destinée aux besoins du grand public, reste limitée aux alentours de un mètre, car l'on ne mesure pas la phase du signal émis par les satellites mais uniquement sa modulation (« mesure de codes »). Pour arriver à une précision de l’ordre du centimètre, on mesure la phase sur une ou deux fréquences, et le prix du matériel s'en ressent considérablement ;

• En matière de transfert de données : le calcul exige de connaître les mesures obtenues sur les deux stations. Si le transfert de données est effectué en temps réel par liaison radio, alors on peut également obtenir des coordonnées en temps réel. Mais il est possible de se satisfaire de traiter les deux lots de données en temps différé - par exemple lors du retour au bureau. Cela évite le souci d'établir, puis d'entretenir, une liaison radio, mais enlève toute certitude que les données mesurées soient bonnes. La certitude est pourtant un « sous-produit » normal et fort apprécié d'un calcul de coordonnées en temps réel ;

• En matière de type de traitement des données possible : sur des bases courtes (typiquement moins de 15 km), il est possible de mesurer et calculer en mode « statique rapide », avec des temps d'observation réduits à quelques minutes. Mais lorsque la station de référence est plus éloignée, (voire beaucoup plus : on sait calculer des bases de plus de 5000 km), le temps de mesure devient plus long et se compte en heures, voire en journées. Il y a donc actuellement un saut quantitatif dans la valeur économique du GPS : sur bases courtes le « GPS temps réel » serait souvent un bon concurrent du tachéomètre s'il fallait n'amortir qu'un appareil seulement au lieu de deux.

Le concept de « station permanente GPS » est issu de telles considérations.

Il faut en effet bien se rappeler que la grande majorité des levers se font dans les agglomérations, là où la densité de population est grande. C'est là qu'une baisse significative du coût de mesure sera la plus intéressante, même si l'emploi du GPS n’y est pas facile, à cause des masques formés par les bâtiments ou la végétation urbaine. Pour réduire fortement l’investissement initial requis, il y a donc un grand intérêt à mettre en commun une station GPS unique, à mettre les données enregistrées en permanence à la disposition de tous, afin que chacun puisse travailler en GPS en n’utilisant qu’un seul récepteur. Et en gardant à l'esprit ce seuil actuel de l'ordre de 15 km, on comprend qu’il est possible d’optimiser la dépense globale en installant une station permanente dans chaque agglomération de taille significative. La charge logique en revient alors au service technique de la ville, puisque les administrés en sont les principaux bénéficiaires.

L'installation d'une liaison hertzienne locale permettant le temps réel précis (mode dit "RTK" pour Real Time Kinematic) présente souvent des difficultés (installation un émetteur radio actuellement peu aisée, et subsistance de zones « d'ombre » dans les agglomérations, causées par des bâtiments empêchant une réception correcte du signal radio). Mais la situation devrait évoluer rapidement à cause de la généralisation prévue sous peu de GSM (téléphones cellulaires) à grand débit de données (on prévoit 2 MB/s disponible vers 2003). Si le prix de la liaison n'est pas excessif, cela permettra une généralisation rapide du temps réel.

Pour l'instant, une bonne solution consiste à mettre les données à disposition sur un serveur (Internet par exemple), avec un différé n'excédant pas 1 heure par exemple.

Ainsi les équipes rentrant du terrain téléchargeront leurs données de la station de référence et calculeront tous leurs points levés, sans perdre de temps. Il reste que l’installation d’une liaison temps réel n’est pas exclusive d’un post traitement, que l’on emploiera par exemple lorsque la liaison radio est mauvaise.

Toutefois dans la comparaison entre temps réel et temps différé, il ne faut pas oublier les points suivants :

• Une mise à disposition des données de référence, par Internet, en temps légèrement différé, restera probablement gratuite de façon durable, sans avoir à acquérir un matériel particulier. Un format standard, le RINEX, existe pour ces échanges, il est déjà largement pratiqué ;

• En revanche, la mise à disposition d'une liaison temps réel ne bénéficie aujourd'hui pas d'une standardisation complète des formats. Elle exige un matériel complémentaire de réception des données temps réel, directement compatible avec le matériel RTK de la station d'émission des données, et n'aura finalement pas de raison d'être gratuit.

En guise de conclusion

Pour de multiples raisons, le « tout-GPS » et la fin du tachéomètre ne sont pas pour demain : d'abord parce que le lever par tachéomètre est, comme son nom l'indique, extrêmement rapide et fonctionne en toutes circonstances, de façon complètement autonome, que le ciel soit ou non visible. Ensuite, parce que tous les points à lever ne sont pas « stationnables » : on peut y mettre un réflecteur au besoin, mais certainement pas toujours une antenne GPS ! Et comme par ailleurs les levers tachéométriques nécessitent une orientation, on ne se passera pas de sitôt des réseaux locaux matérialisés qui nous sont familiers.

En matière de levers GPS de précision métrique, il y a quelques enjeux nouveaux créés par la généralisation de l'emploi de SIG pour des applications très variées.

Pour leur mise à jour, la précision du mètre est parfois suffisante. Il est alors dommage d'utiliser des méthodes de précision beaucoup trop élevée, dont le coût de revient est inutilement important.

Par exemple, si nous dotons un technicien d'un récepteur GPS recevant sur abonnement des corrections lui permettant d'atteindre le mètre en temps réel (matériel qui sous peu sera très bon marché), si nous lui mettons en main un télémètre laser portable permettant la mesure de distances sans réflecteur, équipé d'un inclinomètre et d'un compas magnétique, il est clair qu'il aura ainsi la possibilité de donner les coordonnées de tous les points entrant dans son champ de vision, sans avoir, par exemple, à pénétrer dans les propriétés closes.

Il est donc important de faire bénéficier la mise à jour des bases de données géographiques de ces méthodes, probablement bien moins onéreuses que toute autre. Les sociétés offrant sur abonnement un service de corrections GPS en temps réel sont donc appelées à se multiplier dans les prochaines années, compte tenu du nombre considérable de clients potentiels !

Bibliographie :

S. Botton, F. Duquenne, Y. Egels, M. Even, P. Willis, GPS, localisation et navigation, Hermès, 1996, ouvrage de base, publié sous l'égide du Conseil National de l'Information Géographique,

Dossier « Les stations GPS permanentes » (revue Géomètre, Mars 2000), dont cette fiche reprend quelques éléments.

Fiche élaborée par Michel Kasser,
Institut Géographique National
avril 2000


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#41 Mon 14 January 2008 16:58

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Fiche obsolète : RV sur http://www.cnig.gouv.fr

Série 2000
Fiche n°37 : cnig.gouv.fr

Depuis 1996, le CNIG développe un serveur télématique qu'il enrichit progressivement. Ce site a une double fonction. Au plan institutionnel, il rassemble toutes les informations ayant trait aux textes officiels et aux événements d'actualité. Au plan pratique, il apporte un minimum d'indications utiles aux professionnels, en développant des rubriques particulières, comme celle consacrée aux fiches techniques, ou en fournissant les liens avec d'autres sites susceptibles de fournir des éléments utiles.
Il a paru intéressant de lui consacrer une fiche technique pour montrer l’étendue de ses possibilités dans ces deux domaines.

Les toutes prochaines évolutions de ce serveur intégreront des procédures interactives qui permettront, en particulier, de recueillir tous les avis des lecteurs qui voudront s'exprimer à propos des fiches du CNIG.
La présentation qui suit n'est autre que le plan du site, certaines rubriques faisant, si nécessaire, l'objet d'un commentaire.

[img]http://georezo.net/img/cnig/cnig_37_1.jpg[/img]

TEXTES OFFICIELS / COMMISSIONS/ GROUPES DE TRAVAIL

Historique
• Un bref historique du CNIG

Décret
• Le décret instituant le CNIG

Textes réglementaires
Les textes concernant l’information géographique et portant sur les aspects techniques et organisationnels du secteur :
• Arrêté du 20 mai 1948
• Circulaire du 15 décembre 1948
• Arrêté du 21 janvier 1980
• Instruction du 28 janvier 1980
• Décret portant statuts du CNIG

Commissions et groupes de travail
• Economie
• Topo-foncière
• Certification
• Positionnement statique et dynamique
• Plan numérique national
• Métiers
• Toponymie
• maîtrise d'ouvrage SIG

[img]http://georezo.net/img/cnig/cnig_37_2.jpg[/img]

ACTUALITES / DEBATS / NOUVELLES

Calendrier des réunions

Questions fréquemment posées
Un premier niveau de réponse avec des liens vers les sites concernant le problème

Mission parlementaire
Mission Lengagne
• Présentation
• Lettre de mission
• Textes de référence
• Agenda
• Exprimez-vous (les différentes contributions faîtes dans le cadre du forum ouvert pendant la durée de la mission restent consultables)

Loi d’aménagement du territoire et projet de décret d’application
• Présentation
• Texte article 53
• Projet de décret
• Projet de rapport de présentation

Dernière heure
Les brèves de l'actualité géomatique

CATALOGUES / ANNUAIRES / LISTES

Catalogue des sources
(En cours de constitution)

Catalogue de la formation
(En cours de constitution)

Annuaire des sociétés
• Présentation
• Liste alphabétique
• Organismes professionnels
• Consultants
• Editeurs de cartes
• Editeurs de logiciels
• Géomercatique
• Production et distribution de données
• Sociétés de services
• Liste des autres sites Web
• Mise à jour en ligne

[img]http://georezo.net/img/cnig/cnig_37_3.jpg[/img]

Rapports d’études

Actes des journées et séminaires

Fiches maîtrise d’ouvrage

Liens avec d’autres sites Web

OUTILS / RECHERCHE / TRANSFERT

Recherche sur le site
Page permettant de rechercher rapidement une information à partir d’un mot clé

[img]http://georezo.net/img/cnig/cnig_37_4.jpg[/img]

Transfert FTP
Page rassemblant les liens avec tous les documents téléchargeables du site

DOSSIERS FRANCE / INTERNATIONAL

France
• Numérisation du cadastre
• Système de référence et projections
• Problématique des données publiques
• Modèles de données et métadonnées
• Normalisation en France
• Le GPS en France

Europe
• L’Information géographique et la Commission Européenne
• Les organisations paneuropéennes
• Lien vers EUROGI

International
• Les projets de bases de données mondiales
• Normalisation internationale

Fiche réalisée par le groupe de travail avec
l'aide du Secrétariat général du CNIG
avril 2000


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#42 Mon 14 January 2008 16:58

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°38 : FICHIERS RASTER ET DONNEES MAILLEES

Les techniques de numérisation automatique progressent rapidement et modifient les options à disposition du technicien. La présente fiche rend compte de l'état de la question courant 1999. Une nouvelle fiche sera établie dans l'une des prochaines séries. 

LES DEUX FAÇONS DE NUMERISER DES DONNEES

L’utilisateur peut numériser ses données de deux façons :
• La vectorisation, par la saisie de segments de droite (ou d’arc de cercle, de polygone ou de toute autre “primitive”), représentant le dessin initial, et appelés "vecteurs" dans le vocabulaire des mathématiques. La vectorisation, manuelle ou semi-automatique, permet à l’opérateur de saisie de reconnaître les objets géographiques présentés par le document et de leur attribuer un code permettant à l’utilisateur de les retrouver, de les traiter, en fonction de ses besoins particuliers.
• Le scannage, ou la photographie numérique, qui produit un document électronique appelé fichier raster ou bit-map, contenant une information encore appelée “maillée”. La norme française NF 52-000 (EDIGéO) en décrit les règles de structuration sous la forme d'un modèle conceptuel de données matricielles.

Le scannage

Cette opération produit un fichier informatique appelé raster ou bit-map. Le terme raster vient du monde de la télévision et rappelle que l’image est traduite en électronique par balayage. Le terme bit-map est utilisé quand le fichier représentant l’image n’est pas compressé.

Les données recueillies n’incluent aucune reconnaissance de l’information. Elles ne font que reproduire une image, à l’aide des techniques de l’enregistrement électronique.

[img]http://georezo.net/img/cnig/cnig_38_1.jpg[/img]

Le scannage ne se substitue pas à la numérisation vectorielle. Cette dernière est nécessaire pour reconnaître les objets qui constituent la carte, le plan, et dont la description est normalisée (cf. la nomenclature du CNIG).

Les données maillées

Le scannage permet d’enregistrer sur disque magnétique ou sur CD-ROM un plan, une carte, un dessin ou une photographie qui sont déjà une représentation de la réalité.

L’appareil photographique numérique permet de constituer la représentation de la réalité directement sur le média électronique. Par nature, la représentation de cette réalité est constituée par une grille de petits carrés, les “mailles”, issue de la grille constituant le capteur de l’appareil.

Contrairement aux données en mode vecteur qui décrivent des objets géographiques à l’aide de points, de lignes ou de polygones, les données maillées décrivent la surface d’un territoire selon une grille régulière où chaque maille, ou encore pixel pour les anglo-saxons, présente une valeur codant l’information.

La structuration des données scannées ou maillées n’est pas impossible, mais sa mise en oeuvre gomme l’intérêt de la technique.

INTERET DU SCANNAGE

Les cartes et plans scannés, ou les photographies numériques, présentent l’avantage de pouvoir être rapidement et facilement mis en oeuvre. Leur production est économique et leur utilisation est facile. Les progiciels d’édition de fichiers raster facilitent l’assemblage des planches connexes, ainsi que la réutilisation des extraits de plans dans les rapports de présentation, les plans de situation dont les services font un usage fréquent.

La carte scannée : les photographies numériques peuvent ainsi servir de fond de plan, voire de référencement cartographique. Les progiciels récents savent afficher un document raster simultanément avec un graphisme vectoriel.

L’État a choisi cette solution pour numériser le plan cadastral de 1999 à 2001. La technique est plus simple et permet de mettre les documents à la disposition du plus grand nombre dans un délai limité. Les services du cadastre n’ont pas pour autant abandonné la numérisation vectorielle du cadastre car les principaux utilisateurs en expriment le besoin (cas fréquent en agglomération urbaine).

Disponibilité

L’un des intérêts de la carte ou du plan scanné réside dans sa disponibilité.
Scanner un document de grand format ne prend que quelques minutes et peut être effectué par de nombreux reprographes, pratiquement sans délai, pour un coût inférieur à 100 F.

Jusqu’à une date récente, les données maillées – qui existent depuis longtemps – étaient restées confinées à un usage relativement spécialisé (production de données par photo-interprétation, télédétection, vectorisation) faute de moyens techniques suffisants pour en tirer le meilleur parti. Cette situation évolue rapidement depuis quelques années au rythme de l’évolution technique.

L’I.G.N. a ainsi scanné l’ensemble de ses cartes du 1:25 000 au 1:1 000 000. Ces documents ont l’intérêt d'être en couleur - une couleur parmi 256 sur un pixel de 0,1 mm de côté. Les documents fichiers raster sont disponibles à la vente pour des prix variant en fonction des produits : (1 000 F pour la carte de France au 1:1 000 000 ou pour une dalle de 10 km de côté à l’échelle du 1:25 000).

Les planches cadastrales sont quant à elles en cours de scannage avec une précision identique. Toutes les communes devraient être couvertes à la fin de 2000 ou au début de 2001.

Les photographies aériennes et satellitaires bénéficient également des avancées techniques et permettent d’obtenir des données plus fines, dont la fabrication est fiabilisée et simplifiée.

Des images à très haute résolution (avec une maille correspondant à 10 cm sur le terrain) peuvent être obtenues directement par la caméra numérique, à des prix de revient en diminution constante.

L’I.G.N s’apprête ainsi à commercialiser des orthophotoplans numériques départementaux avec une maille de 50 cm, et envisage pour un avenir plus lointain d'employer une caméra numérique pour proposer des produits d'une qualité encore meilleure avec des mailles très fines (de l’ordre de 20 cm) sur de plus faibles étendues (des villes par exemple).

La société Géosys propose également la couverture des principales villes avec des images numériques sur catalogue, mises à jour annuellement.

Cette liste d'offre n'est évidemment pas exhaustive, il faudrait citer d'autres sociétés : Eurosense, Ortea, lnterAtlas, Géoimage, etc.

Inconvénients du scannage

L’inconvénient de la carte ou du plan scanné, du document maillé, réside dans l’absence d’une reconnaissance des objets constituant le document. Cette caractéristique interdit certaines utilisations : liaison avec une banque de données techniques, définition d’attributs, analyse spatiale, etc.

Un autre inconvénient de la carte ou du plan scanné se rencontre dans les changements d’échelle. Alors que la représentation vectorielle autorise une grande souplesse, les plans scannés acceptent difficilement les agrandissements ou les réductions d’un facteur supérieur à 2. C’est particulièrement vrai pour le plan cadastral dont l’assemblage regroupe déjà des feuilles d’échelles différentes.

Une réduction au 1:5 000, essentiellement utilisée comme fond de plan pour le P.O.S. constitue une limite, tandis que l’agrandissement au 1:500 d’un assemblage comprenant une planche initialement dessinée au 1:2 000 montrera cette partie avec des graphismes trop épais pour certaines utilisations.

LES DIFFICULTES D'EXPLOITATION

Bien que d'apparence souvent plus lisible pour l'oeil, les données maillées présentent quelques difficultés d'exploitation dans un SIG vectoriel.

En effet, sauf à représenter le terrain tel qu'il est (cas des images numériques du territoire utilisées comme simple "fond de carte"), ces données nécessitent souvent un travail d'interprétation des informations portées par la maille.

En outre, le principe du maillage est peu compatible avec une notion de base de données attributaires. Il est encore difficile de mettre en oeuvre des informations attributaires complexes associées à chaque maille.

Enfin, les logiciels permettant une intégration de données maillées dans un SIG n'offrent pas de souplesse réelle de manipulation, en particulier pour le croisement des couches raster entre elles. Il est, par exemple, difficile de gérer des images dont les mailles ont des tailles différentes. Par ailleurs, en termes de restitution visuelle ou cartographique, une seule "couche" est visible. Certains logiciels offrent la possibilité de rendre transparente une couleur, mais cette solution n'est applicable qu'à des cartes rasters peu chargées, en général monochromes. L'exploitation croisée avec des données vecteur n'est généralement pas disponible sur les logiciels actuels, malgré l'intérêt énorme que peuvent représenter de tels croisements.

A ces difficultés générales d'exploitation, dues essentiellement aux outils logiciels, s'ajoutent d'autres difficultés liées à la nature de l'information elle-même. On peut ainsi distinguer quatre catégories de données maillées, comportant chacune leur limite méthodologique :

Les données raster traduisant une grandeur naturellement continue

On doit entendre ici des informations qui ont un sens en chaque point du territoire : une donnée d'altitude, de pente, d'orientation, des mesures de pression atmosphérique, de bruit, des temps d'accès, des cartes de distance, des valeurs de contrainte ...

Le mode maillé est pour ce type d'information le moyen le plus pertinent de représentation. La valeur portée par la maille est une valeur directement liée au phénomène représenté. Il n'y a pas d'ambiguïté pour exploiter ces données.

[img]http://georezo.net/img/cnig/cnig_38_2.jpg[/img]

Les difficultés viendront souvent des logiciels SIG qui ne permettent pas d'intégrer ces données dans toute leur richesse, ou ne permettent pas d'en tirer l'information utile.

Les données nécessitant une interprétation.

On classera ici les photographies aériennes ou satellites. Ce sont des images "naturelles" du territoire sous forme numérique.

Dans ce cas l'information portée par la maille correspond à une intensité lumineuse renvoyée par le sol. Toute la difficulté consiste à déterminer à quoi correspond cette intensité lumineuse : s'agit-il de forêt, de bâti, d'eau, de roche, de surfaces labourées ?

En fait, le codage de l'information n'est pas univoque et nécessite une interprétation faisant souvent appel à d'autres sources d'information (texture de l'image, connaissance des lieux, ...). Pour cela, trois voies sont couramment utilisées :
• soit l'interprétation totalement automatique, utilisant au mieux les techniques du traitement d'image : cette solution est ancienne, dispose de nombreuses références, mais souffre d'une évolution technique permanente et d'une absence de stabilisation des procédés ;
• soit une interprétation totalement réalisée par un opérateur: il faut alors disposer d'une réelle compétence, et la régularité de l'interprétation est toujours un problème ;
• soit une forme d’interprétation utilisant les potentiels des deux solutions précédentes, dans ce qui est appelé l'interprétation assistée par ordinateur : on prépare différentes vues de l'image à partir des techniques automatiques, et elles sont interprétées par un opérateur.

Ces données sont donc des sources d'information très riches et facilement actualisables,  mais elles nécessitent en contrepartie un haut niveau de savoir-faire pour être exploitées.

Les données portant une information déjà interprétée

Chaque maille porte un code faisant référence à une information de façon univoque. Le code fait référence à une nomenclature (figure 5) bien précise (classification statistique du territoire selon la nomenclature CLUSTER proposée par EUROSTAT, par exemple).

Afin de représenter des objets très proches les uns des autres, on est obligé de diminuer globalement la taille de la maille, ce qui augmente de manière importante la taille des fichiers. Une autre solution consiste à utiliser es techniques plus sophistiquées, telles que les quad-trees, en coupant une maille en quatre mailles plus petites, et ceci uniquement là où cela est utile. Malheureusement, elles sont peu souvent implémentées dans les logiciels SIG. Le principal frein à leur utilisation est le peu de données qui existent sous cette forme aujourd'hui.

Les données reproduisant une information déjà interprétée, existant sur papier

II s'agit des cartes scannées, telles que les cartes routières, le cadastre, ou les cartes géologiques.

Extraire des informations géographiques d'une carte scannée en s'appuyant sur la légende graphique présente beaucoup de difficultés : en effet, une couleur correspond rarement à un poste de la légende.

Des techniques de reconnaissance de caractères, de vectorisation automatique, alliées à des classifications de couleur, peuvent dans certains cas aider à extraire une partie de l'information contenue dans la carte scannée, afin d'en produire une information vectorielle. Leur emploi reste cependant difficile, sauf par des professionnels.

Les cartes scannées peuvent donc être utilisées comme référentiel visuel, comme fond de plan (elles présentent un aspect familier aux utilisateurs), comme source d'information (numérisation sous forme vecteur d'éléments graphiques contenus dans la carte), mais ne peuvent que rarement être utilisées comme une information pouvant être croisée directement avec une autre.

En faisant abstraction des raisons qui motivent (démontrent) l'intérêt d'utiliser des données maillées et des difficultés méthodologiques qui freinent leur usage réel, il demeure un certain nombre de réalités pratiques qui expliquent aussi une grande part de ce décollage tardif de l'usage des données raster dans les SIG.

LA CONSTITUTION

En raison de la rareté de l’offre “sur étagère” d'images numériques, géométriquement correctes sur des territoires étendus, les besoins des utilisateurs en données du type image, ne peuvent être satisfaits que par des prestations ponctuelles coûteuses ou par l'emploi d'outils et de méthodes réclamant des savoirfaire peu répandus.

Réalisée à partir de clichés, une couverture orthophotographique numérique d'un territoire nécessite au moins trois étapes importantes et délicates :
numériser les clichés ; les scanneurs actuels permettent une numérisation facile, avec des gammes de qualité allant d'une qualité bureautique (trop faible pour une utilisation géographique) à des qualités métrologiques, avec du matériel très coûteux.
• les corriger géométriquement individuellement, en tenant compte des déformations introduites par l'appareil de prise de vue, celles inhérentes au relief (ortho-rectification), celles introduites lors de la numérisation ;
assembler (mosaïquer) les différentes images en gommant les bords de feuille, les superpositions, et en corrigeant les différences de saturation de couleur, de contraste, pour ne faire qu'une seule image continue et homogène.

Autant dire que peu d'utilisateurs de SIG se sont lancés dans ces productions en dehors d'organismes dont c'est le métier (IGN, producteurs privés...).

Depuis quelques temps, la mise à disposition d'outils d'ortho-rectification laisse la possibilité d'effectuer cette opération pour des utilisateurs moins chevronnés. Cependant ceci restera limité à de petites productions.

LE STOCKAGE

La principale difficulté technique soulevée par l'utilisation des données raster était la consommation importante d'espace mémoire, en particulier pour en assurer la conservation (stockage).

L’évolution des techniques de stockage a pratiquement effacé la difficulté. Une planche de cadastre, scannée à 400 points par pouce soit 16 points par millimètre et compressée dans un format classique (CCITT ou TIFF) mesure en moyenne moins de 1 000 Ko. Les planches d’une commune (de 10 à 30 planches dans la plupart des cas) occuperont moins du dixième d’un CD-R (enregistrable), dont le prix d’achat se situe autour de 10 F. Et les 10 à 30 Mo que mesure l’assemblage du plan cadastral d’une commune tiendront sans difficulté sur un disque dur dont les prix continuent à baisser de manière spectaculaire. Un disque de 10 Go dont le prix s’approche des 1 000 F pourrait contenir les planches de toutes les communes d’un département.

MAILLE, PRECISION, RESOLUTION

La taille de la maille est une information importante pour caractériser les données raster. C'est même souvent la seule information caractérisant la finesse de la donnée.

Or, la taille de la maille ne donne d'indication que sur l'agrandissement maximum possible avant apparition des mailles (voir figure 3). En aucun cas la taille de la maille ne permet d'estimer une précision ou une résolution de la donnée.

[img]http://georezo.net/img/cnig/cnig_38_3.jpg[/img]

Ainsi, une carte au 1 :25 000 peut être scannée à 300 points par pouce soit 12 points par millimètre ou à 1 200 soit 50 points par millimètre, sans modifier la précision du résultat, qui est celle de la carte d'origine, parfois dégradée par le scannage. De même, une orthophotographie peut avoir une maille de 0,50 m au sol, mais n'avoir une précision annoncée que de quelques mètres ; cette dernière découle en effet de la rectification géographique indispensable pour passer de la photo à une donnée géographique.

Par ailleurs, la résolution, entendue comme la possibilité de différencier des objets sur l'image, sera très variable selon le type de donnée maillée. Sur une carte scannée avec un pas de numérisation adapté, la résolution sera celle de la carte et pas plus. Sur une photo aérienne, elle sera dépendante du contraste entre deux objets limitrophes, et de leur forme : on peut voir sur une image à maille au sol de 0,50 m la signalisation horizontale sur une route, alors qu'elle a une largeur bien inférieure à la maille. A l'inverse, la frontière entre deux objets ne présentant qu'un faible contraste, et aux limites non régulières, ne pourra être déterminée qu'avec au moins deux mailles.

Par rapport aux données vecteur, on peut donc limiter l'échelle d'affichage des données maillées en jouant sur la taille de la maille. Cependant, les difficultés dues à l'utilisation de données de précision ou de résolution trop différentes restent les mêmes que pour des données vecteurs.

CONCLUSION

Toutes les difficultés qui viennent d'être évoquées ne doivent pas faire oublier les avantages majeurs que représente la complémentarité des informations raster par rapport à des informations sous forme vecteur.

Les données vectorisées et maillées peuvent constituer des ensembles très complémentaires et de plus en plus de professionnels adoptent cette solution. La décomposition de l'image en pixels constitue de toute manière le mode de présentation dominant, tant à l'écran qu'à l'impression, depuis l'arrivée des traceurs électrostatiques et à jet d'encre qui ont supplanté les traceurs à plume. Toutes les données vectorielles sont converties en données bi-map à une étape ou à une autre du processus de présentation.

Les communes, grandes consommatrices de plans destinés à l’illustration de dossiers et de rapports, à l’information des administrés, pourront recourir sans hésitations aux plans scannés, éventuellement en complément d’un SIG.

RECOMMANDATIONS

En tout état de cause, le scannage des cartes ou plans requiert quelques règles. Compte tenu du faible coût du scannage, il est conseillé de choisir une résolution élevée. Une résolution de 600 points par pouce soit 24 points par millimètre n’est pas excessive, surtout si des traitements doivent être effectués sur les documents.

Une résolution de 400 points par pouce soit 16 points par millimètre constitue un minimum. Cette résolution est suffisante pour obtenir des images de bonne qualité. En revanche, si des traitements sont nécessaires, l’image subira des altérations dès la première modification. Les planches cadastrales présentent, la plupart du temps, une orientation propre et doivent subir une rotation en vue d’un assemblage. Une rotation entraîne des approximations dans le calcul de l’image qui restent visible à l’oeil nu, pour une résolution initiale de 400 points par pouce soit 16 points par millimètre.

Bibliographie
Bernard ALLOUCHE “Les données maillées (ou données “raster”) Signature n° 15, CERTU, Janvier 1999.

Fiche établie par Michel Essevaz-Roulet
avril 2000


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#43 Mon 14 January 2008 16:58

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°39 :  ECHANGES DE DONNÉES AU CONSEIL GÉNÉRAL DE L’AIN

De nombreux Conseils Généraux se sont dotés de Systèmes d’Informations Géographiques pour les besoins de leurs services. Plus rares sont les départements ayant engagé un projet coordonné portant sur la mise en oeuvre d'un SIG départemental et d'un réseau de SIG pour les collectivités locales. Dans l'Ain, l’opération a fait l’objet d’une préparation minutieuse, faisant jouer les ressources d’un partenariat limité, et a été délibérément orientée au profit du service public (collectivités, administrations et établissements publics). Mettre à disposition des collectivités locales, un outil performant dans les meilleures conditions techniques, financières, constituait un enjeu, et une attente des différents acteurs locaux. Cette fiche a été établie par l'Observatoire Economique du Conseil Général de l'Ain en décembre 1999. 

CONTEXTE

Il a fallu deux éléments pour inciter le Conseil Général de l’Ain à mener de pair la mise en place d’un SIG départemental, et d'un réseau de SIG destinés aux collectivités locales :

• Les exigences techniques et financières de la Direction Générale des Impôts (D.G.I), limitant les velléités de projets des communes urbaines du département ;

• La volonté politique des élus de voir avancer toutes les communes, petites ou grandes, urbaines ou rurales, au même rythme en matière d’implantation d’outils de gestion locale, et d’aide à la décision.

LA PHASE PREPARATOIRE

Les écueils techniques étaient nombreux : éviter l’émiettement, tout en respectant l’autonomie locale, surmonter les réticences et le refus du progrès, définir un produit et un service répondant aux attentes des futurs utilisateurs.

Le projet a pris corps en 1992, et dès l’analyse préalable, la consultation des différentes communes rurales faisait ressortir un réel intérêt pour un outil de consultation ayant une approche bureautique : recherche d’une parcelle cadastrale, accès à la désignation de son propriétaire, consultation des caractéristiques d’un organe du réseau d’eau potable, …

Il convenait donc d’orienter le choix vers une solution logicielle adaptée aux qualifications des personnels des mairies, et de les associer (techniciens de réseaux, ou de voirie, personnels en charge de l’accueil du public).

Les contraintes financières étaient également rédhibitoires, avec des structures communales de petites tailles (310 des 419 communes comportent moins de 1000 habitants), avec un territoire largement couvert par les intercommunalités (districts et communautés de communes). Il fallait donc s’approcher d'un coût zéro, en particulier pour le fonds cadastral et le logiciel de premier niveau (consultation).

LE CADRE DE MISE EN OEUVRE

Le cadre de mise en oeuvre du projet a été esquissé dès 1994 :

• Si l’initiative et la mise au point du projet reviennent au Conseil Général, il ne peut assurer seul l’ensemble de l’opération. Un “ noyau dur ” regroupant le Conseil Général et le Syndicat Intercommunal d’Electricité de l'Ain (S.I.E.A) est constitué. Le S.I.E.A apporte un soutien et une expertise dans le rôle de conseil aux collectivités, et prend à sa charge une partie des frais d’investissement pour les communes et intercommunalités rurales. Il intervient aussi dans l'enrichissement thématique des SIG des collectivités locales (Plan d'occupation des Sols, Réseaux, Voirie, …) ;

• Un comité de pilotage départemental organise la programmation et la gestion du projet (dont la numérisation cadastrale n’est que le premier élément), l’organisation des échanges de données et les relations de partenariat (administrations de données, gestion des accès aux données, élaboration d’un dictionnaire des données, …) ;

• Les modalités d'échange du projet sont régies dans un cadre conventionnel qui engage les partenaires entre eux : ils sont bénéficiaires des données, et s'engagent à respecter les conditions d'usage et de diffusion des données, à mettre à disposition leurs propres données, et à les tenir à jour.

LA CONSTITUTION DES BASES DE DONNEES DE REFERENCE

• La BD Carto IGN © a été retenue comme référentiel du SIG départemental. Le Conseil Général a fait l'acquisition de dix licences, exploitées pour les besoins des services départementaux, et mises à disposition des administrations (D.D.E - D.D.A.F), ainsi qu'aux principaux intervenants sur le territoire du département : Comité Départemental du Tourisme (C.D.T), Service Départemental d'Incendie et de Secours (S.D.I.S), Conseil d'Architecture d'Urbanisme et Environnement (C.A.U.E), et Syndicat Intercommunal d'Electricité (S.I.E.A).

• Le cadastre a été retenu comme référentiel pour les "SIG collectivités locales". La digitalisation cadastrale a été réalisée sous la maîtrise d'ouvrage et la maîtrise d'oeuvre du Conseil Général, dans un cadre conventionnel associant la Direction Générale des Impôts, le S.I.E.A représentant des communes et des groupements de communes, la D.D.E., la D.D.A.F, E.D.F-G.D.F, la Régie d'Electricité de Saint- André-de-Corcy, et France Télécom. Les mises à jour sont réalisées dans les trois Centres Départementaux des Impôts Fonciers, soit à partir de l'application nationale Plan Cadastral Informatisé (P.C.I), soit à partir d'une solution logicielle fournie par le Conseil Général dans l'attente de la poursuite d'équipement du P.C.I.

LES ASPECTS TECHNIQUES

La mise en oeuvre opérationnelle du projet a fait l'objet dès le départ de choix techniques permettant de définir les règles de fonctionnement du projet, et de préciser les modalités pratiques de réalisation :

• Le choix d'une norme d'échange : le projet étant basé sur la mutualisation des échanges de données entre les différents partenaires, il a été défini dès le départ de privilégier le respect d'une norme d'échange. Le choix s'est porté sur la "norme nationale" EDIGEO. Ainsi les données de références sont diffusées dans leur livraison initiale ou dans les versions mises à jour au format EDIGEO. Le faible niveau de pratique de la norme d'échange EDIGEO, a conduit à réaliser spécifiquement une chaîne de production de données cadastrales à destination du Plan Cadastral Informatisé. Le processus de traitement est basé sur une livraison de données dans un format d'échange plus simple, et plus largement répandu, selon une structuration décrite dans un cahier des charges. La pratique a aussi démontré une difficulté dans l'exploitation des données fournies aux partenaires, tout particulièrement pour ceux équipés de SIG nord américains (nécessité d'acquisition de produits additionnels plus ou moins performants, ou plus ou moins pérennes) ;

• L'architecture "Client-Serveur" : sous cette appellation, était intégrée la notion d'un poste Serveur hébergeant les données de chacun (données réparties), et auquel accédaient les postes distants (les clients) afin de bénéficier des données dans une version mise à jour. En particulier, le serveur cadastral départemental mis en oeuvre en 1995 avait pour objectif de permettre des extractions à la demande de données au format EDIGEO / télédisquette via numéris depuis un poste distant équipé d'un logiciel client ;

• La préconisation d'une "solution de référence" pour les collectivités locales : dès le départ, le référencement d'une solution logicielle pour le "SIG des collectivités locales" a été souhaité. En effet, hormis l'intérêt économique évident d'un tel choix, l'approche d'une solution tendant à l'uniformisation constituait un facteur clé dans la notion d'échange, tant du point de vue des données (modélisation des données communes), que des expériences (sessions de formations groupées, clubs utilisateurs locaux, simplification du support (hot-line) des utilisateurs, …). Le choix s'est porté sur une solution simple d'utilisation, aux fonctionnalités volontairement limitées. L'outil proposé assure un premier niveau de service, et permet aux collectivités locales de se forger une première expérience, tout en leur permettant de le compléter s'il se révèle insuffisant, ou de le substituer s'il apparaît inadapté.

EVOLUTIONS - PERSPECTIVES

Dix ans après le lancement du projet, alors que les principales difficultés imaginées au départ semblent être en grande partie résolues, de nouvelles interrogations se font jour. On constate en particulier, des évolutions importantes de l'environnement du projet sur le plan technologique, et sur le cadre institutionnel de réalisation du projet.

Les mutations technologiques

Un des fondements du projet réside dans la notion d'échanges entre les différents partenaires. Aujourd'hui, à l'heure où les mutations technologiques liées à l'informatique uniformisent les outils, et "réduise" la notion de distance, la notion d'échange prend une forme nouvelle.

Le "Client-Serveur" : depuis quelques années, les concepts de "Client-Serveur" ont considérablement évolués, et se sont développés au point d'aboutir récemment au principe de client universel, solution légère concrétisée par le navigateur. Ainsi, de la notion d'échanges de données entre les systèmes, on est passé à l'ère de l'accès dynamique aux bases de données, et au partage de ressources locales ou distantes. Le SIG a évolué dans le même sens, et au principe d'extraction de données, est venu se substituer la notion d'accès (ou de diffusion) des données géographiques en mode local ou distant.

Les formats d'échanges, pensés pour résoudre les problèmes de communication de données entre les différents systèmes, constituaient une évolution aux principes de création d'interfaces spécialisées et propres à chaque logiciel. Actuellement, la notion de norme se concrétise dans une offre concertée des éditeurs SIG, visant à définir les principes d'un format de données commun aux différents outils, et donc "ouverts" au partage de données (travaux de l'OPENGIS et géométrie des objets stockée dans le S.G.B.D.R).

Le cadre institutionnel de réalisation du projet

Dans le projet, les échanges de données sont régis par un cadre conventionnel. Depuis la signature de la convention de numérisation du plan cadastral, on constate des évolutions importantes de ce cadre institutionnel. En particulier, les hypothèses de rapprochement entre le service du cadastre et l'IGN, les nouvelles orientations en matière de scannage de plans, de nouvelles règles de diffusion de données publiques constituent autant de nouveautés qui ne manquent pas d'apporter leurs lots d'interro gations, mais qui permettent aussi d'entrevoir de nouvelles réponses à des préoccupations actuelles. Ainsi, dans un département comportant de nombreux plans cadastraux non remaniés, les perspectives d'une mise en conformité de la géométrie du plan cadastral, la création d'un continuum géographique, ou la mise à jour du bâti sur la base d'orthophotographies aériennes, constituent de nouvelles réponses aux attentes et besoins des utilisateurs.

CONCLUSION

Au stade actuel du projet, le bilan est globalement positif. Le respect du cahier des charges de départ, l'absence de dérive financière, ainsi qu'une large diffusion de l'outil dans les collectivités locales avec un bon indice de satisfaction, sont autant de motifs de satisfaction. De nouveaux enjeux se profilent pour les prochaines années. Ils porteront pour l'essentiel, sur l'amélioration et l'homogénéisation des référentiels actuels, et sur le développement des applications "thématiques" tant sur le plan local que départemental.

QUELQUES INFORMATIONS CLES

Le département de l'Ain
515 000 habitants
Environ 5 762 km2
419 communes
1 276 000 parcelles cadastrales

Avancement à fin 1999
240 communes digitalisées,
210 communes diffusées aux partenaires, en phase de mise à jour régulière dans les C.D.I.F,
110 communes installées (application cadastre)

Coût moyen de parcelle mise à disposition des partenaires

Numérisation - structuration - contrôle et diffusion : 14,50 F T.T.C

Genèse du projet

1992 : Premières réflexions - Cartographies thématiques (observatoire économique), Etude d'opportunité et étude détaillée du projet,
1993 : Complément d'étude : Aspects conventionnels, rédaction cahier des charges - préparations budgétaires,
1994 : Appel d'Offres Logiciel, tests et choix,
1995 - Mise en oeuvre du SIG départemental (SIG départemental - serveur de données) - Appel d'offres de digitalisation cadastrale,
1996 : Signature de la convention de numérisation cadastrale - Choix des prestataires, et premiers tests de digitalisation,
1997 - Digitalisation cadastrale (50 communes),
1998 - Digitalisation cadastrale (90 communes) - Fourniture des premières communes pour le P.C.I,
1999 - Digitalisation cadastrale (90 communes) - Traitement et diffusion des premières mises à jour cadastrales, tests des premières applications communales (POS, réseaux, ..)
2000 - 2001 : Finalisation de la digitalisation cadastrale, et mise à niveau des solutions logicielles initiales

Fiche établie par Jean-Pierre Sabatier,
Observatoire économique du Conseil
général de l'Ain
avril 2000


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#44 Mon 14 January 2008 16:58

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°40 : SEMIOLOGIE ET COMMUNICATION CARTOGRAPHIQUE

Introduction

« Je sais ce que je veux dire, mais je ne trouve pas les mots pour le dire... » Dans le domaine de la cartographie, la difficulté de s'exprimer par le visuel est réelle. Pour contourner cette difficulté, le cartographe rêve de disposer de méthodes et d'outils permettant de faire de la carte une image rationnelle, à priori rigoureusement codée, où la sémantique aurait à coup sûr le pas sur l'esthétique, le signifiant sur le signifié.

L'ambition n'est pas mince, tant les champs disciplinaires concernant la communication par l'image sont nombreux et encore en cours d'exploration. Cette fiche pourra donc paraître à certains très limitée. Notre objectif tente avant tout d'orienter le lecteur vers des références qui lui permettront une réflexion plus approfondie, tout en rappelant un ensemble de règles simples, mais souvent oubliées, qui constituent les bases de la sémiologie graphique.

IMAGE, CARTE ET COMMUNICATION

La carte, en tant qu'image, s'inscrit dans un schéma de communication qui, de l'émetteur vers le récepteur, utilise le canal visuel. La construction, comme la lecture du message cartographique, se réfère donc à un champ disciplinaire que l'on peut appeler sémiologie du signe visuel ou sémiologie graphique.

Il s'agit de réunir émetteur et récepteur par un même répertoire d'éléments, signes, symboles ou figurés, caractérisés et normalisés par des règles contraintes par la perception visuelle et permettant la communication des informations à transmettre à l'aide du système graphique.

Cette discipline fait ainsi appel à un certain nombre de propriétés du canal visuel (rétine, analyseur visuel occipital...), propriétés qui influent sur le mécanisme de la lecture et conditionnent la façon dont sont appréhendés les signes, et dont leur institution en systèmes sémiotiques contribue à conditionner la lecture du message. On pourra utilement trouver dans les ouvrages généraux traitant du signe visuel ou de la communication par l'image [réf. 1, 2, 3, 4], des éléments riches d'enseignement pour le cartographe.

L'image cartographique ne peut également être décrite sans se référer aux sciences cognitives de la psychologie individuelle et de la conscience collective. Cette dimension, comme la précédente, définit les limites d'une approche où les règles rigoureuses et universelles de la perception visuelle ont peu de place. L'utilisation de la couleur notamment, « cette partie de l'art qui détient le don magique » (Eugène Delacroix), nous incite à la prudence. Pas de grille universelle de perception des couleurs, mais uniquement une sensibilité individuelle et culturelle [réf. 5, 6].

A moins de maîtriser parfaitement la connaissance des structures de fonctionnement du mental, on ne peut donc que conseiller au cartographe, perplexe face à ces incertitudes esthétiques, de soumettre pour évaluation, ses constructions graphiques au regard de son entourage immédiat.

Cette complexité est liée au caractère polysémique de l'image, qui n'a pas un seul sens en elle-même, ainsi qu'aux capacités particulières de la perception visuelle, qui procurent à la représentation graphique la possibilité d'un décodage direct.

Deux approches s'affrontent dans le domaine de l'articulation des signes visuels. La première considère l'image comme une entité indivisible, pour laquelle le sens ne s'établit que dans des énoncés appréhendés globalement, et dont les propriétés ne peuvent être déterminées à partir des constituants. La seconde accepte de considérer l'image à travers la reconnaissance, l'assemblage et l'articulation d'éléments primaires. Elle procède parfois d'une stricte application du structuralisme linguistique au domaine visuel, jusque dans sa terminologie. La sémiologie graphique en France, initiée par J. Bertin [réf. 7, 8], est très proche de cette méthode qui s'attache à déconstruire l'image cartographique [Fig. 2]. La démarche présente l'avantage de proposer ces règles tant désirées d'une signification commune, mais elle peut aussi être critiquée, car elle s'éloigne d’une partie de ce qui est spécifique au visuel. L'avenir pourrait dans ce domaine s'orienter vers une exploration plus poussée de l'articulation du global et des éléments constituants, afin de contribuer à l'affirmation (et la codification ?) des propriétés que possède l'ensemble et que les parties n'ont pas.

Le schéma de la communication par le visuel est également contraint par les particularités du canal utilisé. L'essentielle est sa puissance, sept fois plus que l'oreille (10 puissance 7 bits/seconde, ramenés à 25 et jusqu'à 8 bits/seconde au niveau de la “conscience”). Pour le cartographe, ce sont les particularités qui s'appliquent à la perception visuelle qui sont à noter :

• Tout système d'information destiné à l'œil communique en un seul instant les relations entre les trois variables sensibles de la perception visuelle, les deux dimensions du plan, et la variation des taches. Pour la carte, la position dans le plan est contrainte par la localisation géographique, mais la tache peut prendre une infinité d'aspects ;
[img]http://georezo.net/img/cnig/cnig_40_001.jpg[/img]
• Le caractère global et instantané des messages visuels permet à l'image d'accepter une grande quantité d'informations, qui s'organisent en trois niveaux de perception : analytique et linéaire, par regroupement d'éléments, globale enfin. Ces trois niveaux se retrouvent dans le domaine de la carte, qui peut soit être perçue au niveau élémentaire[b] (le plus pauvre celui qui permet simplement de lire la donnée : le nombre de passagers en 1999 à l'aéroport de Rennes a été de 384716), au [b]niveau moyen (celui des sous-ensembles: les aéroports de Saint-Brieuc et d'Angers, avec moins de 20000 passagers, appartiennent à une même catégorie de desserte), ou au niveau d'ensemble (le transport aérien dans l'ouest de la France est structuré en un réseau hiérarchique dans lequel les aéroports de Nantes et Brest sont les principaux nœuds). Une carte efficace doit permettre immédiatement ces trois niveaux de perception, ce qui n'est pas le cas de l'exemple ci-dessus.

Aucun traitement graphique ne permet de percevoir les quantités, les rapports de quantité, et les structures territoriales liées à l'information.

• Une représentation graphique, parfaitement lisible, permet certes de mémoriser en un court instant un grand nombre d'informations, mais pourvu qu'elles aient été convenablement transcrites et ordonnées visuellement. Il s'agit là d'une règle essentielle de la sémiologie graphique, qui sous-entend d'une part que l'information traitée soit au préalable caractérisée par rapport aux relations fondamentales que les signes entre eux sont susceptibles de transcrire visuellement, et d'autre part que la représentation présente une efficacité discriminante suffisamment forte et en adéquation avec la nature ordonnée du message à communiquer.

IMPLANTATION ET VARIABLES VISUELLES

[img]http://georezo.net/img/cnig/cnig_40_002.jpg[/img]

Dans l'approche structuraliste proposée par J. Bertin [réf. 7, 8], le schéma polysémique émetteur -message-coderécepteur est remplacé par un schéma monosémique acteurs (émetteur et récepteur confondus) - relations de l'énoncé du message (entre des éléments qui, comme en Mathématique, sont considérés comme préalablement définis et dont on ne discute plus). Elle utilise comme fondement les variations visuelles entre les signes.

Toute carte peut donc être considérée comme un assemblage de signes, ou figurés, dont la perception privilégie la relation entre ces signes [Fig. 2]. Concevoir ou regarder une carte revient ainsi à interpréter un système de signes qui se différencient par des variations visuelles. Ces variations traduisent trois relations essentielles, la différence ou ressemblance, l'ordre et la proportionnalité ou quantité (Un figuré n'a pas la même apparence qu'un autre, il est différent ou au contraire ressemblant. Un ensemble de figurés dégradés illustre un ordre visuel, par exemple du plus clair au plus foncé. Enfin, un figuré utilise plus de place qu'un autre dans un rapport de grandeur qui révèle une propriété de la donnée représentée).
Ces trois signifiés perçus par l'œil lors de la lecture de la carte, doivent transcrire les relations identiques qui s'attachent aux données représentées sur la carte :

Différence stricte (une surface agricole en blé, est différente d'une autre en maïs), ou par regroupement (les surfaces de culture, se regroupent pour se différencier des surfaces en herbe) ;

Ordre hiérarchique (le canton est un niveau administratif au dessus de la commune), chronologique (le tronçon nord de l'autoroute a été réalisé avant celui du sud), ou |b]quantitatif[/b] (telle commune a enregistré un accroissement démographique supérieur à telle autre) ;

Quantités (cette école accueille 253 enfants, cette autre 96).

Ces trois relations sont suffisantes pour caractériser n'importe quel ensemble de données figurant sur une carte.

Pour traduire ces relations et leur associer la relation visuelle correspondante, le cartographe dispose de trois modes d'implantation et de six variables visuelles, qui permettent de distinguer les figurés les uns des autres [voir fig. 2].

Les modes d'implantation : ponctuel, linéaire ou zonal

Pour chaque figuré, ils sont déterminés en fonction de la nature géométrique de l'entité géographique représentée (une faille est une entité continue d'implantation linéaire, permettant d'identifier un tracé), la dimension sémantique qui s'y attache (une ville considérée comme une étendue affectée d'une occupation du sol particulière est d'implantation zonale, alors que considérée comme un nœud d'un réseau viaire, elle est d'implantation ponctuelle), et l'échelle de représentation (à petite échelle, l'emprise spatiale de la ville ne peut être représentée avec suffisamment de précision, elle est alors d'implantation ponctuelle).

On ne pourrait conseiller suffisamment au cartographe d'édicter en préalable essentiel à toute représentation, cette réflexion portant à la fois sur la nature géométrique de l'information traitée, sa dimension sémantique et l'échelle pertinente de représentation, qui influent directement sur le choix des figurés utilisés.

Les variables visuelles :

La taille :

[img]http://georezo.net/img/cnig/cnig_40_003.jpg[/img]
[img]http://georezo.net/img/cnig/cnig_40_004.jpg[/img]

C'est la seule variable visuelle permettant de percevoir les rapports de proportionnalité et donc de traduire des quantités. C'est la surface du figuré qui est proportionnelle à la quantité traitée (attention aux logiciels qui ne respectent pas les rapports strictes de surface...), et cette variation peut être continue (une taille par valeur). Les rapports de volumes sont les plus difficiles à appréhender, les différences de hauteur (barres) les plus faciles. En implantation zonale, la déformation en anamorphose est la représentation idéale.

La valeur :

[img]http://georezo.net/img/cnig/cnig_40_005.jpg[/img]
[img]http://georezo.net/img/cnig/cnig_40_006.jpg[/img]

C'est la variation de noir et de blanc dans une surface donnée (s'applique aussi à la couleur). Elle s'exprime souvent sous la forme du pourcentage de noir (trame à 20, 30%...), que l'on évite de faire varier de moins de 10% entre deux classes (différence de remplissage n'est plus perceptible). Elle est particulièrement adaptée pour traduire visuellement une relation ordonnée.

Le grain :

[img]http://georezo.net/img/cnig/cnig_40_007.jpg[/img]
[img]http://georezo.net/img/cnig/cnig_40_008.jpg[/img]

A la différence de la valeur, le rapport entre les éléments graphiques et le fond blanc n'est pas modifié, il est constant.

C'est une variable visuelle peu utilisée et qui est pourtant efficace pour l'expression d'un ordre en implantation linéaire ou permettre des superpositions en implantation zonale. La variation de grain différencie et ordonne les signes.

La couleur :

La couleur d'une tache est définie par son spectre (rapport entre la quantité de lumière reçue et la quantité réfléchie, l'impression colorée dépend de la longueur d'onde du signal).

A partir d'une source lumineuse, les trois couleurs fondamentales sont le bleu/violet, le vert et le rouge, les couleurs primaires le cyan, le jaune et le magenta.

[img]http://georezo.net/img/cnig/cnig_40_009.jpg[/img]

La couleur est une variable visuelle fortement différentielle (permet immédiatement de séparer les figurés), ce sont les couleurs saturée ou pures (sans noir) qui permettent la meilleure séparation. Bien qu'ordonnée dans le spectre lumineux, la couleur seule ne permet pas de traduire visuellement un ordre. Si les gradations harmoniques (couleurs “chaudes”; jaune, orange, rouge, et “froides”; jaune, vert, bleu, violet) sont utilisées pour représenter des oppositions (accroissement, opposition), c'est seulement par dégradé de valeur dans une couleur (un camaïeu), que l'ordre sera perçu.

Une carte d'occupation du sol utilisant la couleur permet de différencier efficacement les grandes oppositions (surfaces chlorophylliennes, minérales, hydriques, codées en fonction de perceptions symboliques). Les regroupements à l'intérieur des grandes classes peuvent être perçus par utilisation des gammes quadrichromiques.

La forme :

C'est la variation du tracé du contour des symboles. En implantation zonale, la variation de la forme des éléments graphiques de la trame s'appelle la texture.

[img]http://georezo.net/img/cnig/cnig_40_010.jpg[/img]

Si elle peut être symbolique (un avion, un personnage...), on lui préférera les formes géométriques. C'est une variable exclusivement différentielle, qui peut permettre la perception des regroupements (ressemblances). L'utilisation des textures permet la superposition de zones.

L'orientation :

[img]http://georezo.net/img/cnig/cnig_40_011.jpg[/img]
[img]http://georezo.net/img/cnig/cnig_40_012.jpg[/img]

Peut indiquer une direction géographique (direction, flux, attraction...), mais également s'appliquer à la différenciation des symboles (variation purement géométrique).

[img]http://georezo.net/img/cnig/cnig_40_013.jpg[/img]

Sa variation ne permet pas de distinguer visuellement l'ordre ou les quantités, mais c'est une bonne variable de différenciation. Elle rend possible les superpositions en implantation zonale.

Le tableau ci-dessous permet de visualiser la pertinence de chaque variable visuelle pour l'expression des grands types de relations entre les données.

[img]http://georezo.net/img/cnig/cnig_40_014.jpg[/img]

Les variables visuelles présentent entre elles différents niveaux d'efficacité, fonction de la dimension et de l'environnement des figurés. Ce sont tout d'abord les variations de couleur, puis celles de taille et de valeur qui sont plus directement perçues, viennent ensuite celles de grain, d'orientation et de forme.

La possibilité de différencier un nombre plus ou moins grand de symboles d'un même type n'est pas la même d'une variable visuelle à une autre. Les variations de taille peuvent être illimitées, on peut distinguer 7 ou 8 valeurs de gris, de forme/texture, et 4 d'orientation et de grain. Pour la couleur, le nombre de paliers que l’œil est capable de distinguer est plus important pour le bleu/violet (7 à 8), que pour le rouge/orange (6), ou encore le vert ou le jaune (5 et 4).

Pour préciser plus en détail les caractéristiques des variables visuelles, il est nécessaire de se pro-curer  l'un des ouvrages de référence [Réf. 9, 10, 11, 12].

Combinaison des variables :

[img]http://georezo.net/img/cnig/cnig_40_015.jpg[/img]

Pour accroître l'efficacité visuelle, il est possible de combiner entre elles plusieurs variables. Les combinaisons utilisant l'orientation, la texture, avec la valeur, facilitent notamment le repérage des seuils [Fig. 14], la représentation des doubles progressions [Fig. 15] ou la différenciation.

Dans le domaine de l'utilisation des variables visuelles, les erreurs les plus fréquentes sont de deux types. Il s'agit soit de l'utilisation d'une variable visuelle inadaptée à l'expression de la relation traitée (ex. utilisation de la forme pour traduire un
ordre, de la valeur pour une différence...), soit d'une mauvaise mise en œuvre d'une variable visuelle (ex. des tailles non proportionnelles aux surfaces, des dégradés de valeur non réguliers...).

L'ordre et le désordre, perception globale

La superposition de plusieurs séries de données pose le problème de la perception globale de la carte et des éléments qui orientent sa lecture.

Les règles de lisibilité concernent tout d'abord les contraintes de la perception qui dépendent de plusieurs facteurs: l'acuité visuelle de discrimination et le seuil de perception (aptitude à enregistrer la tache mininum, et à en distinguer la forme), l'acuité visuelle d'alignement (apprécier la disposition alignée des symboles), le seuil de séparation (écart minimal entre deux figurés), et le seuil de différenciation (écart entre les figurés pour identifier des paliers).

Mais surtout, c'est par l'organisation rigoureuse de la totalité des sousensembles de symboles que s'organise la représentation [Fig. 17].

Le recours à la couleur est de plus en plus fréquent, mais son utilisation est souvent délicate [Réf. 5 et 6]. Son fort pouvoir de séparation permet cependant de jouer efficacement sur les niveaux d'information à hiérarchiser et facilite la superposition des figurés. Dans tous les cas, et comme pour le noir et blanc, les symboles doivent être classés par mode d'implantation, par sous-ensembles thématiques pour lesquels la relation informative doit être cohérente avec la variation visuelle. Ces sous-ensembles doivent être organisés de façon à faire ressortir tout phénomène fort par un symbole de forte intensité visuelle. Les symboles seront d'autant plus gros ou épais que le rapport entre la valeur du phénomène à représenter et la surface de l'emprise spatiale sera grand. Car si une construction peut être correcte du point de vue de l'utilisation des variables visuelles, elle peut néanmoins fournir une image invisible lorsque ses éléments ne se séparent pas entre eux.

Dans tous les cas, l'ordre global des éléments superposés doit être au préalable déterminé par une réflexion minutieuse, portant sur la nature du message à transmettre. Par exemple, le fond de plan ne doit jamais occuper le premier plan par une intensité visuelle soutenue, car c'est l'information originale qui doit être mise en avant, et non l'inverse [Fig. 18]. Cette démarche qui privilégie la perception rapide et sélective des sous-ensembles de figurés, leur comparaison, la découverte de leurs différences ou de leurs ressemblances, est essentielle. Elle permet, y compris pour les cartes d'inventaire, d'orienter avec efficacité la compréhension du message cartographique, le document graphique étant de nature à influencer lui-même son mode de lecture. Sans cette détermination, l'œil se déplace de façon aléatoire, se fixe sur les zones du regard, motivé par des phénomènes perceptifs, psychologiques, culturels et esthétiques, d'ordre individuel ou collectif. La construction de l'image devient ainsi sans références explicites et normalisées.

[img]http://georezo.net/img/cnig/cnig_40_016.jpg[/img]

Extrait de J. Bertin [Réf. 8] : “Il s'agit de montrer l'extension des constructions nouvelles dans un village. Les habitudes acquises par le dessinateur de la carte 1 font de ce village une paisible agglomération rurale... alors qu'il est en train de devenir une banlieue résidentielle, avec tous ses caractères”.
A: constructions antérieures à 1962,
B: lotissements,
C: constructions postérieures à 1962,
D: permis de construire déposés.

COMMUNIQUER AVEC UN « REFERENTIEL METHODOLOGIQUE COMMUN »

Au moment où la communication par la carte prend de plus en plus d'importance, où l'information brute des SIG (la base de données géométrique) est de plus en plus partagée, où, enfin, les métiers qui utilisent les représentations graphiques sont de plus en plus nombreux et diversifiés, il apparaît nécessaire de disposer d'un référentiel méthodologique commun. Ces quelques rappels concernant la sémiologie du signe graphique en constituent aujourd'hui les bases, que chacun devra approfondir dans le cadre de lectures et de formations complémentaires. Le risque est grand, sinon, de voir se multiplier les mauvais traitements et les représentations graphiques difficiles à traduire, ou pire encore, celles provoquant des contresens.

Mais ce minimum de règles communes n'est pas suffisant, et on ne peut qu'encourager dans l'avenir l'émergence d'une symbologie normalisée, à dominante métier (types de carte), venant ainsi renforcer le formalisme graphique qui s'attache à des domaines réglementaires eux-mêmes strictement codés.

Références bibliographiques :
1. THIBAULT-LAULAN A.M (dir.), 1972, Image et communication, Paris, Encyclopédie universitaire.
2. Groupe U, 1992, Traité du signe visuel, pour une rhétorique de l'image, Paris, Seuil.
3. VETTRAINO-SOULARD M.C, 1993, Lire une image, Paris, A. Colin.
4. JOLY M., 1993, Introduction à l'analyse de l'image, Paris, Nathan.
5. DUPLAN P. et JAUNEAU R., 1987, Maquette et mise en page, conception graphique, mise en page électronique, couleur et communication, Paris.
6. CADET C. et al., 1990, La communication par l'image, Paris, Nathan.
7. J. BERTIN, 1973, Sémiologie graphique, Paris, Gauthiers-Villars et Mouton.
8. J. BERTIN, 1977, La graphique et le traitement graphique de l'information, Paris, Flammarion.
9. R. BRUNET, 1987, La carte, mode d'emploi, Paris, fayard-Reclus.
10. ROULEAU B. (dir.), 1988, Théorie de l'expression et de la représentation cartographiques, Paris, n° 117-118, Comité Français de Cartographie.
11. BEGUIN M. et PUMAIN D., 1994, La représentation des données géographiques; statistiques et cartographie, Paris, A. Colin.
12. BLIN E. et BORD JP., 1995, Initiation géographique, Paris, Sédès.

Fiche établie par Patrick Pottier
Université de Nantes
avril 2000


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#45 Mon 14 January 2008 16:59

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°41 : DAO, CAO, PAO ET SIG.

Pour beaucoup d'utilisateurs, la cartographie numérique relève du domaine des logiciels de DAO-CAO (logiciels de dessin assisté par ordinateur et de conception assistée par ordinateur). La PAO ou publication assistée par ordinateur a aussi sa place dans cette panoplie. En quoi ces différents outils sont-ils différents ? 

LE DESSIN ASSISTE PAR ORDINATEUR (DAO)

Le dessin assisté par ordinateur a constitué la première étape de l’utilisation de l’ordinateur pour la production de dessins techniques ou industriels. L’outil permet d’utiliser les facilités de l’ordinateur pour enregistrer, modifier un dessin constitué par l’accumulation d’éléments appelés primitives.

[img]http://georezo.net/img/cnig/cnig_41_1.png[/img]
[img]http://georezo.net/img/cnig/cnig_41_2.png[/img]

Ces primitives sont simplement les points, les segments de droite, les segments d’arc de cercle ou d’ellipse, les rectangles, les polygones et d’autres, selon l’application logicielle de dessin considérée. Et ces primitives sont représentées par des expressions algébriques qui permettent leur manipulation.

Tout le monde se souvient sans doute des formules qui permettent de dessiner une droite ou une courbe sur une feuille repérée par deux axes perpendiculaires... L’outil de DAO exploite le même principe.

En plus du tracé des primitives qui permettent de construire un dessin complexe, l’application logicielle de DAO offre des fonctions spécifiques, comme les options permettant d’imprimer le dessin de multiples façons (ce qui rend l’utilisation parfois délicate), comme le dessin automatique des lignes de cotes, etc. On distingue généralement le dessin 2D où le projeteur construit les différentes vues planes de l’objet, comme sur le papier. Il n’y a pas de relations entre les différentes vues. Dans le dessin 3D, le projeteur peut construire son objet en trois dimensions, sous une apparence “ fil de fer ”, surfacique ou volumique, et choisir différents points de vue.

[img]http://georezo.net/img/cnig/cnig_41_3.png[/img]

Les outils qui rentrent dans cette catégorie sont connus : AutoCad (société Autodesk) est le plus répandu, avec MicroStation (Bentley Systems), mais aussi de nombreux outsiders. Il en existe plusieurs centaines, généralistes ou spécialisés, gratuits ou très coûteux.

Simultanément, les outils de dessin raster, qui permettent de créer et modifier un document fichier raster présentant une information maillée, ne doivent pas être oubliés.

LA CONCEPTION ASSISTEE PAR ORDINATEUR (CAO)

Très vite, dans le monde industriel notamment, le dessin assisté par ordinateur est apparu comme un formidable moyen d’aider le projeteur à concevoir son projet.

Le dessin étant constitué d’un ensemble de formes représentées par des expressions algébriques, il devient possible de modifier l’angle de vision d’un projet, de le faire tourner, et plus loin de simuler le fonctionnement.

C’est en ce sens que l’outil de dessin est vite devenu un outil de dessin et de conception, ce qui explique l’association systématique des deux acronymes : la CAO-DAO.

Les outils de dessin tels qu’AutoCad ou MicroStation ont également leur place dans la catégorie de la CAO. Ce positionnement nécessite toutefois l’acquisition de programmes complémentaires, rédigés avec les langages de programmation disponibles avec les progiciels considérés, souvent élaborés par des sociétés indépendantes.

Cette catégorie comprend surtout des produits étudiés pour des professions spécifiques. Il existe ainsi sur le marché plusieurs outils de CAO pour architectes, qui permettent de dessiner, de concevoir et de produire, par exemple les descriptifs qualitatifs et quantitatifs correspondant aux plans.

Les compléments

Les outils de CAO-DAO sont rarement utilisés sans produits complémentaires. Les premiers compléments utilisés sont les bibliothèques d’objets. Il s’agit du dessin d’objets fréquemment présents sur les plans : symboles cartographiques, dont la présentation est d’ailleurs normalisée, éléments de mobilier urbain, etc. Chaque utilisateur peut établir sa propre bibliothèque d'objets.

Plusieurs éditeurs proposent, pour leur logiciel de CAO, un langage de développement qui permet de réaliser d’importantes extensions des fonctions du logiciel. Ces programmes sont développés par des sociétés d’informatiques indépendantes du fournisseur du logiciel de CAO. Les programmes permettent de proposer des fonctions supplémentaires spécialisées par métier. Une société peut, par exemple fournir un programme qui effectue des calculs de cubature, tandis qu’une autre proposera un module qui ajoute des fonctions topologiques à un système qui en était dépourvu.

Ces compléments permettent aux outils de DAO-CAO d’offrir des fonctions qui les rapprochent des logiciels de SIG.

La visualisation de projets

Les outils de visualisation de projet constituent une catégorie des compléments fréquemment développés en périphérie des outils de CAO-DAO. Les jets d’aménagement conçus à l’aide des outils de CAO-DAO sont fréquemment susceptibles d’être présentés au public et aux élus dans une perspective d’aide à la décision. Le résultat brut du dessin est souvent austère et nécessite d’être “ habillé ” pour être plus compréhensible, pour offrir une apparence proche de la photographie plus facile à comprendre qu’un dessin technique. C’est ce qui justifie les techniques de visualisation de projet offertes par l’informatique.

Le point de départ de la visualisation de projet est souvent constitué d’une photographie scannée ou numérique qui peut être ensuite redressée par différentes techniques géométriques afin de coïncider avec le “point de vue” souhaité par le projeteur. Les programmes d’image de synthèse se distinguent des programmes de CAO par leurs buts sensiblement différents. D’un côté la CAO met l’accent sur la précision de la modélisation et garde un caractère technique, tandis que les logiciels d’images de synthèse s’attachent à produire une image d’un réalisme s’approchant de la photographie. Le logiciel d’images de synthèse effectue le rendu à partir de la scène qui a été composée. Il calcule la réflexion de la lumière sur les objets brillants, simule l’épaisseur d’une plaque de verre, prend en compte la couleur, la texture des objets, les différentes sources lumineuses, les ombres… Il ne fait pas tout, à commencer par la modélisation de la maquette qui relève de l’outil de CAO.

L’habillage consiste ensuite à ajouter dans l’image les objets qui n’ont pas été modélisés (comme les arbres), puis à leur attribuer la texture correspondant au matériau, avant de terminer par la définition des ambiances lumineuses.

Le photomontage peut allier et réunir la technique de la représentation photographique d’un site et l’image de synthèse d’un projet.

LE SIG

Le SIG, ou, pour être plus exact le progiciel pour SIG, offre des capacités supplémentaires en matière de stockage et de traitement des données.

L’outil de CAO-DAO produit des plans qui répondent à une intention précise : le plan des voies, le plan d’un lotissement, le plan d’un étage de bâtiment, etc. Ces plans correspondent à une zone spécifiquement limitée et comprennent de nombreuses informations. La production d’un bureau de dessin se traduit par une accumulation de plans qui ne montrent pas toujours une grande cohérence ni un catalogage efficace.

Ainsi, les plans électroniques deviennent moins aisés à manipuler quand l’utilisateur veut intervenir sur une zone à cheval sur deux plans, quand l’utilisateur ne s’intéresse qu’à une partie des informations contenues dans le dessin.

L’expression de ces besoins a ainsi débouché sur une façon différente de traiter l’information graphique. Dans son principe, l’outil abandonne le concept de dessin, juxtaposition d’éléments graphiques dans un cadre, pour ne s’intéresser qu’à l’efficacité de leur stockage et de leur restitution.

Les graphismes sont en conséquence emmagasinés dans une base de données, en fonction de différents critères comme leur signification (parcelles, voies, textes…) et sont restitués à la demande à partir de tout ou partie de ces critères, et de l’espace du territoire souhaité.

Cette catégorie d’outil se retrouve dans les SIG mais aussi dans d’autres systèmes qui traitent d’autres types d’information, comme le bâtiment, où l’on ne parle pas de SIG mais plutôt de système d’information à référence spatiale (SIRS), etc.

De plus, les SIG intègrent des traitements propres à l'analyse spatiale des données de leurs bases, comme l'inclusion ou la connexité par exemple.

LA PUBLICATION ASSISTEE PAR ORDINATEUR (PAO)

Les logiciels de PAO sont des outils de dessin, mais plus destiné à la présentation des graphismes qu’à leur production même. Ils sont capables de traiter les représentations créées avec les outils de DAO et de S.I.G., afin de les intégrer, au cours du processus de production, dans des documents comprenant également du texte. Les outils de PAO sont ainsi capables d’exploiter des graphismes de différents formats : raster ou bit-map, vectoriels ou d’autres formats hybrides du domaine de la bureautique (metafile).

POSITIONNEMENT DES OUTILS LES UNS PAR RAPPORT AUX AUTRES

Sur un plan purement technique (techniques de l’informatique) les trois catégories présentent des différences, un peu comme se distinguent le traitement de texte (qui permet de dessiner un tableau de chiffres, mais sans faire les calculs), le tableur, qui est spécialisé dans les calculs mais qui devient moins commode pour accumuler de grandes quantités de chiffres, et la base de données, spécialisée dans l’emmagasinage de grandes quantités de données, qu’elle est capable de restituer sous forme de tableaux et de textes (états).

Cette hiérarchie n’est pas toujours aisée à percevoir en raison du dynamisme des éditeurs informatiques : les limites entre catégories ont tendance à s’estomper en raison de leurs efforts. Les éditeurs de progiciels pour SIG s’efforcent de donner à leurs produits de meilleures fonctions en matière de présentation de l’information, tandis que les éditeurs de progiciels de CAO-DAO les enrichissent de fonction de type SIG.

Echanges de données

En tout état de cause, les différentes catégories d’outils doivent communiquer. Le choix d’un outil (CAO-DAO ou SIG) doit correspondre aux besoins de l’utilisateur et les échanges de données seront toujours possibles pour peu que l’opération ait été prévue.

La CAO-DAO est un outil qui peut utiliser des données issues du SIG. (Fonds de plan, etc...) afin de créer de nouvelles informations géographiques (plan de carrefour, plan de masse, etc...) qui peuvent alors être intégrés au SIG.. La CAODAO peut être considérée comme une application périphérique ou complémentaire du SIG, et réciproquement. 

Une application de C.A.O.-D.A.O. donne la priorité :
• à la représentation graphique des données
• aux fonctionnalités de dessins (comme la calcul automatique des cotes) est destinée à créer un dessin qui évoluera peu concerne un volume de données limité

Une application de P.A.O. donne la priorité :
• à la lisibilité des informations représentées
• à l’esthétique du document s’intègre dans la chaîne graphique en fin de production s’attache à la compréhension des informations

Une application de S.I.G. donne la priorité :
• à l'organisation des données,
• aux fonctions de mise à jour
• sera utilisé pour une mise à jour continuelle
• enregistre un volume de données complexe et étendu. 


Si les outils doivent être choisis en fonction des besoins des utilisateurs, les données produites constituent un investissement qui doit être préservé par une utilisation plus générale.

Afin de pouvoir être plus facilement échangées et utilisées, les données doivent être précisément décrites et structurées.

Les normes ont précisément pour objectif d’apporter une réponse à ces objectifs.

La nomenclature du CNIG s’impose pour la constitution des données du SIG. Mais les utilisateurs ont tout intérêt à organiser et à structurer leurs dessins dans le même esprit.

Chaque plan constitue un lot de donnée et justifie un catalogage conforme à la norme XP ENV 12657 qui décrit les métadonnées.

Autres considérations, affectant notamment les applications couvrant de grands territoires

• La complexité de la gestion continue du territoire : en effet le fait de découper obligatoirement celui-ci en "cases" régulièrement réparties de préférence entraîne de nombreux problèmes aux limites entre cases : coupure d'objets, doublons d'objets, modifications à faire sur deux fichiers quand on est dans les zones contiguës etc.

• Le manque de souplesse en ce qui concerne les systèmes de références géographiques utilisés, changement de systèmes lourds (comparé avec certains logiciels SIG de type bureautique.).

• L'association d'origine des données aux objets graphiques et leur intégration au fichier de chaque "case" comme avec le format .dwg. Elles sont limitées en nombre et en volume, elles sont difficilement échangeables avec d'autres applications.

• La liaison des objets avec les bases de données externes, qui est possible mais ne permet pas de bénéficier sur celles-ci des possibilités d'analyses spatiales réservées aux données intégrées. Il est vrai que ce problème se retrouve sur des logiciels dits "SIG" autres que ceux originaires de la DAO-CAO. Des développements spécifiques aux applications des maîtres d'ouvrages, complexes et coûteux, sont alors nécessaires pour pallier en partie ces problèmes. 

L’AVENIR

À l’avenir, le logiciel de CAO se rapproche du logiciel de S.I.G. Les éditeurs souhaitent en effet élargir leur marché et dotent progressivement leurs produits de fonctions qui se rencontrent dans des produits concurrents.

À moyen terme, c’est à dire à une échéance de quelques années, le positionnement des différents outils mis en oeuvre dans le monde de la cartographie et du S.I.G., va sensiblement évoluer. Les produits distingueront notamment les fonctions d’édition (création, modification, présentation des graphismes) et les fonctions de gestion des données. Les logiciels des S.I.G. ont déjà entrepris cette démarche en proposant des modules séparés pour l’édition des plans et cartes d’une part et pour la gestion des bases de données géographiques d’autre part, suscitant une émulation qui conduit de grands éditeurs de S.G.B.D. à proposer des modules (qu’ils appellent parfois “ cartouches ”) spécialisés dans la gestion des données géographiques.

Et les outils de dessin et d’édition cartographique, comme les logiciels de S.I.G., pourront exploiter directement ces bases de données, sans recourir à des conversions qui sont, à l’heure actuelle, effectuées de manière manuelle.

Bibliographie

Henri PORNON, Les SIG, HERMES, 1992

AFNOR, Norme expérimentale XP ENV 12657, 1999

Ministère de l’Équipement, des Transports et du Logement, Production de documents, Juillet 1999

Ministère de l’Équipement, des Transports et du Logement, CETE Nord-Picardie, Les techniques de visualisation de projets, Guide de mise en oeuvre, Septembre 1999.

Fiche établie par Michel Essevaz-Roulet
avril 2000


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#46 Mon 14 January 2008 16:59

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2000
Fiche n°42 : LES PLANS DU DOMAINE VOIRIE ET LA CONSTITUTION DES DIFFERENTS REFERENTIELS

Une réflexion de grande envergure est engagée à l’échelle nationale sur la production par l’IGN, la DGI et l’INSEE des principaux référentiels utilisés par les SIG. Les entités constitutives de ces référentiels vont des limites administratives des départements et communes jusqu’aux immeubles localisés et aux adresses en passant par les parcelles, les routes, les voies urbaines, les voies ferrées, fleuves et rivières, et les îlots, sans exclure les différents modes de regroupement (zonages spécialisés) ni d’ailleurs les décompositions thématiques, par exemple par mode d’occupation du sol. 

Le débat s’organise notamment sur les questions suivantes :
• Spécifications détaillées et qualités attendues de chaque élément de chaque référentiel
• Coût, prix et modalités de diffusion
• Rythme des mises à jour
• Répartition des tâches (et des moyens publics) entre organismes pour constituer puis maintenir chaque référentiel
• Echelle de constitution de chaque référentiel

Chaque utilisateur doit pouvoir s’approprier les éléments des référentiels dont il a besoin. Il est facile de constater que ces besoins correspondent généralement à des échelles multiples en fonction du regard que chacun porte sur le territoire. Par définition le référentiel doit pouvoir être associé à des modes de représentation et à des données propres à chaque utilisateur.

Les collectivités territoriales figurent en bonne place parmi les utilisateurs et les producteurs des référentiels géographiques en cours de discussion. Celles-ci veulent décrire leur territoire, notamment sous deux angles privilégiés : patrimoine foncier dont elles sont propriétaires ou occupantes et espaces publics, en particulier celui de la voirie urbaine qu’elles gèrent. A ce propos, il convient de distinguer deux aspects touchant à la voirie urbaine. Le premier concerne son rôle structurant dans la ville et son côté "éléments de repérage" à travers la dénomination des voies. Cet ensemble constitue d’ailleurs l’une des bases du référentiel "adresse". Le second concerne son rôle de contenant des divers réseaux qui occupe son sous-sol.

Or, nombreuses sont les collectivités territoriales qui ont mis en place un SIG comme outil d’aide à la communication, à la décision et à la gestion satisfaisant ainsi au premier aspect. Mais plusieurs collectivités territoriales, souhaitant satisfaire à l’ensemble de leurs besoins, se sont lancées dans une approche plus ambitieuse visant à disposer des outils nécessaires à la conception et à la réalisation des réseaux et ouvrages d’art qui occupent son sous-sol ainsi qu’à la coordination des divers travaux de voirie qui résultent de ces nombreuses réalisations. Elles ont souvent jugé nécessaire de disposer d’un référentiel topographique fin et ont mis en oeuvre une politique de constitution de plans à très grande échelle : il s’agit alors, typiquement de plans des corps de rue au 1/200ème.

Cette approche contraste avec celle des autres producteurs de l’information géographique qui traitent souvent l’espace public de voirie comme une sorte de “résidu” :
• Le cadastre délimite bien les espaces privés (parcelles) mais non les espaces publics, à moins qu’ils soient concédés, et encore, il convient de souligner que dans ce dernier cas la doctrine n’est pas constante (par exemple les terrasses de café sont tantôt traitées comme des parcelles, tantôt comme du bâti hors parcelle…).
• Pour les autres sources, l’espace public de voirie n’apparaît qu’à partir d’une certaine taille (voies de plus de 20m de large par exemple) ou bien sous la forme abstraite “du filaire des réseaux de voie” : la représentation géométrique est alors limitée à celle de l’axe des voies et des noeuds aux carrefours. Il faut noter toutefois que cette représentation est souvent enrichie par l’introduction de la largeur moyenne de chaque tronçon de voie et par la représentation de “zones tampons” proportionnelles à celle-ci, ce qui améliore le réalisme de la restitution.

De fait, Paris, Strasbourg, Lille Métropole, Toulouse, Bordeaux, Rennes, Saint-Nazaire, Nice, pour ne citer qu’eux, ont réalisé ou se sont engagés dans la réalisation d’un référentiel (à grande échelle) de cet espace public. Il est donc utile de situer les besoins des collectivités territoriales à partir des principales fonctionnalités et par rapport aux différentes échelles des principaux référentiels géographiques :

Outil d’aide à la communication

Il concerne aussi bien le grand public que les relations entre administrations. Il doit permettre la réalisation de divers plans dont les échelles varient le plus souvent du 1/5000 ème au 1/20000 ème. Citons par exemple :
• L’usage de “plans de ville” qui permettent de réaliser des plans de situation pour positionner les travaux de voirie,
• L’usage de plans thématiques pour définir les différents zonages, l’un des plus usuels étant le plan de quartier ou d’arrondissement,
• L’usage de plans thématiques pour situer les axes de transports en commun, etc.

Outil d’aide à la décision

Il doit offrir un ensemble d'applications amenées à se développer de plus en plus à travers l’analyse spatiale. Celle-ci, à partir de l’association aux données géographiques de données alphanumériques, doit permettre un traitement de cet ensemble pour répondre à l’objectif poursuivi et justifier ces réponses en exploitant des plans aux échelles inférieures au 1/2000 ème. Citons par exemple :
• L’usage de plans thématiques qui permettent de suivre l’évolution des logements et de la population aux fins d’une programmation des équipements publics,
• L’usage de plans topographiques et de modèles numériques de terrains pour définir les zones inondables, etc,
• L’usage de plans dits “plans d’avant projet” qui permettent de chiffrer en première estimation le coût d’un projet et de faciliter les études de simulation.

Outil d’aide à la gestion

Il s'agit là de la plus grande partie des applications actuellement développées. Il doit permettre la réalisation de plans “topo-foncier” aux échelles du 1/1000 ème au 1/2000 ème et l’usage d’orthophotographies. Citons par exemple :
• L’usage de plans qui permettent l’inventaire de patrimoine foncier ou bâti, espaces naturels (parcs et jardins),
• L’usage de plans pour renseigner le public sur les droits à construire (élaboration des plans d’occupation des sols),
• L’usage de plans pour décomposer l’espace public en site propre de transports, espace de stationnement, trottoirs, etc.

Outil d’aide à la conception

Il s'agit d'un ensemble de fonctions indispensables pour les divers bureaux d’études. Il doit permettre la réalisation de plans topographiques aux échelles du 1/200 ème au 1/500 ème. Citons par exemple :
• L’usage de plans dits “ plans de projet ” pour définir les ouvrages à construire et préparer les dossiers d’appel à concurrence.
• l’usage de plans qui servent à assurer la gestion technique des ouvrages réalisés, etc.

Outil d’aide à la coordination

Il constitue une partie en pleine expansion qui aura pour objectif outre d’assurer la coordination temporelle des travaux de voirie, de faciliter la coordination spatiale du sous-sol de la voirie communale. Il doit permettre la réalisation de plans dit de synthèse (référentiel topographique sur lequel est situé l’ensemble des réseaux aux échelles du 1/200 ème au 1/500 ème).

Cette liste d’outils et d’usages n’est bien évidemment pas exhaustive. Elle a cherché simplement à souligner la multiplicité des échelles dont les collectivités territoriales ont besoin, la nécessaire cohérence, notamment des références spatiales, entre ces différentes échelles et la perspective qu’adoptent les collectivités quand elles produisent leur information géographique, notamment sur le domaine de voirie, dont la mise à jour se fait de plus en plus par récolement systématique après travaux. Le cycle de vie des objets est ainsi mieux respecté. L’usage des SIG a permis d’améliorer considérablement ce type d’approche et par conséquent de mieux gérer le domaine de voirie tout en assurant de façon plus satisfaisante la conservation et l’intégrité des référentiels concernés.

Or, si des réflexions nationales accompagnent la réalisation des référentiels géographiques aux échelles moyennes ou grandes, il n’en va pas de même pour les très grandes échelles. Il existe bien une certaine concertation pour représenter par des symboles normalisés les principaux objets du plan de voirie, mais il n’existe aucune règle pour déterminer le “référentiel plan de voirie” en termes de modélisation ou de règles d’intégrité partagées.

La constitution de plans de voirie à très grande échelle par certaines collectivités territoriales conduit également à s’interroger sur les échanges d’informations entre celles-ci et les autres producteurs d’information géographique (essentiellement pour l’instant le Service du cadastre (DGI), mais bientôt l’IGN dans les perspectives des recommandations du rapport Lengagne).

En particulier, la limite entre domaine public et domaine privé (parcellisé) est en principe la même qu’il s’agisse du parcellaire cadastral ou du plan de voirie (notons le cas particulier de l’Alsace Lorraine nettement plus efficace sur ce sujet).

En pratique, cette limite est positionnée de façon beaucoup plus précise dans un plan de voirie à grande échelle que dans le plan parcellaire à échelle plus réduite. Pourtant, l’information ne "remonte" pas toujours, ou quand elle remonte, elle n’est pas prise en compte. De plus, il faut constater que bien souvent les procédures de classement des espaces alignés ou retranchés, acquis par les villes, puis aménagés comme voirie, ne conduisent pas à une rectification immédiate du parcellaire cadastral, aucun acte ne venant officialiser le dit aménagement.

Par ailleurs, ces plans de voirie sont quelquefois (ils devraient l’être plus souvent) réalisés en partenariat avec les principaux concessionnaires de réseaux enterrés. Les conventions qui sont alors passées localement prévoient des modalités d’échange et de diffusion qui sont loin d’être homogènes d’une ville à l’autre.

Ainsi, au moment où la puissance publique porte un nouveau regard sur l’information géographique afin d’optimiser les modalités de sa production et de son financement, la dimension “plan de voirie corps de rue” mériterait une analyse approfondie afin que sa place soit prise en considération dans l’arsenal général, qu’il s’agisse de la conception et de la définition des entités du plan de voirie par rapport à celles des autres sources et de leur rôle d’outil s’inscrivant dans les procédures de gestion, de mise à jour et de diffusion.

Une réflexion plus spécifique pourrait porter sur les thèmes qui relèvent de chaque gamme d’échelle afin d’aboutir à un emboîtement logique des représentations des plus petites aux plus grandes échelles.

Autrement dit, il ne s’agit surtout pas de privilégier systématiquement les grandes échelles, qui posent des problèmes spécifiques évidents (coûts, délais de mise à jour, détails des représentations), mais de faciliter la constitution de référentiels multiples mais cohérents entre eux et d’indiquer les échelles les mieux adaptées aux besoins par types de données.

Les utilisateurs seraient ainsi guidés dans leur travail. Les adaptations selon qu’il existe ou non, localement, un plan de voirie seraient également à prévoir et seraient riches d’enseignements dans l’analyse des besoins réels… A suivre donc.

Voir aussi : fiches n°2, n°11 et n°26

Fiche établie par Paul Rouet et Jean Yerchoff
avril 2000


Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#47 Mon 14 January 2008 16:59

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Télécharger toutes les fiches de 2000 (voir ci joint)


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#48 Mon 14 January 2008 16:59

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2001
Fiche n°43 : GEONANTES : GENESE ET DEVENIR

La demande initiale

En 1997, le SIG de la Ville de Nantes arrive à maturité en terme de contenu : les données structurées constituent une représentation complète et cohérente du territoire, les procédures de gestion assurent une actualisation satisfaisante.

L’exploitation et la diffusion de cette riche base de données rencontrent cependant plusieurs freins liés aux technologies qui les mettent en œuvre :

• Coût dissuasif des logiciels (environ 12 000 F / poste supplémentaire équipé), notamment pour des utilisations ponctuelles ou triviales.
• Ergonomie lourde : les SIG sont avant tout des outils de techniciens.
• Temps de réponse insuffisants sur les réseaux bas débit.
• Isolement technique des logiciels SIG qui constituent encore un monde parallèle aux outils de développement traditionnels.

Face  à ce constat, la Direction des Informations Géographiques (DIG) décide de lancer une étude sur deux axes technologiques susceptibles de fournir des réponses à cette problématique :

- L’utilisation d’OCX géographiques, un OCX étant un composant logiciel que l’on couple avec un langage de développement standard (Visual Basic, Delphi …), ce qui permet d’introduire pour un coût réduit des fonctionnalités géographiques dans un environnement de conception logicielle puissant.

- L’utilisation des technologies Internet, avec leur énorme potentiel de diffusion de l’information.

La prospection

Les objectifs initiaux de la Direction étaient :

La recherche d’une technologie permettant d’exploiter le plan numérique en le consultant via des applications simples à la disposition des services de la Ville sur un Intranet. Et dans un second temps, une consultation pouvant être étendue au grand public sur Internet par une application spécialisée. Notons qu’il ne s’agit pas pour le service géomatique de faire développer une série d’applications, mais d’acquérir l’ensemble des compétences nécessaires pour la réalisation et la maintenance de celles-ci en interne.

La solution attendue devait permettre la mise en place, sur un serveur Intranet dont la configuration restait à définir, des liaisons avec une base SIG, au format APIC ou Mapinfo, natif ou d’échange, et si possible en lecture directe. Il était souhaité par ailleurs que le graphisme soit transmis sous forme vecteur, et que le développement soit basé sur des "outils standards" du marché (Visual basic, Java, FrontPage par exemple).

Cette solution devait permettre aux développeurs de mettre à la disposition des usagers les fonctionnalités courantes des SIG Micro : ajustement de l'espace géographique affiché dans la fenêtre opérateur (zooms, plan ...), consultation des données associées, impression. Il est également souhaitable de pouvoir établir des liens avec la bureautique, et de pouvoir afficher une photo numérique sous le plan vecteur.

Le nombre de postes en accès potentiel est indéfini (l’ensemble des micros du parc). L’idéal recherché était que les applications puissent être accessibles depuis le navigateur de n’importe quel poste bureautique banal, la connexion se faisant de manière immédiate (pas de chargement de plug-in) même la première fois.
Le choix a été motivé par le respect de tous les critères, hormis celui du format de transport (raster) du graphisme. Cette concession technique a été justifiée par le choix d’une solution offrant par ailleurs de nombreux avantages. Elle induit toutefois un certain nombre de limites techniques. Nous y reviendrons.

La mise en œuvre

Dès avril 1998, un technicien est formé à l'outil de développement. Une plate-forme expérimentale est montée : une boucle sur 3 postes : un serveur, un poste de développement, un poste de test. Un prototype est prêt fin juin.
Un serveur NT IIS est alors monté sur le réseau local et un groupe de 20 utilisateurs testent le produit.

Après diverses mises au point, la décision est prise à l'automne :

- de généraliser l'accès à tous les postes de la Ville. Il suffit d'adresser le poste en IP et d'installer le navigateur.

- de mettre en œuvre une version dépouillée, disponible au grand public sur Internet.

Au fil des mois, ces deux sites baptisés Géonantes (application Intranet) et Voirnantes (application Internet) se sont sophistiqués pour offrir toujours plus de services à leurs visiteurs. Le développement interne explique cette importante dynamique d'évolution.

Le coût de l'opération, non compris le coût d’acquisition des données qui étaient pré- existantes :

- serveur                50 000 F
- formation             12 000 F
- logiciel                 50 000 F
- développement     80 jours


GéoNantes aujourd'hui

Sur les 2 200 postes de la Ville qui ont accès à Géonantes le nombre de connexions hebdomadaires est aux alentours de 1000.

Ces consultations portent sur les données suivantes :

- plan général de 5 communes, de précision générale moyenne 40 cm (liée à l’origine cadastrale des données)
- cadastre en lui-même
- bâtiments municipaux (aspects physiques, photos et façades) et plans intérieurs des écoles
- base de données du patrimoine de la Ville (aspects juridiques)
- secteurs d’inhumation, périmètres scolaires, découpages électoraux, INSEE …
- périmètres des zones de stationnement réglementé et arrêtés de réglementation
- sites d'intervention du service Espace verts (espaces verts, alignements d'arbres, jeux pour enfants...)
- périmètres des levés topographiques Ville de Nantes
- mobilier urbain d'éclairage public : points lumineux et armoires
- carrefours à feux et réseau de régulation de la signalisation lumineuse.

Et demain

A n'en pas douter, Géonantes et par là-même Voirnantes s'étendront à terme à l'ensemble du territoire de l'agglomération Nantaise. Cette technologie présentera alors l’énorme avantage d’offrir immédiatement une solution de consultation du plan SIG pour les 21 mairies de la Communauté Urbaine. Celles-ci se sont mises d'accord avec la Communauté Urbaine de façon à ce que cette mise à disposition de données soit gratuite pour tout nouveau poste accédant au site.

D'autres développements spécifiques basés sur la même technologie voient le jour : consultation du POS, gestion et consultation du canevas topographique. Ces deux applications affichent des fonctionnalités encore plus avancées qui ouvrent des perspectives prometteuses.

La première, Urbagéo, est interfacée dynamiquement avec le logiciel de gestion des droits des sols (permis de construire ...) de la Ville, qui peut à tout moment l'appeler sur une zone donnée et recevoir en retour des informations extraites du SIG.
La seconde, à l'état de projet, aura l'originalité de réaliser la saisie d'informations graphiques (points de canevas) dans le navigateur.
Notons toutefois que celle-ci n'est réalisable que par la simplicité de ce cas de saisie : il s'agit d'une information ponctuelle.

Les avantages de la solution :

- la mise à disposition de Géonantes sur un poste donné ne donne lieu à aucune installation spécifique et est totalement gratuite
- cette consultation géographique s'inscrit dans le cadre d'un projet plus vaste de déploiement d'informations à travers l'Intranet (Internantes), projet porté par la Direction des Systèmes d'Information
- l'interface est intuitive de type grand public (ergonomie HTML), l'utilisation ne nécessite pas de formation.
- la solution est évolutive, d'une part en terme de fonctionnalités puisque nous en avons la maîtrise complète, d'autre part parce que les outils de développement eux-mêmes évoluent (Hahtsite, MapX) par des versions successives
- des postes reliés par des réseaux bas débit bénéficient du site avec des temps de réponse satisfaisant (64 Ko)
- les applications peuvent communiquer en temps réel avec d'autres fonctionnant en HTML ou client-serveur
- gestion d’accès garantissant la confidentialité de données privées.

Les limites et inconvénients

- la diffusion du graphisme sous forme raster rend difficile la possibilité de développer des outils de saisie graphique.
- même si on parvenait à le réaliser, l'appui sur le fond de plan serait impossible.
- l'ergonomie HTML (ou Java) est toujours nettement moindre que celle des outils strictement micro.

En conclusion cette technologie est la solution mise en œuvre pour permettre le développement d' applicatifs simples de consultation, des données "métier" pour les services de la communauté urbaine et des villes la constituant, ainsi que des données d'intérêt général pour le grand public.

Ref : http://mvinct8.mairie-nantes.fr/VoirNan … rNantesV4/

Olivier DUMAS, Communauté Urbaine de Nantes

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#49 Mon 14 January 2008 16:59

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2001
Fiche n°44 : Politique de diffusion de données sur Internet à la Diren Centre

Une forte demande sociale de diffusion d’informations environnementales

La direction régionale de l’environnement (DIREN) Centre, en tant que service déconcentré du ministère de l’aménagement du territoire et de l’environnement (MATE), est un producteur courant de données, qu’il s’agisse de mesures liées à l’eau ou de données géographiques concernant la protection de l’environnement, la gestion de l’eau ou les risques naturels.

Or, dans le domaine de l’environnement, la demande sociale d’information est de plus en plus importante. Ce besoin d’information émane des professionnels et des aménageurs, principalement pour prendre en compte les risques et l’environnement dans leurs projets. Il émane aussi du grand public et des élus, qui expriment le besoin d’être informés de l’état de l’environnement, des risques naturels encourus et des actions en cours. Cette demande sociale s’est traduite dans des textes de loi ; ainsi l’Europe a édicté une directive en 1990 instituant la liberté d'accès à l'information en matière d'environnement. Le MATE a, pour sa part, entrepris de formaliser sa politique de diffusion des données publiques, par des actions nationales de mise à disposition de données, par la mise en place de sites Internet pour chaque DIREN et par la rédaction d’un guide aux services déconcentrés sur la diffusion des données.


Une adaptation de la politique de diffusion et des moyens par chaque service

Face à ces demandes d’accès à l’information, chaque service du MATE, et en particulier les DIREN, sont amenées à préciser leur politique de diffusion des données, en adaptant les politiques européennes et nationales au contexte et aux moyens et organisations en place localement.

Le directeur de la DIREN Centre a entrepris, en 1999, de se donner les moyens d’une diffusion la plus ouverte possible des données et documents créés par la DIREN Centre. En effet, plus il y aura d’informations fiables et pertinentes sur l’environnement disponibles pour tous, mieux les préoccupations environnementales pourront être prises en compte. La Diren, à son échelon, doit jouer un rôle moteur et exemplaire de mise à disposition des données dont elle dispose. A terme, nul ne devrait pouvoir dire qu’il ne connaissait pas l’état de l’environnement et les zonages réglementaires correspondants.

Le principe retenu a été une diffusion la plus large possible des données et documents, au coût le plus faible possible et vers le public le plus large, dans le respect de la circulaire Balladur. Aussi toute donnée ou document formalisé, réalisé par la DIREN, a vocation à être diffusé à tout public, les restrictions de diffusion devant être l’exception. Cependant, dans un premier temps, il a été décidé de ne pas modifier le mode de diffusion de données accessibles par ailleurs, à savoir principalement les données d’hydrométrie diffusées via une banque de données nationale, la BDHYDRO.

Ce choix stratégique s’est traduit par la mise en place d’une organisation permettant d’atteindre ces objectifs :

- Une administration des données a été organisée, permettant l’accès à tous les agents de la DIREN aux données disponibles. Ces dernières sont documentées conformément à la norme européenne de métadonnées. Ce travail interne a aussi amélioré le professionnalisme de la diffusion des données vers des tiers.

- La politique de diffusion a été formalisée, des conventions types ont été rédigées, et les principes de cette politique ont été mis en œuvre pour les diffusions manuelles.

- Enfin, le site Internet de la Diren (www.environnement.gouv.fr/centre) a été réactivé, et alimenté en données et documents afin de répondre au souhait de diffusion au coût le plus faible vers le plus large public.

La diffusion des données géographiques sur Internet par la Diren Centre

La diffusion sur Internet de données et documents est donc une réalité depuis mars 2000. Ce service est en constante évolution, par augmentation du stock de données et de documents mis en ligne, mais aussi par des évolutions constantes du mode de diffusion afin de répondre à un public de plus en plus large.

Le site a d’abord essayé de répondre aux besoins des professionnels, qu’il s’agisse de bureaux d’étude, de services de l’Etat et des collectivités locales, voire de l’enseignement. Pour cela, dès le début, la diffusion des données sous forme de fichiers de type SIG a été décidée. Les données de la Diren sont donc proposées progressivement au téléchargement, sous forme de fichiers compressés comportant les données dans un format d’échange SIG (MIF-MID a été retenu, car lu par la plupart des SIG du marché), accompagnées d’une fiche de métadonnées au format texte, et d’une licence sous forme PDF verrouillé. Il a en effet été jugé indispensable d’accompagner les données des informations minimales permettant de les utiliser, fonction assurée par les métadonnées systématiquement livrées avec la donnée. Il a aussi été jugé important, s’agissant de données numériques, de préciser les droits et devoirs des utilisateurs et du producteur : les premiers s’engagent principalement à ne pas rediffuser les données sous leur forme numérique, ces dernières étant régulièrement mises à jour et accessibles sur le site de la Diren, et à citer l'auteur de ces données. Le producteur lui s’engage principalement sur la qualité des données fournies. La gratuité et la facilité d’accès aux données ne signifient en effet pas qu’elles sont publiques et  libres de droits. Mais, afin de faciliter au mieux l’utilisation des données, la licence proposée limite au strict minimum les contraintes imposées aux utilisateurs.

La diffusion de données sous format SIG, si elle répond bien aux besoins de certains acteurs de l’environnement, ne satisfait évidemment pas à tous les besoins : certains bureaux d’étude, certaines associations et le grand public en général, ne disposent pas de logiciels SIG ni des fonds cartographiques minimums pour mettre les données en relation avec le territoire concerné. Des cartes «figées» sont donc aussi proposées, dans des formats accessibles à tous les internautes. Le format PDF a été retenu pour les cartes et les documents, car il fournit des documents d’une grande qualité graphique, proche de l ‘original, avec cependant comme inconvénient un poids non négligeable des fichiers incluant des cartes (de 300 K° à 1 M°, pouvant aller jusqu’à 4 M° pour une carte d’occupation des sols). Les cartes proposées couvrent tout le territoire de la DIREN, et sont souvent incluses dans des rapports d’étude. Est fournie par ce biais une information sur l’environnement sur la région Centre ou le bassin Loire Bretagne ; ainsi sont disponibles le «suivi du SDAGE 1999 », pour l’eau sur le Bassin, et le « Profil environnemental régional », pour l’environnement sur la région Centre.

Parallèlement des cartes plus détaillées sont proposées, sous forme de fiches d’information pour chaque zone de protection ou de gestion concernant la nature et les paysages. Ces fiches par zone comprennent, outre la description minimale du site concerné et des cartes de localisation, une carte de la zone reportée sur le Scan 25 de l’IGN (ou le Scan 100 de l’IGN pour les très grandes zones) et la copie de l’arrêté créant la zone réglementaire en question. Ces fiches sont en PDF verrouillé afin d’interdire toute récupération des Scan sous forme numérique manipulable. Chacun peut donc connaître précisément la position de telle zone réglementaire sur le territoire, et répondre à la question : « tel endroit qui m’intéresse est-il concerné par tel ou tel type de protection environnementale ? ». Parallèlement sont aussi proposées des listes de zonage par communes, permettant de répondre à la question «sur ma commune, quel sont les types de zonage réglementaire qui s’appliquent ?».

Une fois ces modes de diffusion initiés, il a semblé dommage de ne pas offrir la possibilité à des utilisateurs avertis, mais n’ayant pas de SIG, d’accéder cependant à des données géographiques manipulables avec la liberté de choisir les couches d’information et les modes de présentation de ces données. Il a donc été décidé de proposer aux utilisateurs à la fois un format et un outil permettant gratuitement d’accéder à certaines fonctions habituelles des SIG : affichage de plusieurs couches, choix dans la représentation, accès aux données attributaires … La solution retenue propose le téléchargement gratuit de visionneuse de qualité disponible sur le marché. Parmi les rares visionneuses en français permettant d’accéder tant à la géométrie des données géographiques qu’aux données attributaires, le choix s’est porté sur Arcexplorer d’ESRI. Les données numériques sont diffusées aussi au format Shape, et il est proposé aux utilisateurs de télécharger le logiciel sur le site d’ESRI France, une documentation en Français du logiciel étant disponible sur notre site. Cependant, pour que cette réponse aux besoins réels (ou supposés ?) d’utilisateurs un peu curieux soit complète, il faudra trouver un fond de plan présentant au moins les limites communales et les principaux fleuves et routes, qui puisse être fourni sans restriction d’usage avec le reste des données de la Diren.

Enfin des réflexions ont lieu au sein du MATE pour choisir une solution technologique permettant de présenter des cartes interactives sur Internet Des tests sont réalisés avec une dizaine de solutions du marché. Ces technologies ne remplaceront pas la diffusion de fichiers manipulables, car elles ne permettent en général qu’une consultation de ces données sans possibilité de téléchargement. Par contre l’accès aux informations à travers une carte, dans laquelle on peut zoomer, se déplacer, voire choisir de sélectionner ou non telle ou telle information, est un moyen convivial de recherche d’information à ne pas négliger. Reste que ces solutions imposent encore à l’utilisateur d’avoir des accès internet rapides et des navigateurs récents, parfois dopés par des plug-in.

Perspectives d’évolution du service de diffusion de données sur Internet

On le voit, différentes pistes de diffusion de données géographiques ont été explorées ou sous en cours de test, avec comme souci principal de libérer le plus possible l’accès aux données et à l’information, pour des publics ayant des moyens et des préoccupations variées. Les résultats ont montré que les modes de diffusion proposés rencontraient un public important. Ainsi 200 fichiers de type SIG et 3000 pages en PDF sont extraites du site par mois. C’est 10 fois plus que ce que la Diren Centre diffuse de manière classique couramment.

L’expérience de la Diren Centre montre donc que diffuser des données géographiques n’impose pas de passer par des solutions technologiques coûteuses, tant pour le service diffuseur que pour l’utilisateur. Le site de la Diren a été réalisé directement en HTML, sans programmation particulière. Des solutions à base de PDF pour les cartes toutes faites, à base de fichiers au format export de tel ou tel logiciel, compressés, pour la diffusion de fichiers manipulables, et la mise à disposition de métadonnées dans des formats texte courants répondent à la question.
Le problème de la diffusion de données et documents sur Internet se trouve bien plus dans la définition de la politique de diffusion que l’on veut mettre en place, et dans l’organisation de la validation des données, de  leur documentation et de l’alimentation régulière du serveur.

Un travail important reste encore à faire à la Diren Centre pour compléter et tenir à jour la masse d’information déjà mise en ligne. Des domaines d’activité  de la Diren ne sont encore que peu représentés. Un effort de mise à disposition d’information plus grand public reste à faire. On peut envisager aussi d’améliorer le service, par l’introduction de la cartographie interactive (comme moyen de recherche et consultation, et non pas comme moyen de diffusion, sauf peut être pour des fichiers de taille importante), et par la mise en place d’outils de gestion des clients permettant de mieux les connaître et de les informer des mises à jours.

Cependant, il faut rester conscient qu’une diffusion sur Internet ne peut seule répondre entièrement aux objectifs visés. Certaines données présentent des volumes trop importants pour être téléchargeables sur Internet (il en est ainsi d’une carte raster de la Loire en 1850 au 1 :20.000), qui devront être diffusées sur CD ROM. Plus généralement, une part importante de la population n’a pas accès à Internet ou dispose d’accès à Internet bridés (certains accès interdisent la récupération de fichiers trop gros ou de plug in ou programmes Java). La mise à disposition d’un poste en libre service à la documentation de la Diren, ne palliera qu’imparfaitement  ce type de problème, la diffusion sous forme papier ou disquette restant une obligation.

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#50 Mon 14 January 2008 16:59

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2001
Fiche n°45 : COMMANDER UNE ORTHOPHOTOGRAPHIE NUMÉRIQUE

L’orthophotographie, encore appelée orthophotoplan, fait partie des données géographiques de base. Elle est souvent utilisée en complément d’un référentiel géographique comme le plan parcellaire. L’orthophotographie ne présente pas la même information, mais elle montre nombre de détails ne figurant pas sur les plans, et peut apporter une représentation géométrique dont l’exactitude est connue.

De la photo aérienne à l’orthophotographie.

L’inconvénient majeur de la photo aérienne non redressée réside dans son inexactitude géométrique. En effet, les parties les plus proches du sujet photographié apparaissent plus grandes. En conséquence, les zones en relief d’un territoire photographié (hauteur d’une colline par exemple) seront restituées à une échelle différente de celle du fond de la vallée.

Une photographie aérienne doit donc être rectifiée pour présenter une échelle constante sur toute sa surface, de manière à ce que l’image corresponde à sa projection sur le plan horizontal, ce qui est le cas de la carte et du plan.
La rectification consiste à diminuer la taille des éléments d’image représentant les éléments de terrain trop proches de l’appareil de prise de vue. Le calcul de la rectification ou orthorectification, nécessite donc de connaître la distance réelle entre tous les points du territoire photographié et l’objectif de l’appareil photo.

Cette opération est effectuée à l’aide d’une description informatique du terrain, appelée modèle numérique de terrain ou M.N.T. Ce M.N.T. est réalisé à partir de la connaissance du relief, notamment à partir de couples stéréoscopiques de photographies aériennes (cf. fiche CNIG N°46).

Comme toutes les opérations sont maintenant réalisées à l’aide de l’informatique, l’orthophotographie est constituée d’un ou de plusieurs documents fichiers numériques. L’orthophotographie est visualisée à l’aide d’un poste de travail informatique ou après impression sur une imprimante ou un traceur.

Les différentes orthophotographies.

Deux orthophotographies similaires à première vue peuvent présenter des caractéristiques et un coût très différents. À l’inverse, une même orthophotographie peut convenir à tel utilisateur, et se révéler inutilisable pour d’autres.
L’orthophotographie n’est pas un produit normalisé, elle est le résultat des techniques maîtrisées par son producteur.
La précision constitue le premier descripteur – détaillé plus loin - de l’orthophotographie, car son prix en découle directement. La précision du M.N.T. utilisé pour l’orthorectification constitue un autre critère de premier rang. La nature du redressement effectué pour les détails situés au niveau du sol peut enfin être plus ou moins complète. Le redressement d’objets verticaux n’est généralement pas effectué : les bâtiments situés en bordure du cliché sont photographiés avec un petit angle de prise de vue qui permet de voir la façade située du côté de l’objectif de l’appareil ; de même une partie du terrain situé derrière le bâtiment reste cachée. Il existe des techniques et des fournisseurs qui offrent une rectification complète de la photographie aérienne.

L’acquisition d’une orthophotographie doit donc faire l’objet d’une description précise quant au résultat attendu, plus particulièrement dans le cas d’un appel d’offres qui ne permet pas toujours la comparaison du résultat produit. Les fournisseurs utilisent en outre leurs propres critères de description, ce qui ne facilite pas les comparaisons.
Enfin, le recours à la photographie numérique modifie la chaîne de production, supprimant des paramètres traditionnellement utilisés pour décrire l’orthophotographie (c’est le cas de la taille du négatif qui est remplacé par un capteur).
Certains producteurs ont réalisé des orthophotographies qui peuvent être achetées «sur étagère» (comme par exemple le produit BD ORTHO de l’IGN), ce qui permet un examen préalable. Ces prestataires spécialisés peuvent également réaliser une orthophotographie sur commande, ce qui implique une description précise du résultat souhaité. L’application du Code des marchés publics peut mettre en concurrence des produits réalisés selon des processus très différents, rendant la comparaison difficile avant la réalisation.

L’objectif de la présente fiche est d’apporter les éléments utiles à l’acheteur pour la préparation de la commande.

La spécification d’une orthophotographie.

La photographie aérienne argentique est la plupart du temps caractérisée par sa colorimétrie (noir & blanc - ou panchromatique dans le langage technique – ou couleur, exceptionnellement infrarouge) et par deux autres paramètres : l’échelle, et la résolution. L’orthophotographie introduit un paramètre de plus : l’exactitude géométrique.

L’échelle.

L’échelle d’une photo aérienne (argentique) n’est pas celle de l’agrandissement mais celle du cliché initial, c’est à dire du négatif. Ce document originel mesure 23 cm de côté avec une résolution photographique qui dépend de la qualité de l’objectif photographique mais qui atteint couramment 15 µm (15 microns soit 15 millième de millimètre). L’expérience a conduit les producteurs de photos aériennes à choisir une échelle du négatif proportionnelle à l’échelle de l’usage qui en sera fait plus tard. Le coefficient utilisé varie de 3 à 5, ce qui veut dire qu’un cliché négatif présentant le terrain à l’échelle du 1/30 000 pourra servir à créer ou à compléter une carte au 1/10 000. Le coefficient est plus élevé en photographie noir & blanc qu’en couleur.
Cette caractéristique ne doit pas être invoquée dans le cas d’une prise de vue avec un appareil de photographie numérique qui ne génère pas de cliché. L’appareil de photographie numérique utilise un capteur constitué d’une grille de cellules photosensibles qui peuvent avoir des tailles différentes. Il n’y a pas création d’image réelle, mais enregistrement d’une séquence de données permettant de reconstituer l’image dans une étape ultérieure.

La résolution.

• La résolution en photographie argentique est la dimension du plus petit détail que l’on peut observer. Elle se mesure par photographie de mires composées d’une collection de traits d’épaisseur décroissante. Une résolution de 15 µm, sur le négatif à l’échelle de 1/30 000, permet donc de distinguer un détail de 0,45 m (45 cm).
Il y a, à cette étape de la chaîne de production argentique, correspondance entre la finesse des détails observables de l’image, et l’échelle du négatif, ce qui explique que l’une des caractéristiques d’une photo aérienne argentique, est mesurée par l’échelle.

• Dans le cas d’une prise de vue numérique, la résolution est entendue comme la possibilité de différencier des objets sur l'image. Elle s’apprécie en pixels (voir ci-dessous). Cette caractéristique est très variable selon le type de donnée maillée. Elle sera dépendante du contraste entre deux objets limitrophes, et de leur forme : on peut voir sur une image à maille au sol de 0,50 m la signalisation horizontale sur une route, alors qu'elle a une largeur bien inférieure à la maille. A l'inverse, la frontière entre deux objets ne présentant qu'un faible contraste, et aux limites non régulières, ne pourra être déterminée qu'avec au moins deux mailles.

Le pixel.

Une troisième caractéristique apparaît avec les techniques numériques : le pixel.

Le scannage de la photographie transforme l’image en une grille de carrés de couleur unie, généralement appelés pixel (pour picture element, élément de l’image). Ces données sont également appelées «maillées» et sont enregistrées dans des documents fichiers raster (voir la fiche « Maîtrise d’ouvrage CNIG » n° 38 Fichiers raster et données maillées, avril 2000). L’appareil photographique numérique produit, quant à lui, directement le document fichier raster.

L’appréciation de la finesse avec le pixel comme unité, est à utiliser avec précaution car elle peut avoir des significations différentes.

Cas d’un document fichier raster issu d’une prise de vue argentique.

• Si le pixel est très petit, la taille de la maille n’est pas un indicateur de la précision ou de résolution de l’image. Dans ce cas, l’image argentique est reproduite sans perte de qualité. Les critères de qualité sont ceux de l’image argentique initiale scannée (échelle, résolution argentique).

• Par contre, si la maille est plus grande que la résolution du document initial, le scannage a entraîné une diminution de la finesse de l’image et la taille de la maille est utilisée pour qualifier la résolution numérique du document fichier raster obtenu.

La finesse de l’image scannée ne peut donc être déterminée par la taille de la maille que si une information est donnée simultanément sur la résolution de la photographie scannée.

Afin d’optimiser la taille en octets des documents fichiers, la dimension de la maille doit être adaptée à la résolution de la photographie initiale. Une maille (résolution numérique) égale à la moitié de la résolution photographique argentique peut être considérée comme un bon compromis. Avec l’exemple évoqué, le cliché de 23 cm, d’une résolution argentique de 15 µm, sera scanné avec une maille de 8 µm, soit une maille de 0,25 m au sol, ce qui correspond à une résolution numérique d’environ 200 dpi.


[img]http://georezo.net/img/cnig/cnig_45_1.jpg[/img]
Figure 1. Agrandissement d’une orthophotographie à la maille de 0,25 m.




Cas d’un document fichier raster issu d’une prise de vue numérique.

L’ambivalence du pixel ne disparaît pas quand la prise de vue est effectuée avec un équipement numérique : la maille du document peut avoir été réduite (divisée par quatre, par exemple), quel qu’en soit le motif, entre la prise de vue et la livraison du document, sans modifier la finesse de l’image.

La résolution du fichier raster doit là aussi être accompagnée d’une information sur la résolution numérique du capteur (nombre de pixels par rangée)ses dimensions et les conditions de la prise de vue (altitude, etc…). En effet, une amélioration nominale de la résolution numérique de l’image peut avoir été effectuée en divisant les pixels, voire par un traitement l’image qui ne peut apporter aucune information supplémentaire.


[img]http://georezo.net/img/cnig/cnig_45_2.jpg[/img]
Figure 2. Chaque pixel (à gauche) a été divisé par deux (à droite). La maille est plus petite, mais l’image est identique, n’apportant aucune information supplémentaire.



En conclusion, quatre caractéristiques sont à retenir pour décrire la précision d’une orthophotographie :

• l’échelle de prise de vue du document original,

• la résolution du support de prise de vue (film ou capteur numérique) et ses dimensions,

• la taille, mesurée dans le monde réel, des plus petits objets discernables dans le lot de données concerné, cette taille devant correspondre au produit de l’échelle et de la résolution photographique du support de prise de vue (film ou capteur numérique),

• la taille de la maille du lot de données fourni (mesurée en µm - conformément à la réglementation en vigueur - et facultativement en dpi ou points par pouces – unité de mesure anglo-saxonne).

Une correspondance devra être établie par l’utilisateur au moment de comparer des produits issus de techniques différentes.

L’exactitude géométrique

L’exactitude géométrique est aussi appelée précision géométrique.

Une orthophotographie peut avoir une maille de 0,50 m au sol, mais n'avoir une précision annoncée que de quelques mètres. Ce document peut être très utile dans le domaine de la communication institutionnelle, pour démontrer l’insertion d’un projet dans son environnement, etc., mais peut se révéler inutilisable dans d’autres cas : vérification de l’exactitude d’un plan, etc.

L’exactitude géométrique est obtenue par la poursuite du processus de fabrication : le tirage de la photo aérienne est scanné pour permettre son redressement par calcul.

Le redressement s’appuie sur une représentation numérique (informatique) du terrain communément appelé modèle numérique du terrain ou MNT La qualité du redressement est fonction de la précision géométrique ou exactitude du MNT et de la qualité des traitements informatiques effectués.

Cette qualité est mesurée de deux manières :

• soit par le calcul de « l’erreur quadratique moyenne » ou « E.M.Q » portant sur les mesures effectuées des distances entre points sur l’orthophotographie et leurs homologues sur le terrain : la valeur de l’E.M.Q indique qu’environ 60 % des points de  l’orthophotographie sont situés à une distance inférieure à l’emq de leur positionnement théorique,

• soit par la mesure d’une « tolérance », qui est la distance maximale relevée entre un point et son positionnement théorique.

À titre d’exemple, l’IGN annonce, pour les fournitures de la BD ORTHO, une « E.M.Q » de 1 m, ce qui correspond à une tolérance de 3 m. La taille des pixels de ce produit est de 1 m au sol, en cohérence, donc, avec son exactitude.

Les autres spécifications.

D’autres spécifications peuvent être prévues pour la commande d’orthophotographies. Plusieurs normes concernent les orthophotographies. L’acheteur public doit les connaître, les organismes publics étant tenus respecter la normalisation.

La norme AFNOR NF Z 52000 (F) dite Norme EDIGéO

EDIGéO reconnaît l’orthophotographie comme un lot de données respectant un modèle conceptuel de données (MCD) de type matriciel. La norme définit deux types de structure de données matricielles : un premier type, la structure matricielle de valeurs réelles, et un second type, la structure matricielle de valeurs codées. L’orthophotographie s’inscrit dans cette 2ème catégorie : les valeurs élémentaires enregistrées correspondent à un code numérique qui représente une quantité ou une qualité, définie dans une table de codification, décrivant la valeur graphique du pixel.

Dans la pratique, le respect des spécifications du format TIFF assure le respect de la norme EDIGéO.

Les spécifications du format TIFF.

Il existe une centaine de formats et de sous-formats d’enregistrement et de sauvegarde des documents fichiers raster. L’acheteur précisera le format dans lequel il souhaite être livré, en fonction des outils dont il dispose. Les orthophotographies sous forme de fichiers raster peuvent être visualisées dans beaucoup d’outils de SIG, mais parfois à partir de formats spécifiques. La documentation des applications informatiques sera utilisée pour préciser le format souhaité.

TIFF est une marque (trademark) d’Aldus Corporation et désigne un format de fichier destiné à enregistrer une image de type raster, c’est à dire la reproduction d’une image au moyen d’une grille de points noirs ou blancs ou de couleur. C’est le format le plus répandu. Il est décrit par un document largement diffusé, la révision n° 6 du 3 juin 1992.

Les caractéristiques de l’image et du fichier sont décrites dans une succession de champs (fields) numérotés. Le numéro du champ est traditionnellement appelé «tag». Environ 75 champs sont définis par les spécifications. Par exemple le champ (tag) numéro 262 (PhotometricInterpretation) précise le type d’image (noir & blanc, les différents formats de couleur), le champ 256 la largeur de l’image en pixels et le champ 257 la hauteur... le champ 315 le nom de l’auteur... etc.

Plusieurs sous-formats correspondent à différents algorithmes de compression de l’image. Le plus utilisé a été défini par le comité consultatif international pour le téléphone et les télécommunications sous l’appellation de CCITT groupe 4 ou CCITT G4 et repris dans les spécifications TIFF.

Pratiquement tous les outils le reconnaissent. Pour les grandes images, une variante découpant l’image en «tuiles» sous l’appellation de compression « Tiled CCITT G4 » présente une plus grande efficacité mais n’est pas toujours implémentée dans les applications graphiques.

Les métadonnées.

Les métadonnées sont des «données qui renseignent sur la nature de certaines données et qui permettent ainsi leur utilisation pertinente». Les métadonnées ont pour but de documenter les données, afin de faciliter leur cohérence, leur réutilisation, les échanges entre partenaires, etc. Il s’agit là pour une bonne partie d’informations fondamentales dans le domaine de la géomatique : caractéristiques de l’orthographie notamment décrites ci-dessus, dates de production, système de référence utilisé, origine, etc.  Les normes apportent là une assistance pour le classement et la présentation de ces métadonnées.

Une norme européenne expérimentale a été publiée en 1998, la norme ENV 12657, et déclinée sur le plan national par un guide de mise en œuvre (XP ENV 12657). De son côté l’organisation de normalisation internationale poursuit l’élaboration de la norme ISO 15046-15. L’acheteur aura intérêt à spécifier les métadonnées qu’il a besoin d’associer à son orthophotographie. Il s’agit là d’une réflexion qui prend sa place dans l’étude des besoins.

Les spécifications GeoTIFF.

Les spécifications TIFF ont prévu la possibilité de réserver des champs à des fins propres à l’utilisateur (private tags). Ce sont ces derniers qui sont utilisés par les spécifications de GeoTIFF pour enregistrer les métadonnées géographiques. Ces dernières respectent essentiellement les directives du comité fédéral des États Unis d’Amérique du Nord pour les données géographiques (FGDC). Les métadonnées dé
crivent les caractéristiques géométriques de l’image raster : système de projection utilisé, origine. L’organisation de ces métadonnées est particulière et les champs y sont spécifiquement dénommés «clés» (keys ou encore GeoKeys). Une quarantaine de champs définit ainsi les caractéristiques géométriques de l’image raster : système de projection, localisation, échelle, etc.

Conformément aux règles du format TIFF, l’utilisation de ces champs n’empêche pas la visualisation des images GeoTIFF par tout visualisateur standard de fichier TIFF. L’exploitation des métadonnées géographiques inscrites dans un fichier TIFF selon les spécifications GeoTIFF nécessite donc un programme ad’hoc et sont reconnues par un certain nombre d’applications pour SIG.

Dans le cas d’une commande, l’acheteur doit étudier l’intérêt d’une orthophotographie documentée selon les spécifications GeoTIFF. Là encore, la documentation de ses applications de SIG lui précisera si, et dans quelle mesure, ses propres outils reconnaissent ou non les métadonnées enregistrées au format GeoTIFF. L’acquisition d’une orthophotographie intégrant les métadonnées au format GeoTIFF peut cependant présenter un intérêt par rapport à l’acquisition ultérieure d’outils la reconnaissant.


Livraison

Deux aspects particuliers sont à souligner, le choix du système de projection et le volume des fichiers.

- le choix du système de projection doit être clairement spécifié car il ne peut être changé facilement. En effet, contrairement aux fichiers vecteurs pour lesquels les changements de systèmes de projection sont assez bien gérés par les progiciels géomatiques, il n’en est pas de même pour les fichiers raster géoréférencés. Les angles de l’image correspondent à des coordonnées d’un système de projection terrestre, et les distances qui les séparent fournissent un nombre entier de fois la taille du pixel de l’image. Un changement de système de projection amènera des modifications des coordonnées des angles, puis par suite des distances entre ces angles, qui ne seront plus un multiple de la taille du pixel. On observe alors des écartements ou chevauchements de pixels dont la taille n’a pas varié.

- le volume des fichiers doit être bien appréhendé au départ : il est considérable. Une orthophotographie sur un département, type BD ORTHO de l’IGN, représente 130 à 180 cédéroms. Des solutions de compression très efficaces existent, mais la livraison initiale doit être effectuée dans un format qui ne dégrade par le fichier origine.

Conclusion

La commande d’une orthophotographie implique :

• un inventaire des besoins à satisfaire, afin de définir les valeurs des critères à respecter par le fournisseur de l’orthophotographie, ainsi que des métadonnées à y associer.

Les critères décrivant l’orthophotographie relèvent de :

• son type : support argentique ou prise de vue numérique ; N/B, couleur ou infrarouge,

• la finesse de l’image et s’apprécie grâce à

     - l’échelle de prise de vue du document original,
     - la résolution du support de prise de vue,
     - la taille des plus petits objets discernables dans le lot de données,
     - la taille de la maille du lot de données,

• l’exactitude géométrique du lot de données mesuré par

     - l’erreur quadratique moyenne ou la tolérance,

• et toutes les métadonnées nécessaires à son usage géomatique.

Dans le cas d’une commande d’orthophotographies à réaliser, l’acheteur pourra préférer la procédure d’appel d’offre sur performance en décrivant le résultat attendu, portant notamment sur la taille des plus petits objets discernables.

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#51 Mon 14 January 2008 17:00

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2001
Fiche n°46 : Acquisition d’un orthophotoplan

L’orthophotoplan fait partie des données géographiques de base. Il est souvent utilisé en complément d’un référentiel géographique comme le cadastre. L’orthophotoplan ne présente pas la même information, mais il montre nombre de détails ne figurant pas sur les plans, et peut apporter une représentation géométrique dont l’exactitude est connue.

L’appellation d’orthophotographie est également utilisée, notamment quand la technique s’applique à d’autres objets que le territoire comme dans le cas de compositions architecturales.

Les différents orthophotoplans.

Les orthophotoplans se différencient surtout par leur précision, terme usuel qui nécessite d’être analysé. Les orthophotoplans en noir et blanc, se distinguent également des documents en couleur en ce qui concerne leur description.

La précision constitue le premier descripteur de l’orthophotoplan, car son prix en découle directement.

Le redressement est effectué pour les détails situés au niveau du sol. La rectification de la représentation d’objets verticaux n’est généralement pas complète. Par exemple, les bâtiments situés en bordure du cliché sont photographiés avec un petit angle de prise vue qui permet de voir la façade située du côté de l’objectif de l’appareil ; de même une partie du terrain situé derrière le bâtiment reste cachée. Il existe des techniques et des fournisseurs qui offrent un rectification plus complète de la photographie aérienne.

L’orthophotoplan n’est pas un produit standardisé, il est le résultat des techniques possédées par le fournisseur, et qui peuvent convenir à tel utilisateur, et se révéler inutilisables pour d’autres.

L’acquisition d’un orthophotoplan doit donc faire l’objet d’une description précise quant au résultat attendu, plus particulièrement dans le cas d’un appel d’offres qui ne permet pas toujours la comparaison du résultat produit. Les fournisseurs utilisent en outre leur propres critères de description, qui ne facilitent pas les comparaisons.

Il faut enfin prendre en compte le recours à la photographie numérique qui modifie la chaîne de production et en modifie certaines étapes, supprimant des paramètres utilisés pour décrire l’orthophotoplan (c’est le cas de la taille du négatif qui est remplacé par un capteur).

La qualification d’un orthophotoplan.

La photographie aérienne est souvent caractérisée – outre sa coloration - par deux paramètres : l’échelle, et la précision.

Le pixel.

Un troisième indicateur de qualité apparaît avec les techniques numériques : le pixel. Le scannage de la photographie transforme l’image en une grille de carrés de couleur unie, généralement appelés pixel (pour picture element, élément de l’image). Ces données sont également appelées « maillées » et sont enregistrées dans des documents fichiers raster (voir la fiche « Maîtrise d’ouvrage CNIG » n° 38 Fichiers raster et données maillées, avril 2000).

L’utilisation de cet indicateur est délicat : il y a deux cas de figure à considérer :

* Si le maillage est très fin, la taille de la maille ne donne d'indication que sur l'agrandissement maximum possible avant apparition des mailles. La taille de la maille ne permet pas d'estimer une précision ou une résolution de la donnée, celle-ci étant celle du document scanné.

* Par contre, si la maille est plus grande que la résolution du document scanné, la taille de la maille correspond à la résolution de la donnée.

Compte tenu de la croissance parabolique de la taille des fichiers avec la diminution de la maille, la taille de la maille devrait être adaptée à la résolution de la photographie initiale.

La finesse de l’image ne peut donc être déterminée par la taille de la maille que si une information est donnée simultanément sur la résolution de la photographie scannée. Cette réserve ne disparaît pas quand la prise de vue est effectuée avec un équipement numérique : la maille du document peut avoir été réduite (divisée par quatre, par exemple), quelqu’en soit le motif, entre la prise de vue et la livraison du document, sans modifier la finesse de l’image.

Par ailleurs, la résolution, entendue comme la possibilité de différencier des objets sur l'image, sera très variable selon le type de donnée maillée. Sur une photo aérienne, elle sera dépendante du contraste entre deux objets limitrophes, et de leur forme : on peut voir sur une image à maille au sol de 0,50 m la signalisation horizontale sur une route, alors qu'elle a une largeur bien inférieure à la maille. A l'inverse, la frontière entre deux objets ne présentant qu'un faible contraste, et aux limites non régulières, ne pourra être déterminée qu'avec au moins deux mailles.

En conclusion, quatre indicateurs sont à retenir pour apprécier la finesse d’un orthophotoplan (on évitera d’utiliser le terme de résolution, utilisé en photographie argentique) :

* l’échelle de prise de vue du document original,

* la résolution du support de prise de vue (film ou capteur numérique),

* la taille, mesurée dans le monde réel, des plus petits objets discernables dans le lot de données concerné, cette taille devant correspondre au produit de l’échelle et de la résolution photographique du support de prise de vue (film ou capteur numérique),

* la taille de la maille du lot de données fourni (impérativement mesurée en µm - conformément à la réglementation en vigueur - et facultativement en dpi ou points par pouces).

Typiquement, une photographie aérienne est enregistrée sur un négatif de 23 cm de côté, présentant une résolution photographique de 10 à 15 µm en noir & blanc (panchromatique), avec une échelle de 1/30 000. La taille des plus petits objets discernables est donc de 0,45 m, valeur arrondie dans la pratique à 1 mètre. La finesse de l’image sera ainsi décrite par l’expression usuelle de : « précision métrique ». Un tirage par contact sera ensuite scanné au pas de 20 µm (soit 1 270 dpi) pour produire un document fichier raster.

La précision géométrique

La précision géométrique peut aussi être appelée exactitude.

Le tirage de la photo aérienne est ensuite scanné pour permettre son redressement par calcul.

Le redressement s’appuie sur une représentation numérique (informatique) du terrain communément appelé modèle numérique du terrain ou M.N.T. La qualité du redressement est fonction de la précision géométrique ou exactitude du M.N.T. et de la qualité des traitements informatiques effectués.

Cette qualité est mesurée de deux manières :

* soit par le calcul d’une « erreur quadratique moyenne » ou « E.M.Q. », qui est la moyenne des distances mesurées sur l’orthophotoplan entre une dizaine de points et leur positionnement théorique,

* soit par la mesure d’une « tolérance », qui est la distance maximale relevée entre un point et son positionnement théorique.

À titre d’exemple, l’IGN garantit, pour les fournitures issues de la BD ORTHO, une « E.M.Q. » de 1 m, ce qui correspond à une tolérance de 3 m. La taille des pixels de ce produit est de 1 m au sol, en cohérence, donc, avec sont exactitude.

En effet, un orthophotoplan peut avoir une maille de 0,50 m au sol, mais n'avoir une précision annoncée que de quelques mètres. Ce document peut être très utile dans le domaine de la communication, pour montrer l’insertion d’un projet, mais peut se révéler inutilisable dans d’autres cas.

Conclusion

La commande d’un orthophotoplan implique :

* un inventaire des besoins à satisfaire, afin de définir les cinq critères de choix :

        - l’échelle de prise de vue du document original,
        - la résolution du support de prise de vue,
        - la taille des plus petits objets discernables dans le lot de données,
        - la taille de la maille du lot de données,
        - l’erreur quadratique moyenne ou la tolérance.

Compte tenu des coûts de constitution de l’orthophotoplan, il conviendra également de se rapprocher des collectivités territoriales éventuellement concernées afin d’en partager la fabrication.

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#52 Mon 14 January 2008 17:00

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2001
Fiche n°47 : LA QUALITÉ DES DONNÉES

Très souvent les données géographiques sont constituées pour un usage précis, immédiat. Le plus souvent, les données rassemblées sont bien adaptées à ce premier usage. Le problème se pose lors de la réutilisation des données pour d’autres usages ou par d’autres personnes.

Les données peu à peu accumulées dans un SIG représentent en effet un investissement élevé. Il est important de pouvoir les réutiliser chaque fois que le besoin s’en fait sentir, mais cette réutilisation impose d’avoir des données de qualité.
L’intérêt de la qualité des données sera illustrée par un exemple : pour constituer son SIG, une grande ville a récupéré, il y a quelques années, le plan parcellaire que son fournisseur habituel avait progressivement constitué au format d’échange DXF. Visuellement, le plan était très acceptable. Mais il est apparu que le plan n’était pas à jour sur tout le territoire. À l’inverse, quelques projets de construction avaient été dessinés par avance. Les parcelles n’étaient quant à elles pas toutes enregistrées comme des polygones fermés. Les données n’avaient enfin pas été classées avec une rigueur suffisante sur les différentes couches de dessin. L’intégration du plan dans la base de données du SIG a dû faire l’objet d’un important travail complémentaire à cause du soin insuffisant avec lequel le plan avait été confectionné.

Qu’est-ce que la qualité des données ?

La Norme française NF Z 52000 Échanges de Données Informatisées dans le domaine de l'Information géographique (EDIGéO) définit la qualité des données comme le « degré de fiabilité des données ».

La description de la qualité permet au destinataire de mesurer ou d’apprécier la qualité des données échangées et de savoir si les données reçues lui permette d’en faire l’usage prévu. La qualité est attachée à une donnée ou à un ensemble de données géographiques appelé « lot de données ». Une carte est un exemple de lot de données.

La qualité des données échangées est le degré de fiabilité de ces données. Ce degré peut faire l’objet d’une estimation ou être calculé. La qualité d’une donnée ou d’un lot de données est ainsi appréciée par différents critères :

• la généalogie : elle permet d’indiquer les références complètes de la source des données,

• l’actualité qui introduit l’aspect temporel des données,

• la précision planimétrique : ce critère définit l’écart moyen probable entre les mesures de contrôle et les valeurs de position planimétrique des données,

• la précision altimétrique : elle définit l’écart moyen probable entre les mesures de contrôle et les valeurs de position altimétrique des données,

• l’exhaustivité : ce critère permet d’apprécier le pourcentage d’éléments du terrain réel qui ont été pris en compte dans le lot de données par rapport à tous ceux qu’il aurait fallu inclure,

• la précision sémantique qui définit le nombre des objets, des primitives, des relations ou des attributs qui ont été correctement codifiés conformément à la nomenclature,

• la cohérence logique : ce critère définit le nombre des objets, des primitives, des relations ou des attributs qui respectent une règle fixée par les spécifications du produit (le lot de données),

• la qualité spécifique : l’utilisateur peut définir une mesure propre de la qualité de ses données.

Description détaillée des critères de qualité

Chacun des critères de qualité permet de définir une mesure de la qualité qui peut s’appliquer soit individuellement soit à une catégorie d’objet, de relation ou d’attribut.

Généalogie

Ce critère permet d’indiquer les références complètes de la source des données : l’identification du producteur et de la source, la nature de la collecte des données ainsi que les transformations subies et l’historique des mises à jour. Il pourra donner les informations suivantes pour la transformation effectuées sur les données :

• description de l’opération ;

• matériels, logiciels ou procédés employés.

Ainsi par exemple, le nom de l’opérateur, la date, sont des indicateurs qui peuvent avoir leur utilité, pour, plus tard, apprécier la qualité d’un lot de données.

Actualité

Ce critère apporte des renseignements sur la validité des données dans le temps. Il définit la date d’observation, le type, la pérennité et la date de la mise à jour, la durée de validité des données.

Précision planimétrique

La précision géométrique des données est un important critère de qualité. Par exemple, l’exactitude du cadastre pourra être suffisante pour la préparation d’un avant-projet sommaire, mais ne le sera plus pour un avant-projet détaillé. La présence de ce critère est, de fait, indispensable à la description des données.
Il est le plus souvent exprimé avec une grandeur statistique, l’écart-type moyen probable entre les mesures de contrôle et les valeurs de position planimétrique des données du jeu échangé. Il s’applique aux coordonnées de position ainsi qu’aux attributs où intervient une notion de mesure de distance planimétrique.

Précision altimétrique

La précision des données altimétrique est souvent différente, dans un lot de données géographiques, de la précision planimétrique à cause des techniques utilisées. Ce critère se définit également à l’aide d’une grandeur statistique et s’applique aux coordonnées de position ainsi qu’aux attributs où intervient une notion de mesure de distance altimétrique.

Exhaustivité

Après la qualité géométrique des données, interviennent d’autres critères comme l’exhaustivité qui permet d’apprécier le pourcentage d’éléments du terrain réel qui ont été pris en compte dans le lot de données par rapport à tous ceux qu’il aurait fallu inclure. Cette exhaustivité est prise au sens large et tient compte des omissions comme des éléments ajoutés à tort.

Précision sémantique

La sémantique traite de la signification des éléments constituant le lot de données. La précision sémantique sera plus ou moins élevée selon que les éléments graphiques pourront être compris ou interprétés.

Elle concerne autant l’objet géographique lui-même que ses attributs, ou les relations dont il peut disposer avec d’autres objets.

Exemples d’erreur due à une imprécision sémantique concernant l’objet  : un tronçon de route a été classé en tronçon de voie de chemin de fer, la route passe sous la voie ferrée dans le lot de données au lieu du contraire dans la réalité, la valeur de l’attribut n’est pas celle prévue par les spécifications quand par exemple, une route à deux chaussées a été codée comme n’en comportant qu’une.

Cohérence logique

Ce critère définit le nombre des objets, des primitives, des relations ou des attributs qui respectent une règle fixée par les spécifications du lot de données. Les règles peuvent concerner aussi bien les objets, leurs attributs que leurs relations. Voici quelques  : exemples de règles pouvant être retenues par le créateur du lot d de données et dont le respect est un critère de qualité :

• Les toponymes doivent être en français et en anglais.

• Les attributs « Numéro de route » doivent commencer par D, N, A ou E.

• La tension des lignes électriques représentées ne peut prendre que quatre valeurs : 63 kV, 90 kV, 150 kV ou 225 kV.

Qualité spécifique

L’utilisateur a enfin la faculté de définir des critères de qualité de ses données qui lui sont propres. Les villes ont en effet des besoins qui leurs sont spécifiques et la qualité des données géographiques y prend une dimension plus large.


La situation des villes et des communes

Les données que les villes peuvent se procurer se caractérisent par leur hétérogénéité, leur dispersion, leur accès difficile, certaines incohérences et leur actualisation pas toujours régulière.
La définition de la qualité des données acquises, enregistrées, utilisées, doit en conséquence être complétée avec deux préoccupations concernant :

• la structuration des données,

• puis la documentation des données.

Les données acquises auprès de producteurs d’envergure nationale (fichiers de données, cartes, orthophotographies, M.N.T.) présentent la plupart du temps une qualité qui est connue, ou bien dont il est relativement facile de se procurer la description. Dans ce cas l’acheteur se préoccupera de les obtenir en même temps que sa commande, et surtout d’en conserver une accessibilité permanente.

Il en va différemment dans le cas des données produites localement. La remarque concerne notamment les opérations de levés de plans (plans topographiques, plans de récolement), ainsi que le résultat des traitements, et enfin les données saisies effectuées par l’utilisateur lui-même (tableaux comme documents graphiques).


La structuration des informations géographiques.

La structuration des informations constitue une opération très importante pour les utilisateurs futurs. Le système d'information est en effet destiné à répondre au besoin d'utilisateurs différents. Certains usagers auront besoin de distinguer des éléments appartenant au même thème, alors que d'autres se satisferont de données regroupées.
Les opérations effectuées dans les SIG ne marchent fonctionnent bien que si les données sont bien modélisées, si les règles d’intégrité sont respectées. Toutes ces notions de géométries communes entre couches différentes, de limites séparatives communes (ne se chevauchant pas et ne créant pas de vide entre elles), d’emboîtements stricts, de connexion, de fermeture, de respect des domaines de valeur, de définition de clé unique (objets à un ou plusieurs polygones…)
Par exemple, pour un concessionnaire chargé de l'exploitation d'un réseau, le plan parcellaire, avec le dessin des bâtiments, sert uniquement au positionnement des ouvrages formant le réseau. Dans ce cas, l'information issue du plan cadastral n'aurait pas besoin d'une structuration fine.

Dans le même temps d'autres usagers voudront effectuer des analyses sur la qualité ou l'occupation des bâtiments, et restituer le résultat de leurs travaux. Ces opérations nécessitent que l’objet « bâtiment » puisse être distingué des autres objets constituant le fond de plan.

Afin de pouvoir répondre aux besoins actuels et futurs des utilisateurs du système d'information géographique d'une collectivité locale, les données doivent donc être classifiées selon leurs caractéristiques : elles doivent être structurées.
Cette structuration peut être effectuée de différentes manières. Le CNIG a établi une nomenclature qui est reprise dans la norme EDIGéO. C'est une structuration qui résulte d'un rapprochement des multiples besoins rencontrés dans les organismes publics et privés en matière d'information géographique. La nomenclature générale d’échange du CNIG est ainsi garante de la pérennité et de la qualité des échanges ÉDIGéO : tout code de nomenclature s’y trouvant a fait l’objet d’une étude et d’une approbation de la part des principaux fournisseurs de données géographiques.
Une structuration détaillée des informations peut toujours être simplifiée automatiquement, alors que l'inverse requiert une sélection manuelle.

L’effort de structuration concerne également l’‘utilisation des logiciels de C.A.O.-D.A.O. qui offrent une grande liberté d’utilisation, alors même qu’ils génèrent une importante quantité d’informations géographiques. Habituellement, le dessinateur ne trace pas tous les éléments sur le même plan, mais sur des calques fictifs qu'il superpose et qui permettent de structurer l’information.

Il n'y a pas de nomenclature impérative, le nombre et la consistance des thèmes étant définie par l'utilisateur en fonction de ses objectifs. Son intérêt le conduira cependant à s'assurer d'une compatibilité avec la nomenclature du CNIG, c'est à dire à définir ses thèmes à l'intérieur des domaines et des classes de la nomenclature du CNIG.
Les collectivités territoriales auront ainsi intérêt à structurer les lots de données qu’elles constituent ou qu’elles commandent aux opérateurs locaux. Le « cahier des charges » d’un dessin informatique est souvent appelé charte graphique. La fiche 39 « DAO CAO PAO et SIG » traite plus en détail cette dimension de la qualité.


De la qualité à la documentation des données.

À cause du caractère hétérogène des données, la qualité des données renvoie aussi à la notion de connaissance des données. Les procédures visant à apporter une « assurance qualité » dans la production industrielle s’inscrivent d’ailleurs dans cette perspective : la qualité s’obtient par la description avec une précision suffisante des processus de production (voir les normes de la série ISO 9000).

La notion de qualité des données ne s’identifie donc plus seulement à la « bonne qualité », elle se décline ainsi en termes de « documentation », à l’instar de la documentation des programmes informatiques.
Cette documentation des données inclut d’autres informations comme le système de référence et le système de projection utilisé dans le lot de données. Cette référence est souvent implicite, mais la multiplication des référentiels justifie une description plus détaillée.
La documentation des données s’effectuera bien entendu conformément aux règles concernant les métadonnées. Cette question fait l’objet d’une fiche particulière.


Conclusion

La qualité des données n’est pas une référence absolue et résulte d’un arbitrage entre la réponse à un besoin, d’une part, et un coût et des délais de production d’autre part. L’utilisateur recherche un effet immédiat maximal, avec le moins de moyens possibles. Sous cet angle la qualité résulte d’un arbitrage. Quelle est la valeur actualisée d’un surcoût immédiat, pour un usage différé beaucoup moins pressant (à supposer que l’on imagine bien l’existence de ces usages différés) ? L’utilisateur de données géographiques doit garder en permanence ce souci de la qualité.
Le caractère relatif de la qualité explique les différences d’approche d’un organisme à l’autre. Ainsi :

• le CNIG et les organismes officiels ont une approche précise de la qualité des données (normalisation, certification... concertation sur les besoins...),

• le grand fournisseur national dont les produits résultent de la concertation avec de nombreux organes officiels a quant à lui une approche un peu plus opérationnelle de la qualité,

• la société de service qui digitalise des plans pour autrui a encore une approche différente,

• les services cartographiques des Villes, des administrations d'État ou des établissements publics... utilisant des données acquises et ajoutant leurs données propres ont encore une autre approche,

• enfin les utilisateurs qui achètent leurs données pour un usage direct dans des produits plus ou moins clé en main ont encore une autre approche.

Beaucoup d’utilisateurs n’imaginent pas quels autres usages pourraient être faits des données qu’ils génèrent. L’information géographique numérique est un domaine encore assez neuf où chaque utilisateur doit aussi apprendre à connaître les métiers connexes au sien, où les données qu’il crée pourrait être réutilisées moyennant un effort modeste.
C’est dire qu’une concertation continue entre les producteurs et les utilisateurs de données géographiques, se justifie pour optimiser l’effort engagé. C’est l’une des missions du CNIG que de contribuer, avec les relais que constituent les comités départementaux (CDIG), à ce développement de la qualité, au bénéfice de la collectivité nationale et internationale.


Michel ESSEVAZ-ROULET

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#53 Mon 14 January 2008 17:00

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2001
Fiche n°48 : GÉOMATICIEN : UN NOUVEAU MÉTIER

La genèse du nouveau métier

Dans une première étape, dans les années 1980, les SIG ont d’abord fait leur apparition dans les grandes villes et dans certains services centraux ou déconcentrés de l’État (CETE - Centre d’études techniques de l’équipement -  par exemple).
À l’origine, le SIG a pris naissance dans un service existant qui avait des besoins en cartographie thématique. Ce service assumait le pilotage de l’outil : administration du système, création et administration de la base des données localisées (BDL).

Les attributions de ces services étaient très variées d’une ville à l’autre : service du plan (topographie), urbanisme, éventuellement l’informatique. Les objectifs assignés au système étaient :

• de produire des cartes thématiques issues de requêtes sur la base des données localisées à l’intention des décideurs (élus, préfet, président de CCI, etc…) dans le but de préparer un certain nombre de décisions : c’est l’outil d’aide à la décision,
• de fournir des fonds de plan fiables (référentiels) et un outil de visualisation des projets aux aménageurs (urbanistes, architectes, paysagistes, bureaux d’études VRD, SEM concessionnaires de ZAC …).

Par la suite, dans les années 1990, une fois les bases établies, le système a été mis à disposition des gestionnaires dans toute la diversité de leurs métiers, rencontrant des «cultures» très différentes. Et le SIG a dû intégrer la problématique d’une banque de données gérant des objets géographiques et élargir ses objectifs :

• fournir des référentiels pour la localisation des ouvrages et entités à gérer,
• proposer des outils de saisie, de mise à jour, d’exploitation des données et d’archivage des données,

         - aux services gestionnaires de l’espace (urbanisme réglementaire et opérationnel, exploitants des réseaux eau, assainissement, éclairage public, chauffage urbain, électricité, gaz, téléphone, câble),
         - comme aux gestionnaires du patrimoine des collectivités, des affaires économiques et sociales, de l’enseignement, des élections, de la tranquillité publique, etc…. .

C’est dans le cadre de cette évolution que le service initiateur du SIG est devenu son «pilote», en poursuivant des activités très diverses :

a. des tâches de production informatique :

• l’administration du système : machine et périphériques, réseau de télécommunication, droits des utilisateurs,
• l’administration de la base de données : structuration, sauvegardes, exports-imports,

b. des activités d’ingénierie informatique :

• développement d’applications pour des utilisateurs, ce qui nécessite de connaître leur métier,
• traitements spécifiques demandés par les décideurs, nécessitant des requêtes complexes suivies de mise en forme cartographique thématique pour l’export et la PAO,

c. des activités d’accompagnement comme

• la formation des utilisateurs,
• l’assistance aux utilisateurs,

d. et le développement d’activités très nouvelles :

• la mise à jour des référentiels,
• l’acquisition de données de nouveaux types comme les descriptions en trois dimensions (3D), les orthophotographies,
• la diffusion de plus en plus large de l’information géographique ce qui nécessite l’élargissement des savoirs à de nouvelles technologies, comme par exemple celles de l’Internet,
• le développement de l’interopérabilité avec les logiciels « métiers », les logiciels généralistes de DAO et de CAO.

Toutes ces activités relèvent de plusieurs métiers : les informaticiens, les cartographes, les formateurs tandis que les utilisateurs ont de leur côté :

• une culture «métier» spécifique très forte,
• une culture «informatique» moindre,
• une pratique des outils limitée à un ou deux logiciels de DAO, de CAO, de maintenance assistée par ordinateur (MAO) ou de PAO…
• et initialement très peu de notions sur les SIG.

Force est de constater que le fonctionnement du SIG requiert un éventail de connaissances très large. De nouvelles formes d’organisation ont alors été développées.

Dans une troisième étape, plusieurs modèles d’organisation ont été utilisés :

• le modèle centralisé : une équipe dédiée (le «pilote» du SIG ) gérant la saisie et la mise à jour de l’information géographique et mettant à disposition des utilisateurs des outils de consultation et d’édition,
• le modèle décentralisé : des utilisateurs autonomes, responsables chacun de la saisie, la mise à jour et l’exploitation de ses données propres,
• et un modèle plus efficient, avec un partage des tâches et une collaboration entre les informaticiens, les utilisateurs dans le cadre de leurs « métiers », et des intermédiaires entre informaticiens et utilisateurs, agents ayant progressivement compris la spécificité du SIG.

L’émergence du géomaticien

La réussite d’un SIG dépend beaucoup de la qualité de la relation pilote – utilisateurs. Celle-ci nécessite une prise en compte réciproque des besoins spécifiques de chaque fonction, qui n’est possible que si l’on parle un langage commun.
Les «performances» (ou usage effectif comme outil de production intégré) d’un SIG dans un service utilisateur dépendent aussi énormément de l’implication des opérateurs et de leurs responsables hiérarchiques :
        - si la motivation est faible : passivité, refus de surmonter les inévitables difficultés, refus de trouver des solutions de contournement liées aux limites des logiciels et du système, fuite vers des demandes de développement d’applications presse-bouton parfaites mais non figées (ce qui est absolument contradictoire), etc.. le « pilote » ne peut rien faire.
        - si la motivation est forte : prise en main de l’outil dans ses fonctions avancées, mise en œuvre d’astuces diverses, entorses pragmatiques aux règles de base, etc. ; le pilote doit canaliser les énergies, rationaliser la créativité.

Le SIG n’est en général pas refermé sur lui-même : la structure au sein de laquelle il est implanté fonctionne souvent en partenariat avec d’autres structures dans le cadre de conventions d’échange (et/ou de cofinancement) des données.

Un nouveau partage des tâches, une nouvelle division du travail se sont ainsi progressivement imposés. Les connaissances à mettre en œuvre dans le fonctionnement du SIG sont nombreuses et un nouveau métier est apparu, à mi-chemin entre le gestionnaire qui doit concentrer son attention et l‘évolution de ses connaissances sur sa technique, et d’autre part, l’informaticien qui doit faire face à la rapidité de l’évolution technologique. Un nouveau métier est né : le géomaticien.

Pour que chacun des interlocuteurs, acteurs ou utilisateurs du SIG, ait des notions :

- des systèmes de projection,
- des différences entre DAO-CAO et SIG,
- de la structuration des bases de données géographiques (MCD - modèle conceptuel de données - relationnel et SCD – schéma conceptuel de données),
- des possibilités, contraintes et limites du langage de requête SQL,
- des règles d’analyse statistique et spatiale, de sémiologie graphique,
- des différents formats de données, des limites de leur interopérabilité,

Il apparaît utile qu’une personne connaisse tous ces thèmes avec suffisamment de précision. On obtient là une première définition du profil du géomaticien.

Cela implique pour que ce spécialiste puisse jouer son rôle de «pilote», qu’il ait également :

• des notions avancées sur les formats d’échange et les métadonnées, éventuellement la mise en œuvre de serveurs de données spatiales,
• des notions des différentes structures des bases de données
• des connaissances juridiques dans le domaine des droits d’auteur, protection des bases de données, copyright, droits de diffusion de données informatiques, notamment restrictions imposées par la CNIL,
• une sensibilité aux processus de normalisation,
• une connaissance des méthodes en matière de déploiement des systèmes d’information,
• et des qualités de négociateur.

La problématique évoquée dans le cadre des grandes structures (villes, services de l’État, grandes entreprises…) se décline également dans les petites structures : du fait du tout petit nombre d’agents et de la polyvalence que l’on y observe, c’est un agent de maîtrise qui doit y assurer les compétences du géomaticien :

- soit pour les mettre en œuvre en régie directe, auquel cas il sera à la fois utilisateur et pilote,
- soit dans la fonction d’assistance à maître d’ouvrage pour rédiger les cahiers des charges et contrôler les prestations fournies.

En conclusion, il devient extrêmement important de prendre en considération ce nouveau métier de «géomaticien» dans les services et de développer une formation comprenant des parties des compétences de celui-ci à destination des personnels utilisateurs des SIG, selon deux niveaux : opérateur et administrateur.

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#54 Mon 14 January 2008 17:00

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2001
Fiche n°49 : Les stations GPS permanentes en France

Le contexte technique.

Le GPS, conçu pour les besoins de l'armée, n'a pas été destiné initialement aux géodésiens ni aux géomètres, et c'est par des développements scientifiques dans les années 80, très astucieux et complètement imprévus, qu'il est devenu un outil courant dans les métiers de l'information géographique. Notons que l'application qui domine de très loin est le positionnement grand public (précision 5 - 10 m typique), pour randonneurs, navigateurs de plaisance et navigation automobile, les usagers de type géomètres et géodésiens ne représentant comparativement qu'un marché très modeste.

Pour les professionnels de l'information géographique, le GPS ne présente une utilité qu'avec une précision allant du cm au m, ce qui implique un fonctionnement en mode différentiel : un appareil est sur un point de coordonnées connues, l'autre sur le point à déterminer.

Il faut insister sur les différentes variantes existantes de mesures GPS :

- en matière de matériel : si l'on ne mesure pas la phase du signal émis par les satellites mais uniquement sa modulation ("mesure de codes"), on emploie une électronique très bon marché car destinée aux besoins grand public, mais la précision relative entre deux sites mesurés simultanément reste limitée aux alentours du mètre. Pour l'obtention du centimètre, on mesure la phase sur une ou deux fréquences, et le prix du matériel s'en ressent considérablement.

- en matière de transfert de données : le calcul différentiel exige de connaître les mesures obtenues sur les deux stations. Si le transfert de données est effectué en temps réel par liaison radio (mode dit "RTK", pour Real Time Kinematic), alors on peut obtenir des coordonnées aussi en temps réel. Bien entendu on peut souvent se satisfaire de traiter les deux lots de données en temps différé, par exemple lors du retour au bureau : cela débarrasse du souci d'établir puis d'entretenir une liaison radio, mais cela prive du confort intellectuel d'être certain que les données mesurées sont bonnes, certitude qui est un sous-produit normal et fort apprécié d'un calcul de coordonnées en temps réel.

- en matière de type de traitement des données possible : sur des bases courtes (typiquement moins de 15 km), il est possible de mesurer et calculer en mode "statique rapide", ce qui permet des temps d'observation de quelques minutes seulement par point. Mais lorsque la station de référence est plus éloignée, voire même beaucoup plus (on sait calculer des bases de plus de 5000 km), le temps de mesure devient plus long et se compte en heures, voire en journées. Il y a donc actuellement un saut quantitatif dans la valeur économique du GPS : sur bases courtes le GPS temps réel serait souvent un bon concurrent du tachéomètre s'il fallait n'amortir qu'un appareil seulement au lieu de deux. Le concept de station permanente GPS est issu de telles considérations.

Il faut en effet bien se rappeler que la grande majorité des levers se font là où la densité de population est grande, c'est à dire dans les agglomérations. Et même si ces sites ne sont souvent pas idéaux pour l'emploi du GPS (masques formés par les bâtiments, les arbres, ...), c'est là qu'une baisse significative du coût de mesure sera la plus intéressante. Il y a donc un grand intérêt à mettre en commun une station GPS unique, à mettre les données enregistrées en permanence à la disposition de tous, afin que chacun puisse travailler en GPS avec un seul récepteur au besoin, ce qui diminue beaucoup l’investissement initial requis. Et en gardant à l'esprit ce seuil actuel de l'ordre de 15 km, on comprend que typiquement on peut optimiser la dépense globale en installant une station permanente dans chaque agglomération de taille significative. 

Actuellement les services des villes (p. ex. Strasbourg, Biarritz) commencent aussi à installer des liaisons hertziennes locales permettant pour des stations permanentes l'emploi du GPS temps réel précis (mode RTK, de plus en plus employé par les géomètres pour leurs besoins propres). Ceci présente quelques difficultés, par exemple à cause des zones "d'ombre" qui subsistent dans les agglomérations, causées par des bâtiments empêchant une réception correcte du signal radio. Mais la situation évolue rapidement à cause de la généralisation des liaisons par téléphones cellulaires (GSM puis UMTS) permettant un débit de données satisfaisant (on prévoit 2 MB/s disponible vers 2002). Cela va permettre une généralisation rapide du positionnement en GPS différentiel temps réel. Pour l'instant, une bonne solution consiste à mettre les données à disposition sur un serveur (Internet par exemple), avec un différé n'excédant pas 1 heure par exemple. Ainsi les équipes rentrant du terrain téléchargent leurs données de la station de référence et calculent tous leurs points levés dans la foulée, sans perdre de temps. Il reste que l’installation d'une liaison temps réel n’est pas exclusive d’un post traitement, que l’on emploie par exemple lorsque la liaison radio est mauvaise, ce qui autorise une grande souplesse dans le travail. Et bien sûr des stratégies plus adaptées sont possibles pour des collectivités locales très étendues, par exemple en prévoyant plusieurs sites différents pour la station permanente GPS et son émetteur radio : un principal utilisé en routine, et d’autres où l’équipement est installé temporairement pour des travaux topographiques importants sur une zone trop éloignée de la station principale pour être couverts par elle en mode rapide statique.

Toutefois dans la comparaison temps réel / temps différé, il ne faut pas oublier les points suivants : (1) d'un côté une mise à disposition des données de référence, par Internet, en temps légèrement différé, a toutes raisons de rester gratuite de façon durable, et n'implique pas d'acquérir un matériel particulier. Un format standard de fait pour ces échanges existe et  est déjà largement pratiqué (format RINEX) ; (2) par contre la mise à disposition d'une liaison temps réel ne bénéficie pas d'une standardisation complète des formats, exige un matériel complémentaire de réception des données temps réel directement compatible avec le matériel RTK de la station d'émission des données, et n'a finalement pas de raison d'être gratuit.

Cela dit, le tout-GPS et la fin des méthodes tachéométriques ne sont pas pour demain, pour de multiples raisons. D'abord parce que le levé par tachéomètre est, comme son nom l'indique , extrêmement rapide et fonctionne en toutes circonstances, de façon complètement autonome, que le ciel soit ou non visible.. Ensuite parce que tous les points à lever ne sont pas stationnables : on peut toujours y mettre un réflecteur, mais bien souvent pas une antenne GPS. Et comme par ailleurs les levers tachéométriques nécessitent une orientation, on ne se passera pas de sitôt des réseaux locaux matérialisés qui nous sont familiers.

Quelle est l'importance dans ce secteur professionnel de l'information géographique des levers GPS temps réel de précision décimétrique ? Elle est certaine, car il y a quelques enjeux nouveaux créés par la généralisation de l'emploi de SIG pour des applications très variées. Pour leur mise à jour, la précision du décimètre est parfois suffisante, et il est alors dommage d'utiliser des méthodes de précision beaucoup trop élevée, dont le coût de revient est inutilement important. Par exemple, si nous dotons un technicien d'un récepteur GPS recevant par divers moyens (GSM, satellite, liaison radio) des corrections lui permettant d'atteindre le décimètre en temps réel, si nous lui mettons en main un télémètre laser portable permettant la mesure de distances sans réflecteur, équipé d'un inclinomètre et d'un compas magnétique, il est clair qu'il aura ainsi la possibilité de donner les coordonnées de tous les points entrant dans son champ de vision, sans pénétrer dans les propriétés closes, etc... Il y a donc une grande importance à faire bénéficier la mise à jour des bases de données géographiques de ce type de méthode, qui est tout à fait compétitive.

Evolution de la qualité d'un référentiel national

Pendant des siècles et jusqu'aux années 90, les réseaux géodésiques nationaux étaient obtenus par triangulation, avec des mises à l'échelle assez difficiles puisque les mesures de distances n'ont pu être effectuées facilement sur grandes distances que depuis les années 70. L'histoire de la conception globale d'un réseau impliquait, par suite des imperfections des procédés employés et des limitations inhérentes aux anciens moyens de calcul "à la main", des modèles d'erreurs très complexes. Typiquement les coordonnées diffusées en France pour la NTF s'écartaient des valeurs exactes (que l'on aurait obtenues si tout avait été parfait) de grandeurs d'autant plus élevées que l'on s'éloignait de Paris (où était situé le point de référence, le Panthéon), et pouvant atteindre quelques mètres aux extrémités de la métropole. Le référentiel faisant foi n'était donc pas le référentiel théorique, mais celui réellement disponible au travers des bornes observées et de leurs coordonnées publiées.

D'où des difficultés sans fin lorsque ces bornes étaient détruites et reconstruites, rien ne permettant de garantir que la redétermination aurait les mêmes erreurs que la détermination ancienne. On a coutume de présenter les modèles d'erreurs de la NTF sous la forme "1 cm/km", erreur purement relative, sans trop évoquer l'erreur absolue (pouvant donc atteindre plusieurs mètres) des coordonnées publiées. Ceci avec une excellente excuse : personne ou peu s'en faut ne s'intéresse à des coordonnées absolues fausses de 5 m à Marseille, mais tous sont concernés par l'erreur relative entre deux points proches, ici inférieure à 5 cm entre deux points éloignés de 5 km et qui a été jugée tout à fait supportable jusque dans les années 80. Evidemment on retombe directement sur ce problème d'erreurs absolues lorsqu'on passe d'un système à un autre, pour passer de la NTF au référentiel d'un pays limitrophe par exemple : personne ne devra alors s'étonner que le simple changement de coordonnées puisse être entaché d'erreurs atteignant le mètre, en particulier lorsque la frontière s'étend sur de grandes distances.

Le modèle d'erreurs avec la géodésie moderne utilisant le GPS précis appuyé sur la référence mondiale est complètement différent. On peut alors parler d'erreur absolue, par exemple de 2 cm pour le RBF  , et guère plus (moins de 5 cm en général) pour la NTF  recalculée en s'appuyant sur le RBF et le densifiant, en quelque sorte.

Situation en France

Les exemples étrangers de stations GPS permanentes sont nombreux et instructifs. Ainsi la Suède, qui maintient depuis 92 un ensemble de 22 stations afin d'inciter les usagers à l'emploi du GPS et de limiter par là même l'investissement national en réseaux matérialisés (la Suède est en effet un pays de grande étendue et très faiblement peuplé). Plus récemment en Suisse, où le niveau de recherche en matière de GPS est au meilleur niveau mondial, le service topographique fédéral a lancé diverses actions visant aussi à couvrir le pays de stations permanentes.

Qu'en est il en France ?

- Une recommandation de l'organisation informelle pour la géodésie européenne EUREF vise à couvrir l'Europe de stations permanentes, qui présentent une meilleure capacité que les réseaux matérialisés à fournir en tout lieu l'accès à une référence d'une précision très élevée (de l'ordre du cm en absolu !) sur tout le continent, ce qui évidemment n'a rien à voir avec ce qui était disponible il y a quelques années (en moyenne quelques mètres pour passer d'un référentiel national à un autre...). Evidemment ceci implique un calcul régulier pour identifier les déformations à caractère tectonique, ce qui en retour intéresse aussi les géophysiciens. Cette recommandation propose par exemple à la France d'entretenir une vingtaine de stations.

- Suite à plusieurs grosses campagnes GPS pour identifier les mouvements tectoniques actuels sur les Alpes et sur les Pyrénées, et dont la précision s'est avérée à peine suffisante pour identifier des mouvements significatifs sur une période de 5 ans, divers scientifiques ont commencé à installer des stations permanentes à finalité première purement géophysique : le réseau REGAL dans les Alpes est ainsi sous la responsabilité du CNRS.

- Les météorologues installent aussi des stations permanentes GPS, pour mesurer le contenu en vapeur d’eau de l’atmosphère.

- le CETMEF pour les phares et balises a fait de même le long des côtes françaises pour permettre aux navigateurs une navigation différentielle de précision métrique, en utilisant les fréquences d’émission réservées à la Marine.

- En outre, l'IGN a commencé par la mise en place de stations à finalités surtout scientifiques, afin de suivre les recommandations d'EUREF  (ce qui signifie  mais aussi de permettre un suivi métrologique des meilleurs marégraphes français, dont les données (si elles sont bien référencées) sont essentielles pour mieux comprendre le réchauffement global de notre planète. Comme les précédentes, ces stations mettent leurs enregistrements à disposition au bout de 24 heures avec un échantillonnage toutes les 30 secondes.

- Et afin d'analyser l'intérêt de stations permanentes pour les usagers, et surtout les géomètres, l'ESGT a installé depuis 1998 une station au Mans visant ce public mais sans négliger l'intérêt scientifique d'un tel équipement. Les enregistrements sont mis à disposition chaque heure, avec un échantillonnage toutes les secondes (nécessaire pour les usagers travaillant en mode cinématique).

- Enfin quelques services techniques de villes installent dès à présent des stations GPS dans la logique présentée précédemment. Dans de tels cas, il faut simplement éviter que les différentes stations n'utilisent des formats incompatibles, ce qui compliquerait la vie pour des usagers n'ayant pas une activité purement locale. Et il faut garantir les coordonnées de cette station (par exemple en veillant à la stabilité de l'antenne).

Nous pouvons actuellement anticiper une évolution allant vers une multiplication de stations au sein des villes, si besoin est dans un cadre de partenariat avec l'IGN. Et les applications scientifiques resteront possibles, comme de simples sous-produits, sans pour autant être la légitimation première de ces installations, pourvu que le suivi métrologique des antennes soit fait avec soin.

Politique IGN en matière de géodésie :

La politique de l'IGN a été orientée dans un premier temps à la fin 1997 par un rapport du CNIG, qui précisait : "…il est de la responsabilité de l'IGN de prendre toutes dispositions nécessaires pour que le développement d'un réseau de stations permanentes et que leur utilisation se fasse dans des conditions telles que… les données géographiques obtenues soient ultérieurement exploitables par d'autres services que celui qui prescrit le travail".

Elle est maintenant concrétisée par un "Schéma directeur pour la géodésie et le nivellement à l'IGN" approuvé le 14 Janvier 2000, dont les quelques extraits relatifs aux stations GPS permanentes sont proposés :
....
Orientations pour les prochaines années :
La politique générale de l'IGN en matière de géodésie est basée sur un nouvel équilibre entre trois grands pôles d'activités : réseaux traditionnels matérialisés (NGF, NTF et RGF), réseaux matérialisés modernes (RBF, Nivellement de référence, réseaux mondiaux), et stations GPS continues. Et bien entendu il faut maintenir en parallèle la maîtrise de la base de données géodésiques qui assure la diffusion de l'ensemble de ces travaux.
....

4/    La mise en place d'une activité "réseau GPS permanent".

Ceci nécessite :
- La poursuite du soutien à des solutions régionales EUREF.
- L'appui aux organismes partenaires (spécifications, aide à l'installation, suivi métrologique des antennes, ...)
- La maintenance, si besoin est, de leurs données collectées au delà de leur temps d'archivage propre,
....

L'appui aux organismes partenaires doit être compris comme une assistance d'experts lors de la conception de l'installation, la maintenance métrologique de l'antenne, la fourniture des coordonnées de la station et l'archivage à long terme des données, tout ceci au titre de la mission de service public de l'IGN.

Par ailleurs l'IGN a décidé l'implantation d'un ensemble de stations GPS permanentes, dont il restera propriétaire, afin d'émettre directement à la demande des corrections DGPS décimétriques en temps réel, ceci au moins pour ses propres besoins (entretien de la BDTopo par exemple). La diffusion de ces corrections pourra être confiée d'abord à des liaisons GSM, ou à d'autres media s'il s'en trouve de disponibles à coût modeste.

Conclusion : vers de nouveaux enjeux ?

De nombreuses études sont en train pour mettre au point et exploiter au mieux le concept de "station de référence virtuelle", obtenue en fabriquant de façon artificielle les signaux de référence que l’on obtiendrait en un endroit donné, par calcul à partir des signaux mesurés dans des stations distantes, comme si l’on y disposait d’une véritable station. Ceci est de nature à améliorer une bonne partie des éléments financiers du système en cours de constitution en réduisant beaucoup le nombre de stations nécessaires, mais exige pas mal de travaux, en particulier dans le domaine de la connaissance des anomalies de propagation de la troposphère, assez insuffisante actuellement.

Par ailleurs, d'autres systèmes que le GPS deviendront sans doute tôt ou tard opérationnels, tels le GLONASS Russe, GALILEO en Europe, et peut-être encore BAIDOU en Chine. On peut en espérer une grande amélioration du nombre de satellites visibles à un instant donné lorsque des récepteurs multi-systèmes auront été commercialisés. Si la situation va ainsi évoluer en milieu urbain dense (grâce à beaucoup plus de satellites en visibilité) et améliorera la rapidité de mesure un peu partout, par contre cela ne changera probablement pas l'intérêt de disposer de stations permanentes (pour atteindre les précisions nécessaires à l'information géographique), dont les fonctionnalités resteront assez voisines de celles développées pour le GPS seul actuellement.

Une dernière remarque : une toute nouvelle situation se présentera à courte échéance pour les géomètres, au fur et à mesure de l'apparition de stations GPS permanentes proches de chez eux. Ils pourront utiliser le GPS avec un investissement initial réduit, et ils auront ainsi un nouvel accès à la référence nationale planimétrique d'une qualité jamais atteinte auparavant. Dans un système cadastral comme celui de la France (hors Alsace - Lorraine) où le bornage n'a pas de caractère systématique ni obligatoire, nous pourrions proposer désormais qu'un bornage puisse aussi être virtuel, c'est à dire qu'après des mesures soignées les coordonnées d'un point puissent prendre une valeur légale sans matérialisation par une borne, sachant que la restauration d'un point peut maintenant être reproduite avec une erreur n'excédant pas en France 2 cm en moyenne dans un référentiel particulièrement indestructible extrêmement précis et exact, le repère mondial. Voilà qui pourrait ouvrir des perspectives intéressantes, en particulier dans des pays qui repensent actuellement complètement ex nihilo leur système cadastral et ne veulent pas se passer de bornage : la matérialisation du bornage est une opération onéreuse qui pourrait être supprimée au besoin, ce qui repose sur un accès aisé au référentiel national. Il est donc clair que les stations permanentes vont continuer à prendre une importance capitale dans le paysage technique futur.


Michel Kasser

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#55 Mon 14 January 2008 17:00

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2001
Fiche n°50 : LES SYSTEMES RGF93 ET LAMBERT 93

Introduction

Les nouveaux textes réglementaires relatifs au système géodésique RGF 93 et au système de projection Lambert 93 en France nécessitent une explication approfondie sur les systèmes de référence nécessaires à la pratique de l'information géographique. Pour ce faire, il faut tout d'abord procéder à une rétrospective sur les techniques employées autrefois, ce qui aide beaucoup à comprendre la nature de la différence, très profonde, entre les systèmes géodésiques anciens et celui qui est désormais en place en France. Puis nous décrirons ce nouveau système, en essayant d'analyser dans quels secteurs des changements vont intervenir pour les usagers.

Evolution de la qualité du référentiel national. La NTF : aspects historiques.

Pendant trois siècles et jusqu'à 1991, les réseaux géodésiques français ont été obtenus par triangulation, donc des mesures très précises d'angles, avec des mises à l'échelle toujours assez compliquées à faire : encore en 1960, l'ensemble de la "Nouvelle Triangulation de la France", la NTF (commencée à la fin du XIXème siècle et terminée en 1991), n'incluait que 15 mesures de bases réparties sur l'ensemble de la France. Ces bases ont été mesurées au fil invar (l'invar a été inventé en France au BIPM, au début du XXème siècle), sur des distances entre 10 et 20 km, mais ont exigé chacune près de 6 mois de travail à plus de 10 personnes, pour une précision de l'ordre du centimètre. En complément de ces mesures de bases, des observations astronomiques ont été menées afin de permettre une orientation locale très précise de certains cotés, par observation de l'étoile polaire sur une dizaine de points de premier ordre.

En outre si nous essayons de comprendre l'origine des limitations de ces travaux, en gardant l'exemple de la NTF, il y avait une réelle impossibilité de compenser en bloc par moindres carrés des ensembles de mesures portant sur plus d'une ou deux dizaines d'inconnues, limitation inhérente aux anciens moyens de calcul "à la main". Pour résoudre ce problème délicat, on a créé alors la méthode des ordres emboîtés, les coordonnées issues des calculs de premier ordre étaient imposées au second ordre, etc… Et encore le premier ordre, trop volumineux, ne pouvait-il être calculé en un seul bloc, on avait donc effectué des chaînes de triangles formant une ossature le long de trois méridiens et de trois parallèles, calculées séparément, avant de "remplir" les zones laissées vierges en s'appuyant sur ce 1er ordre de chaîne. L'ensemble des coordonnées diffusées sous le nom NTF était donc le résultat d'un nombre considérable d'ajustements de sous-ensembles calculés par moindres carrés, avec un modèle d'erreur résultant extrêmement complexe. Typiquement les coordonnées diffusées en France pour la NTF s'écartent des valeurs exactes (que l'on aurait obtenues si tout avait été parfait) de grandeurs en général d'autant plus élevées que l'on s'éloigne de Paris (où est situé le point de référence, le Panthéon), et pouvant atteindre quelques mètres aux extrémités de la métropole.

Tout ceci ne tirait guère à conséquence, puisque la géodésie servait essentiellement d'appui à la carte de France, dont la meilleure réalisation a été effectuée au 1/25 000ème, une erreur de quelques décimètres étant donc localement indétectable, et une erreur de quelques mètres à grande distance étant sans aucune importance pratique. La NTF ne servait qu'assez rarement, malgré les obligations légales, à établir le système de référence des nombreux levers effectués par les géomètres (moins du quart de leurs travaux étaient "rattachés au Lambert" en 1990). Par ailleurs ce n'est que dans les années 70 que les appareils de mesure électronique de distances, considérablement plus précis que les appareils traditionnellement utilisés jusque là, ont permis aux géomètres de détecter de plus en plus fréquemment les erreurs de la NTF. Ces erreurs désormais ont été perçues comme des insuffisances dont on pouvait au besoin s'accommoder à coup d'ajustements locaux, mais aussi en se raccordant de plus en plus rarement au référentiel national, plutôt compris comme une source d'erreurs que comme une source d'économies globales.

Dans un tel cadre technique, en France comme ailleurs, le référentiel faisant foi n'était donc pas le référentiel théorique, mais celui réellement disponible au travers des bornes observées et de leurs coordonnées publiées. D'où des difficultés lorsque ces bornes étaient détruites et reconstruites, rien ne permettant de garantir qu'une redétermination aurait les mêmes erreurs que la détermination ancienne. On a coutume de présenter les modèles d'erreurs de la NTF sous la forme "1 cm / km", erreur purement relative, sans trop évoquer l'erreur locale (pouvant donc atteindre plusieurs mètres) des coordonnées publiées. Ceci avec une excellente excuse : personne ou peu s'en faut ne s'intéresse à des coordonnées fausses de quelques mètres à Marseille si tous les points voisins sont entachés à peu près de la même erreur, mais tous sont concernés par l'erreur relative entre deux points proches, ici inférieure à 5 cm entre deux points éloignés de 5 km, et qui a été jugée tout à fait supportable jusqu'au moment où les usagers ont disposé de moyens de mesure bien plus précis.
Evidemment on retombe directement sur ce problème d'erreurs absolues lorsqu'on passe d'un système à un autre, pour passer de la NTF au référentiel d'un pays limitrophe par exemple : on ne devra alors pas s'étonner que le simple changement de coordonnées ne puisse être débarrassé d'erreurs atteignant le mètre, en particulier lorsque la frontière considérée s'étend sur de grandes distances.

A titre d'exemples illustrant à quel point le modèle d'erreur des anciennes triangulations était surtout une conséquence des impossibilités d'inverser par moindres carrés des blocs importants d'observations, nous citerons deux retraitements de mesures anciennes :

    - Au XVIIème siècle (vers 1660) l'abbé Picard voulant mesurer le rayon de la Terre avait observé un degré de méridien autour de Paris (arc "Sourdon - Malvoisine") avec des instruments complètement nouveaux, en grande partie conçus par lui (il avait inventé la lunette de visée avec un réticule, permettant des pointés très précis), préfigurant les appareils employés jusqu'au début du XXème siècle, les "cercles azimutaux". L'Ingénieur Général Géographe J.-J. Levallois ayant procédé à un nouveau calcul à partir des observations originales a montré en 1985 que la précision obtenue sur cette triangulation correctement calculée en bloc était déjà de l'ordre de 10¬¬-¬5, ce qui constituait une amélioration d'un facteur 10 sur les résultats publiés à l'époque, pourtant déjà jugés excellents.

    - Vers 1980 l'armée française souhaitait disposer d'un vecteur très précis entre un site de Bretagne et le Centre d'Essais des Landes pour tester divers systèmes de navigation. Un quart des observations de 1er et 2nd ordre de la NTF ont alors été compensées en un seul bloc, en introduisant en outre une cinquantaine de mesures de longues distances au télémètre laser (Géodimètre AGA 8), et on a pu ainsi obtenir, avec pourtant les mêmes mesures angulaires, une précision environ 10 fois meilleure que celle de la NTF normale (quelques décimètres sur plus de 500 km).

On en déduit donc qu'à l'origine des défauts des réseaux triangulés anciens se retrouve la faiblesse des moyens de calcul, situation qui a bien évidemment complètement changé avec l'arrivée des ordinateurs à la fin des années 60, mais qui n'a pu être mise à profit puisque ces ensembles de coordonnées étaient déjà publiés et employés depuis des décennies et que l'on ne souhaitait pas modifier le système officiel.

Re-précisons enfin que ces ordres successifs, qui ont été employés dans tous les grands travaux géodésiques anciens (NTF, NGF,…) ne sont que des nécessités de calcul, et ne correspondent en rien à des précisions plus ou moins bonnes sur les coordonnées obtenues : ce point est généralement resté mal connu des utilisateurs.

Apparition du GPS en géodésie.

Le modèle d'erreurs avec la géodésie moderne utilisant le GPS précis appuyé sur la référence mondiale est complètement différent de ce que nous avons vu avec la triangulation. On peut alors parler d'erreur absolue en ce sens que si un point donné est complètement réobservé par rapport aux autres observatoires géodésiques mondiaux (stations où sont employés une ou plusieurs méthodes telles que VLBI, télémétrie laser sur satellites, DORIS, ou stations GPS permanentes), en prenant soigneusement en compte les déformations régulières du globe apportées par la tectonique des plaques, on retrouvera toujours les mêmes coordonnées, à un ou deux centimètres près. C'est évidemment une situation qui n'a plus rien à voir avec la situation précédente.

A partir du moment où il est devenu plus économique d'effectuer un canevas par GPS que par triangulation, GPS qui de surcroît peut être bien plus précis que l'ancienne NTF, il fallait donc se poser la question de la rénovation du réseau géodésique national. Y avait-il encore une raison de la financer ? Les autorités (instruites par le CNIG) ont ré - examiné complètement cette question vers 1990, et ont conclu positivement. Différentes raisons peuvent être citées :

    - Certes la carte de base au 1/25 000ème était terminée, mais la BDTopo était en cours de développement, exigeant un référentiel homogène au niveau du décimètre, ce qui était à la limite des capacités de la NTF.

    - Des besoins complètement nouveaux sont apparus avec la généralisation des SIG et de l'emploi du GPS pour y référencer tous les objets possibles. De plus en plus d'usagers peuvent actuellement trouver un intérêt économique à lever ces objets dans un référentiel bien défini (pourvu qu'il soit facile d'accès), car cela leur permet ensuite de tirer un bénéfice croisé entre des levers différents, qui deviennent parfaitement superposables et cohérents entre eux : une valeur ajoutée apparaît alors, grâce à l'investissement public effectué en amont. A l'époque des cartes seulement sur support papier, un tel bénéfice aurait été tout à fait marginal.

    - Les usagers ayant, de plus en plus, des moyens de mesure GPS bien plus précis que ce qui est offert par la NTF, se seraient bientôt complètement passés de mettre leurs travaux dans une référence bien définie, faisant perdre à long terme tout moyen de dégager une synergie entre des levers successifs.

Il a donc été décidé :

    - d'observer un ensemble assez peu dense de bornes (un  millier sur toute la France). Ces bornes sont toutes très faciles d'accès, sont entretenues avec soin, et ont reçu des observations GPS donnant à leurs coordonnées une cohérence de l'ordre de 2 cm sur tout le pays. Ce réseau a été baptisé RBF (Réseau de Base Français).

    - de mettre en place des stations GPS permanentes, donnant à terme aux usagers bien équipés un accès encore plus performant à la référence nationale.

    - que lors des observations du RBF, un grand nombre de points de la NTF seraient aussi mesurés par GPS dans les mêmes sessions. On a ainsi obtenu par recalcul global un second jeu de coordonnées pour les points NTF, permettant de publier un modèle assez précis des différences entre le référentiel matérialisé par le RBF et celui matérialisé par la NTF.

Il y avait dès lors deux solutions :

    - soit poursuivre avec les coordonnées NTF anciennes et donner aux usagers des éléments de déformation leur permettant de distordre leurs observations nouvelles (par exemple obtenues par GPS) pour qu'elles soient compatibles avec la NTF,

    - soit changer complètement la référence nationale, les nouveaux travaux s'exprimant alors naturellement et sans correction dans cette nouvelle référence, et les anciens étant alors récupérés en appliquant ce modèle de distorsion déjà évoqué.

Ces deux solutions ont chacune des avantages et des inconvénients, ces derniers étant liés à la difficulté inévitable de rendre compatible les anciennes données (fort nombreuses et ayant une énorme importance économique) avec les nouvelles. C'est la seconde solution qui a été adoptée en France, comme d'ailleurs cela s'est produit dans de nombreux autres pays confrontés au même problème. Le nouveau système a été baptisé RGF 93 (RGF pour "Réseau Géodésique Français"). Dans ce système le RBF est cohérent avec le système mondial ITRS (International Terrestrial Reference System, calculé depuis 1992 au nom de l'Association Internationale de Géodésie par le laboratoire LAREG de l'IGN) à environ 2 centimètres près dans tout le pays, et la NTF peut être ré - employée grâce au modèle de distorsion avec une précision de l'ordre de 5 cm. Ce modèle de distorsion, diffusé par l'IGN et désormais incorporé dans de nombreux logiciels de post - traitement GPS, représente presque exactement le modèle d'erreur de la NTF, qui dépasse sans surprise 5 mètres en plusieurs zones du pays.

Le RGF 93, basé sur l'ellipsoïde international IAG GRS 1980, a été rendu obligatoire en métropole et Corse le 26-12-2000 par décret N° 2000-1276, en application de l'article 89 de la loi 95-115 d'orientation pour l'aménagement du territoire, pour les travaux topographiques d'une certaine importance sur financements publics (texte qui précise aussi les références officielles des DOM).

Comme le système officiel de projection est basé sur le référentiel géodésique national, le changement de ce dernier a obligé à redéfinir le système de projection officiel. Le précédent système (Lambert, avec 4 zones, et Lambert II étendu couvrant toutes les zones mais créant de fortes altérations linéaires) a laissé la place à un seul système "étendu", baptisé Lambert 93, projection conique sécante. Les parallèles standards, ou "automécoïques" (où l'échelle est conservée) sont les parallèles 44° et 49°. Le point central a pour longitude 3° E (méridien international), pour latitude 46° 30' N, et les coordonnées de ce point sont alors X0 = 700 000 m et Y0 = 6 600 000 m dans la projection. Ce choix d'origine évite toute confusion avec les systèmes précédemment en usage (notamment Lambert (NTF) zones et UTM (E50 ou WGS84)).

Cette projection unique sur le territoire français se traduit par des altérations linéaires pouvant varier de -1 m/km à +3 m/km, et dont le calcul est très facile à introduire dans les logiciels d'utilisateurs. Ces valeurs sont importantes, mais peu évitables : les usagers de SIG sont d'ailleurs invités à utiliser chaque fois qu'ils le pourront des coordonnées géographiques, toutes les coordonnées du RBF étant bien entendu disponibles aussi dans un tel système de coordonnées.

[img]http://georezo.net/img/cnig/cnig_50_1.png[/img]
Figure 1 : Carte des déformations de la NTF dans le RGF93, sous forme de vecteurs sur les points du premier ordre de la NTF. Ces vecteurs ont été calculés de façon à avoir une moyenne nulle.


[img]http://georezo.net/img/cnig/cnig_50_2.png[/img]
Figure 2 : Altérations linéaires du Lambert 93, comparé aux anciens Lambert, zones I (à droite) à IV (à gauche) et Lambert II étendu.



Conclusion.

L'adoption de ce nouveau système Lambert 93 va se traduire concrètement pour les usagers par un certain nombre d'avantages, mais aussi d'inconvénients.

Au rayon des inconvénients, il faut noter un certain nombre de difficultés qui vont apparaître chez les géomètres opérant depuis longtemps dans une zone donnée. Ils disposent en effet souvent sur cette zone d'un ensemble de repères connus d'eux seuls, et dont les coordonnées ont fait l'objet de compensations et d'ajustements plus ou moins complexes, intégrant en tous cas les distorsions locales de la NTF. Bien évidemment, la conversion de ces coordonnées vers le nouveau système RGF 93 sera d'une précision insuffisante par rapport aux possibilités offertes par le nouveau référentiel, et ceci va entraîner progressivement le besoin de redéterminer complètement ces points, sous peine de livrer ensuite des travaux non conformes. Il faut rappeler si besoin est qu'une transformation de coordonnées n'améliore jamais la qualité de la détermination initiale…

Autre problème à noter : si la nouvelle projection est l'équivalent de l'ancien Lambert II étendu, par contre il n'existe pas d'équivalent moderne aux anciennes projections Lambert zones, dont l'étendue assez modeste se traduisait par des altérations linéaires beaucoup plus réduites, à peu près indécelables sur des documents cartographiques papier. De ce fait de nombreux usagers n'ont pas les idées bien nettes sur ces problèmes de projections, et confondent volontiers les distances tirées des coordonnées en projection avec les distances géométriques mesurées. Or avec des corrections pouvant dépasser le m / km, même les documents graphiques donnent des écarts largement appréciables à l'œil. Les risques de confusion entre ces deux types de distances pour des usagers non avertis vont créer de nombreuses difficultés nouvelles, qui ne se résoudront qu'avec un grand effort de vulgarisation technique. Et les fautes qui en résulteront seront assez conséquentes !

Et puis bien entendu, si des données géographiques numériques anciennes peuvent aisément être recalculées dans la nouvelle référence, par contre les documents graphiques sont bien plus délicats à ré-employer en conjonction avec des données acquises dans la nouvelle référence. Néanmoins cette critique est à tempérer car les documents de ce type sont pratiquement tous à des échelles grandes ou très grandes, et le changement de référence se traduit dans de tels cas par une simple translation, générale pour toute la carte, et facile à matérialiser par un simple quadrillage nouveau à superposer au document existant : ce cas est complètement différent de ce qui se présente lors d'un changement de référence d'altitude, pour lequel les nouvelles courbes de niveau ne peuvent être aisément déduites des anciennes.

Au rayon des avantages, la perspective de voir désormais le référentiel de base devenir indestructible, quelles que soient les destructions de bornes, est très satisfaisante et encourageante. Par ailleurs, les mesures issues de systèmes spatiaux (aujourd'hui GPS, bientôt sans doute le GALILEO Européen, voire le GLONASS Russe ou le BAIDOU Chinois) se trouvent de façon automatique complètement compatibles avec le RGF 93, au niveau de 1 à 2 centimètres. On obtient ainsi un accès à la référence beaucoup plus aisé qu'auparavant. Par exemple, avec des mesures GPS on obtient les mêmes résultats en installant le récepteur de référence sur un point du RBF proche, ou en téléchargeant les données enregistrées sur des stations GPS permanentes même fort éloignées, au prix évidemment de mesures de plus longue durée. Les coordonnées obtenues sont, dans tous les cas, parfaitement dans le référentiel RGF 93, sans effort aucun et sans travail particulier. C'est en fait la première fois que l'accès au référentiel national est aussi facile et naturel. En outre, plus aucune difficulté ne se présente maintenant pour traiter des chantiers transfrontaliers, pour autant que tous les pays voisins aient connu la même évolution de leur référentiel. Or c'est actuellement le cas pour la France, car le système européen EUREF effectue un lien très précis entre tous les pays d'Europe, et il en est également ainsi du système mondial ITRS auquel la totalité des systèmes nationaux révisés récemment sont raccordés avec une excellente précision.

En conclusion, si le changement de référence est susceptible de poser aux usagers certainement beaucoup de petits problèmes, par contre il résout tous les problèmes importants et à long terme il est certain qu'il engendrera de nombreuses simplifications dans les travaux géographiques en France.

Michel Kasser

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#56 Mon 14 January 2008 17:00

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Télécharger toutes les fiches de 2001 (voir ci joint)


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#57 Mon 14 January 2008 17:00

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2002

Fiche n°51 : BIBLIOGRAPHIE
Cette fiche fait suite à la Fiche n°10, dont les ouvrages sont marquants et encore d’actualité.  Ce thème sera régulièrement complété.


LIVRES


AFIGEO, Conseil national de l’information géographique
Eléments pour un débat national : l’information géographique française dans la société de l’information : état des lieux et propositions d’action.

Ce livre blanc rédigé par le CNIG et l’AFIGEO à partir d’études lancées en 1996 et 1997 avec l’aide de différents instances et organismes dresse un état des lieux avant de détailler les enjeux de l’information géographique et de proposer des actions autour de l’offre de données, l’exportation, la normalisation et la qualité des données, la recherche et la formation.
Andersen Arthur, Barbier Frinault et associés.

CNIG
Etude sur le prix de la donnée d’information géographique : stratégies possibles pour l’Etat – rapport.       
Paris

CNIG sept. 1997 – 200 p.

Ce rapport évoque les difficultés du marché de l’information géographique au travers de ses spécificités, de son potentiel de développement, des prix et de l’action possible de l’Etat et des producteurs publics.

Baron Norbert
La localisation des données bibliographiques dans les systèmes d’information sur l’environnement
Paris, IAURIF, 1998 – 45 p.

Cette étude présente les résultats d’un test de mise en relation de deux outils informatiques conçus au départ en toute indépendance : le système d’information géographique régional (SIGR) et la banque de données bibliographiques ECOTHEK. Le test porte sur la spatialisation des données bibliographiques concernant les thèmes liés au patrimoine naturel de huit vallées d’Ile de France

Burrough Peter
A european view on the global spatial data infrastructure     
Konigswinter

Allemagne, 4-6 sept. 1996 10 p.

L’auteur dresse un bref historique des initiatives relatives aux données géographiques internationales en Europe. Il analyse les forces internes qui poussent à l’internationalisation dans l’information géographique en Europe ainsi que les forces externes qui l’affectent, les facteurs de différence entre pays européens et Etats-Unis, les résistances en Europe. Il propose de tirer des leçons des tentatives de gérer les problèmes par discipline, des développements technologiques et théoriques dans l’analyse des données géographiques et des relations entre pays développés, avant de préciser les dangers perçus et les recommandations pour réaliser utilement les projets autour de l’information géographique.

CERTU
Le plan cadastral numérisé et son usage au Ministère de l’équipement
Lyon, CERTU, 1996 – 152 p.

La numérisation du plan cadastral intéresse de nombreux utilisateurs de cette information localisée. Bien souvent,  le Ministère de l’équipement, à travers les missions dont il a la charge, se trouve être un interlocuteur commun à tous. Pour les communes, les conseils généraux ou les administrations proches du territoire, les enjeux sont d’importance, en termes techniques, financiers ou organisationnels. Une bonne connaissance de ce que peut apporter l’information du plan cadastral sous ses formes numériques est alors indispensable. Cet ouvrage, considéré comme un guide, apporte d’une façon synthétique, des informations importantes sur le plan cadastral, son contenu, son organisation, sa qualité et son usage possible au Ministère de l’équipement. Il aborde également le problème de sa numérisation, tant par les aspects techniques que par les situations variées induites par le contexte institutionnel local.

Denègre Jean, Salgé François
Les systèmes d’information géographique     
Paris, PUF, 1996 - 128 p. Coll. Que sais-je ?

Les auteurs présentent la notion d’information géographique et précisent ce que sont les systèmes de référence de localisation, la structuration des données et leurs modèles conceptuels et le sens particulier des notions générales de qualité, d’échange de données, de normalisation appliquée à l’information géographique. Ils traitent aussi des aspects juridiques, économiques et prospectifs.

Exemples d’utilisation des fichiers dérivés de la BD Alti – Lignes de niveau, zones hypsométriques, classes de pentes, points singuliers
Devers José, Christine Archias, Jean-Pierre Chrétien
Etude réalisée en février 1997 pour la DRAST et le pôle Géomatique du CERTU.

La BD Alti de l’IGN est rétrocédée aux utilisateurs sous la forme d’une grille de points cotés. Quatre produits ont été définis : lignes de niveau, zones hypsométriques, classes de pente et points singuliers. Quinze exemples d’utilisation de ces bases de données sont présentés, regroupés en cinq thèmes : la connaissance du territoire, les risques naturels, l’urbanisme et l’aménagement, les études d’infrastructures, la gestion du réseau routier. Ces traitements montrent l’intérêt de ces bases de données pour améliorer la connaissance des territoires, et, en particulier, mesurer des phénomènes impossibles à quantifier précédemment.

Devers José, Jousse Michèle, Christine Archias
Qualité de l’occupation des sols
Etude réalisée en décembre 1998 pour le pôle Géomatique du CERTU.

A l’occasion de la réalisation d’une nouvelle couverture de la région PACA, trois indicateurs ont été définis, concernant la topologie, la classification et la précision des contours. Cette étude a pour objectif, en mettant en œuvre les indicateurs correspondants, de vérifier leur pertinence et de dégager des recommandations pour leur application.
La mesure s’appuie sur la comparaison de fichiers, celui de référence et celui du prestataire. Des enseignements sont mis en évidence.

Ecobichon Claude
L’informatique géographique : nouvelles techniques, nouvelles pratiques
Paris, éd Hermès, 1994- 122 p.

Réflexion sur la dimension culturelle des difficultés techniques, juridiques et économiques du secteur de l’information géographique. Il est question du marché de l’information géographique, du traitement des données et des réactions du milieu professionnel et politique face aux innovations technologiques. Le sujet central n’est pas tant la technique en elle-même que la façon dont en usent les techniciens

Essevaz-Roulet Michel
La mise en œuvre d’un système d’information géographique dans une collectivité territoriale.       
Voiron, Dossier d’experts, La Lettre du Cadre Territorial, mai 1999 – 194 p.

Après une description à visée pédagogique des systèmes d’information géographique, l’ouvrage présente les caractéristiques des applications logicielles pour SIG, détaille la conduite du projet informatique et la numérisation du plan cadastral.

Faure Corinne
Directives territoriales d’aménagement et système d’information géographique ; état des lieux DTA et SIG.
Lyon, CERTU ; sept 1997 33 p.

Présentation des résultats d’une enquête relative à l’utilisation des systèmes d’information géographiques (SIG) dans les directives territoriales d’aménagement (DTA). Enquête auprès d’une trentaine d’intervenants du Ministère de l’équipement, de DIREN et de SGAR sur la base d’une grille de questions informelles.

Gayte Olivier, Cheylan Jean-Paul, Libourel Thérèse, Lardon Sylvie
Conception des systèmes d’information sur l’environnement
Paris, ed. Hermès, 1997 - 153 p.

La conception d’un système d’information sur l’environnement nécessite la réalisation d’un système informatique associant SIG, base de données, modèle mathématique, système expert. Pour créer ce système, la méthode POLLEN est présentée.

Henry Claude
Concurrence et service public dans l’union européenne        
Paris, PUF, 1997 – 225 p.

Dans le cadre de l’union européenne, il est possible d’évoluer vers un modèle où le service public soit clairement défini et solidement assuré, où des entreprises publiques rénovées et efficaces, parce que soumises à des formes appropriées de concurrence, continuent de jouer un rôle central, plutôt que de découper et privatiser les entreprises de service public. L’auteur analyse des exemples tirés des pays voisins : Allemagne, Pays-Bas, Suède, Grande-Bretagne et prône l’émergence d’un modèle européen de services publics pour lesquels les impératifs de service public se combinent avec les stimulants que sont la concurrence et la régulation.

Laurini Robert, Milleret-Raffort FrançoiseL
Les bases de données en géomatique
Paris, Ed Hermès, 1993 – 340 p.

Après avoir présenté les caractéristiques des données géographiques, l’étude évoque la culture des bases de données, met l’accent sur les spécificités des bases de données géographiques et aborde des techniques avancées en matière de base de données dans les systèmes d’information géographique.

Lavigne Stéphane
Le cadastre en France
Paris PUF, 1996 – 126 p. coll. Que sais-je ?

Le cadastre, qui existe depuis l’Antiquité, remplit des missions techniques, documentaires, juridiques et fiscales. Il dispose, à cet effet, du plan cadastral qui constitue le support de toute identification et de toute description physique de la propriété foncière. La confection et la maintenance du plan cadastral constituent les éléments essentiels de la mission technique. La documentation cadastrale se compose du plan cadastral ainsi que d’une documentation littérale,. Le cadastre sert à identifier et à déterminer physiquement les biens ainsi qu’à identifier et à déterminer physiquement les biens ainsi qu’à identifier les propriétaires et leurs droits. La mission fiscale est la mission originelle et fondamentale du cadastre, elle a pour objectif une évaluation qui indique, pour chaque unité foncière bâtie ou non bâtie, la valeur locative cadastrale servant de base à l'assiette et au calcul des impôts directs locaux. Le cadastre est géré par une administration fortement structurée qui s’efforce aussi de participer à sa modernisation.

Leclère Jean-Philippe
Les SIG et le droit       
Paris, éd. Hermès, 1995 – 249 p.

Cet ouvrage traite des principales dispositions juridiques applicables aux SIG, des problèmes liés à la propriété des données géographiques et de ceux relatifs à la responsabilité du producteur quant à la qualité de l’information. Après une présentation générale des SIG, il est traité des droits d’auteur, de la diffusion et de l’exploitation des données, de la protection des données nominatives, du cadastre, de l’accès aux documents administratifs et la commercialisation des données publiques

Léger Christian
Bilan de l’aide de l’Etat aux exportateurs français d’information géographique : rapport d’étude    
Paris, CNIG, sept. 1997 – 20 p.

Inventaire des projets et actions de coopération internationale kou d’exportation ayant bénéficié d’une aide de l’Etat ; analyse thématique ; typologie des actions et des bénéficiaires de ces financements.

Lévêque François
Economie de la réglementation
Paris, éd. La découverte – collection repères – 124 p.

L’originalité de livre est de réunir différents champs de l’analyse économique de la réglementation : ses applications à la pollution, à l’industrie, à la définition des services publics, à l’organisation des clubs associatifs, à l’ouverture des industries de réseaux à la concurrence, à la conservation des ressources naturelles, etc… ces domaines sont souvent traités séparément alors que les problèmes pratiques posés, les mesures mises en œuvre, les instruments d’analyse et les doctrines de référence sont largement communes. 
Ce livre montre que l’intervention publique pour remédier à l’inefficacité du marché reste une question ouverte et débattue. Sa supériorité comme forme d’action collective n’est établie par aucune loi générale. Son choix doit être justifié au cas par cas.

Miellet Philippe
France : a historical perspective on GIS diffusion. In : GIS distrifusion : the adoption and use of GIS in local government in Europe.        
Londres, Taylor & Francis, 1996 – pp. 163-182

Pantazis Dimos, Donnay Jean-Paul
La conception de SIG : méthode et formalisme.         
Paris, Ed. Hermès, 1996 - 343 p.

La méthode MECOSIG propose un outil spécifique à la conception des SIG informatisés. Cette méthode, déjà appliquée dans plusieurs projets géomatiques nationaux et internationaux consiste en un ensemble de principes, démarches et outils théoriques, notamment de formalismes de modélisation, applicables à l’analyse et à la conception des SIG dans les organisations.

Pornon Henri
Systèmes d’information géographique, pouvoir et organisations : géomatique et stratégies d’acteurs.        
Paris L’Harmattan, 1998 - 255 p.

L’auteur, aborde les conflits de pouvoir que suscite l’introduction des SIG dans les organisations, en étudiant une dizaine de projets au regard des concepts de la sociologie des organisations du management.

Siage – Ted Alitec
Utilisation de l’information géographique dans les procédures de planification territoriale : analyse de l’utilisation de l’information géographique, fiches par procédure.      
Paris, AFIGEO, CNIG, 1997 – 99 p.

Ce rapport analyse l’utilisation de l’information géographique dans la mise en œuvre des procédures de planification territoriale et dégage des propositions d’actions concourant à favoriser et à faciliter le recours à cette information. Il se compose de deux parties : l’analyse fonctionnelle de l’utilisation de ‘linformation géographique dans les procédures et des fiches de synthèse par procédure.

Tuffery Christophe
Les SIG dans les entreprises
Paris, éd Hermès, 1997 – 128 p.

Au sommaire : l’apparition et le développement des SIG dans les entreprises, lente apparition des SIG ; de la DAO/CAO aux SIG ; une mise en place conditionnée ; exigences et problèmes de méthodes) ; les acteurs des SIG dans le secteur (l’offre ; la demande ; le partenariat) ; les domaines d’utilisation des SIG dans les entreprises (les SIG comme outils d’étude ; conclusion, bibliographie ; index).

Urbatique
Etude du marché européen de l’information géographique numérique
Paris, CNIG/AFIGEO, 1997 – 90 p.

Cette synthèse présente un cadrage général permettant d’évaluer la taille et le dynamisme du marché européen, une analyse approfondie de l’offre, de la demande et de la structure du marché ainsi qu’un recensement des freins et des obstacles au développement du marché.

Vercken Gilles
Guide pratique du droit d’auteur pour les producteurs de multimédia
Luxembourg OPOCE, 1995 – 228 p.

Une approche européenne du droit d’auteur dans le domaine du multimédia.

Weber Christiane
Images satellitaires et milieu urbain
Paris, Ed Hermès, 1995 – 185 p.

Une synthèse sur l’utilisation des images satellitaires en milieu urbain


REVUES et LETTRES D’INFORMATION


GeoEurope

IGN Magazine

Revue internationale de géomatique Editions Hermès

SIG La lettre
www.sig-la-lettre.com

URB.AO
www.innovapresse.com/Urbao/Urbao.html

Signature du CERTU
www.certu.fr/sitcert/geomat/minidi01/pg_home.htm

XYZ
www.aftopo.org

Géomètre
www.geometre-expert.fr

Autoroutes de l’information et territoires

L’espace Géographique et Mappemonde
www.mgm.fr

Revue CYBERGEO (revue européenne de géographie) :
http://www.cybergeo.presse.fr/revgeo.htm


TEXTES


Circulaire du 20 mars 1998 relative à l’activité éditoriale des administrations et établissements publics de l’Etat
JO n° 69, 22 mars 1998 – pp 4301-4303

Loi n° 98-536 du 1er juillet 1998 portant transposition dans le code la propriété intellectuelle de la directive 96/9/CE du Parlement européen et du Conseil, du 11 mars 1996, concernant la protection juridique des bases de données
JO n° 151, 2 juillet 1998 – pp 10075-10077

Directive 96/9/CE du Parlement européen et du Conseil du 11 mars 1996, concernant la protection juridique des bases de données.

Livre vert : le droit d’auteur et les droits voisins dans la société de l’information
Bruxelles, Office des publications officielles des Communautés européennes , 1995

Circulaire du 14 février 1994 relative à la diffusion des données publiques
JO du 19 février 1994

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#58 Mon 14 January 2008 17:01

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2002
Fiche n°52 : L’ADMINISTRATION DES DONNEES LOCALISEES

Introduction, exemple, enjeux

La fonction administration de données localisées n'est généralement ni connue  ni identifiée, pourtant elle est essentielle pour le développement de l'information géographique dans tout organisme : elle lui permet de gérer son patrimoine de données localisées. Les services ayant une expérience en géomatique l'ont  rencontrée. Un exemple va l'illustrer.
Une mairie souhaite croiser ses données du POS et du plan d’exposition aux risques avec les données de la DRE, de la DDAF et de la DIREN. une convention de partenariat est passée entre la mairie, la DDE, la DDAF et la DIREN définissant les conditions techniques et juridiques dans lesquelles elles vont échanger entre elles périmètres de captage, ZNIEFF…  Aucun détail ne semble avoir été négligé sur les aspects informatiques (format d’échange, structure des données, etc.) ou juridiques (droits et devoirs des parties par exemple). Pourtant, le responsable de l’étude à la mairie éprouve de grandes difficultés quand il s’agit de croiser les données.

Perplexe, il constate que zonage POS, périmètres de captage et PPR ne se superposent pas correctement sur le fond Scan 25 de l’IGN, que des décalages existent entre des bois classés en ZNIEFF et les zones correspondantes des POS, que les limites de la commune sont différentes dans les différentes bases de données.

Il réunit les responsables des trois administrations, pour comprendre les causes de la mauvaise qualité des données qui lui ont été remises. Le représentant de chaque service précise le mode d’obtention des données, leurs sources, leurs conditions de numérisation, les référentiels utilisés, l’exhaustivité, la précision des données. Il apparaît alors que le POS a été numérisé à partir des fonds  cadastraux et raccordés entre eux pour constituer une couche continue. Par le fait, il est inévitable que son zonage ne soit cohérent  ni avec le fonds IGN Scan 25, ni avec la couche des limites administratives de la BD Carto, ni avec l’orthophoto et qu’il en soit de même des périmètres de captage et des PER avec le Scan 25.
Le jugement sur la qualité intrinsèque des données est ainsi appelé à être reconsidéré, pour faire place à une appréciation globale sur les conditions de leur emploi simultané. Le responsable de l’étude et les fournisseurs de données s’accordent pour reprendre les zonages sur une base de référence commune et s’entendent pour garantir la qualité des données qui seront échangées.

Par ailleurs, les quatre organismes décident de confier à l’université voisine la réalisation d’un catalogue des données géographiques partagé par toutes les administrations et collectivités du département. La disponibilité et la connaissance de ces informations constituent un préalable à la mise au point de conventions d’échanges et de partenariats, de façon à ce que chacune des parties puisse, pour ce qui la concerne, apprécier l’intérêt des données proposées et les conditions de leur emploi.

La description des territoires nécessaires à l'exercice des missions des collectivités locales et des services publics est, dans ses aspects géographique, démographique, socio-économique, fournie sous forme numérique qui, seule, permet de bénéficier des capacités d'analyse et de synthèse qu'offrent les techniques de traitement de l'information.

Dans ce contexte, les données rassemblées composent un patrimoine auquel, compte-tenu de son coût de constitution et de maintenance, et de sa valeur d'usage et des changes, il faut attacher la plus grande attention. Ce patrimoine réunit référentiel, données d'intérêt général et données métier (voir infra la présentation de ces différentes catégories). Ces différents groupes de données possèdent une valeur intrinsèque, mais leur association, à la demande, apporte une valeur ajoutée qui faite la richesse du patrimoine.

Administrer les données dans un service, c'est être en situation de fournir sous une forme exploitable, à tout organisme ou individu qui en exprime le besoin dans ces activités, un sous-ensemble de ces données, qu'elles soient internes ou externes, dans une collective locales, pour un  département ministériel ou un groupement professionnel.
Cette fiche présente les différents aspects de l'administration de données localisées : données à administrer, tâches à mettre en œuvre, organisation, outils. Mais elle vise avant tout à convaincre les responsables et décideurs de l'importance de cette fonction : ne pas la mettre en œuvre constituerait à coup sûr une erreur grave. L'administration de données localisées est indispensable à la réussite des démarches mobilisant l'information géographique.

La problématique de l'administration de données localisées - Les tâches à effectuer

Le cœur de l'administration de données localisées est, comme son nom l'indique, la donnée géographique. Autour des différents types de données rencontrées, les différents acteurs intervenant bâtissent leurs propres stratégies. La description de ce mécanisme amène à identifier les différentes facettes et tâches que le responsable de la fonction d'administration de données localisées aura pour mission de résoudre.

Les données

Les référentiels constituent la base commune nécessaire à la construction des données produites par les services. Ils couvrent différentes gammes d'échelle, moyenne (1/10000 - 1/25000), grandes (1/10000 - 1/2000) ou très grande (11/000 - 1/200). Un référentiel est un ensemble cohérent de données qui comprend une photographie du territoire, la description physique et topographique de ce territoire, les limites administratives et les localisants (adresse, P. R.). Cet ensemble est cohérent en termes de contenu, de date et de précision. Son contenu est limité aux stricts besoins engendrés par la nécessité de partage entre les utilisateurs. Son accès est financièrement aisé (voir fiches CNIG N° 54 – Décision interministérielle et 57 - RGE).

Les questions que se pose le responsable de la fonction administration de données sont les suivantes :
-    à l ’intérieur de mon service, tous les utilisateurs emploient-ils le référentiel ? tous y ont-ils accès ? prennent-ils des initiatives concurrentes ? pourquoi ?
-    les partenaires de mon service ont-ils acquis le référentiel ? sinon, pourquoi ? ont-ils (ou vont-ils) engager des actions concurrentes ? quelle position dois-je prendre ?
-    les données du référentiel reçues sont-elles conformes aux spécifications ? la qualité est-elle satisfaisante ?
-    mon service joue-t-il son rôle dans la mise à jour du référentiel ?

Les données d'intérêt général sont partagées par des groupes d'utilisateurs, elles sont utiles à la compréhension des territoires sans être indispensables à la production des données ; les donnés métiers sont relatives à l'exercice d'une profession.

L'utilisation de ces données pose les questions suivantes :
-    comment est organisée la diffusion et la mise à disposition auprès des utilisateurs spécialisés ?
-    quelle est la qualité de ces données : méthodes, dates, formats, …? existe-t-il des cahiers des charges de numérisation ? une réception ?
-    les services sont-ils moteurs, passifs ou opposés pour produire les données de leurs métiers ? et pour les mettre à disposition ?
-    la production de ces données est-elle organisée ? programmée ? systématique ? et leur catalogage ?
-    y a-t-il des restrictions à la diffusion ? pourquoi ? sont-elles justifiées ?
-    mon service est-il légitime pour produire et mettre à jour ces données ?

Les acteurs et leurs stratégies

Plusieurs types d'acteurs sont concernés par l'administration de données localisées, qui, en fonction de leur activité, ont des questionnements et des stratégies différentes :
-    les utilisateurs de données : ont-ils eu connaissance des données, de leur existence, de leur qualité ? Y ont-ils un accès satisfaisant ? Juridique : accord d'échange ? Technique : format, conditions techniques d'accès ? Quels usages des données ont-ils ? Quelles sont les évolutions souhaitées dans la description des données ?
-    les producteurs de données : des règles de production ont-elles été mis en place ? Les conditions de mise à disposition, tant interne qu'externe ont-elles été définie ? Les modalités de mise à jour également ? Sont-ils disponibles pour la production des données et leur mise à disposition ?
-    les organismes partenaires extérieurs : pour les producteurs de données, quelles sont les conditions pour la mise à disposition des données (technique, juridique) ? Quelle est la qualité des données produites, quel référentiel ont-ils utilisé ? Pour les utilisateurs de données : les modalités de mise à disposition sont-elles satisfaisantes ? Quels usages en sont-ils faits ? Quelles sont leurs observations sur les données ? Quels sont les partenariats à développer ?
-    les producteurs institutionnels : il s'agit essentiellement de l'IGN, de la DGI et de l'INSEE. L'offre a-t-elle évolué récemment : nouveaux territoires, mise à jour ? Quelles sont les stratégies nationales pour l'acquisition ? Les données des référentiels sont-elles satisfaisantes ? À adapter ?
-    le gestionnaire du système informatique : cette fonction support, très technique, est néanmoins indispensable à la mise en œuvre du dispositif administration de données localisées. Questions rencontrées : comment est assurée la sécurité des différentes catégories de données ? (sauvegarde, restauration), quelle est la qualité de l'accès : interne, externes ? La gestion du matériel, des réseaux et des logiciels est-elle satisfaisante ou à adapter ?
-    le comité de pilotage est une instance indispensable à la mise en œuvre de tout projet d'administration de données localisées. Il est responsable de l'approche préalable, de la définition des tâches prioritaires et de leur mise en place progressive, des données à intégrer dans le catalogue, de la définition de la politique des échanges avec l'extérieur, et de l'analyse du fonctionnement interne (transversalité, données produites et utilisées, qualité).

Les tâches de l’administration de données localisées

Cette analyse des données, des acteurs et des questions rencontrées permet de mettre en évidence 8 tâches pour la fonction administration de données localisées. Pour chacune d’elles, la recherche de la satisfaction des demandes et besoins répertoriés constitue l’objectif primordial. Partant de ce principe, les tâches sont identifiées en se référant au cycle de vie des données.
-    la production des données, qu’elle soit interne ou externe, est motivée par une demande claire pour un usage précis. Elle requiert au préalable la définition des règles de production des données et la connaissance des référentiels qui leur sont associés,
-    dès lors qu’elles ont été établies, il convient naturellement de s’assurer de leur respect à la livraison : la réception des données est l’étape incontournable garantissant à l’utilisateur la conformité de la production à son attente,
-    l’obtention d’une production de qualité ne justifie pas à elle seule sa mise au patrimoine. Elle doit être complétée par l’analyse des besoins et des usages déterminant le niveau d’intérêt collectif de la donnée : c’est la tâche de sélection des données nouvelles à intégrer au patrimoine,
-    les utilisateurs potentiels du patrimoine doivent être informés de son contenu et de ses possibilités d’usage. La description des lots de données constituant ce patrimoine, dans un catalogue organisé et structuré doit lui fournir rapidement la réponse à ses interrogations quant aux données disponibles sur les territoires et les domaines, objets de ses études. Les tâches deux tâches de d’alimentation du catalogue d’une part, et de mise à disposition du catalogue d’autre part sont dévolues à cet effet,
-    dans le même temps, pour que l’utilisateur puisse accéder rapidement et commodément aux lots de données de son choix, le patrimoine doit prendre une réalité physique résultant de traitements informatiques. C’est le stockage des données, l’alimentation du patrimoine,
-    les données étant connues et physiquement disponibles, il convient d’en faciliter la mise à disposition avec des outils et procédures prenant en charge cette tâche, allant de la prise de commande à la livraison des données souhaitées. Des services complémentaires peuvent être proposés à l’utilisateur pour lui faciliter l’intégration des lots de données dans ses études ou ses applications. La boucle est ainsi bouclée : l’utilisateur disposant de données qu’il a puisées dans le patrimoine est à même de réaliser des traitements conduisant éventuellement à solliciter et à créer de nouvelles données pouvant justifier leur intégration dans le patrimoine et le placer de ce fait en situation de producteur,
-    enfin, ce dispositif ne peut rendre les services attendus qu’appuyé par un ensemble d’actions : assistance aux utilisateurs, concertation entre acteurs, négociation avec les producteurs, information des partenaires, compte rendu à la direction. Ce sont les composantes de la tâche d’animation du dispositif.

Comment mettre en place à la fonction administration de données localisées

La mise en œuvre de la fonction administration de données localisées s'apparente à une démarche de projet classique : comité de pilotage impliquant le niveau décideur, chef de projets, ... Sa mise en place est favorisée si différents services, producteurs de données dans leurs missions, sont capables de l’alimenter d’une part, et susceptibles d’en attendre des bénéfices d’autre part. La participation active aux démarches de partenariat local  ne peut qu’enrichir les pratiques et le patrimoine des données. Elle doit constituer un axe stratégique fort tant de la professionnalisation des métiers que de la diffusion des données publiques.
Sa mise en œuvre suppose une phase de réflexion préalable réunissant dans un comité de pilotage producteurs et utilisateurs de données, gestionnaires du système informatique. Sous l’autorité du directeur, ce comité animé par un chef de projet, éventuellement assisté par un expert-consultant, doit s’attacher à analyser la situation existante dans le service - référentiels disponibles, flux et usages des productions, diffusion des données, acteurs concernés - et proposer les décisions à prendre pour répondre aux attentes et permettre une montée en charge progressive du dispositif.
La fonction doit être localisée avec soin dans l’organigramme ; sa vocation stratégique et transversale doit y être affirmée et les conditions de son fonctionnement pérenne garanties. Aussi, le comité directeur est-il appelé au-delà de la mise en place, à en effectuer le suivi par des évaluations périodiques, portant sur les référentiels, la production, l’usage, les demandes et la diffusion des données, l’évolution du patrimoine et du catalogue.
Cette fonction recouvre en elle-même plusieurs métiers : animation, gestion informatique, gestion du catalogue, organisation des échanges de données, .. Elle ne correspond donc pas directement à un emploi spécifique, mais doit se traduire par une identification très claire du chef de projet et la description précise des différentes tâches à accomplir. Le responsable de la fonction administration de données localisées doit :
-    être à l’écoute des besoins des services,
-    veiller à la satisfaction des utilisateurs en les conseillant sur les données à exploiter, voire en leur apportant une assistance ponctuelle,
-    faire preuve de rigueur et de pragmatisme pour proposer de porter au patrimoine de données les seuls éléments nécessaires à la collectivité,
-    tenir informés le comité de direction et les producteurs sur les commandes des uns, sur les produits réalisés par les autres et sur les nouveautés à inclure au patrimoine,
-    bénéficier de l’assistance de la cellule informatique,
-    avoir le sens des relations pour réunir les compétences, fédérer les points de vue des acteurs du processus et communiquer sur les apports effectifs et potentiels du dispositif.

Conclusion

La mise en place de la fonction administration de données dans un organisme correspond à une nécessité dans le cadre du développement de ses activités information géographique. Elle constitue une démarche obligatoire pour que les investissements engagés soient pérennisés. Au-delà, deux enjeux sont rattachés à cette fonction, d’une part de modernisation des services, d’autre part l’engagement de partenariats et coopérations entre collectivités locales et services de l’Etat.

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#59 Mon 14 January 2008 17:01

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2002
Fiche n°53 : Normalisation
Actualisation de la Fiche 9 – thème sensibilisation

Normalisation

De la production initiale d’une donnée de base à son utilisation finale pour l’aide à la décision, le marché de l’information géographique concerne un très grand nombre d’acteurs qui valorisent et enrichissent cette information.
Mais pour que l’information circule, il faut qu’elle soit comprise et qu’elle reste utilisable à chacune des étapes de sa propagation. Le nombre d’acteurs intervenant dans ce flux - des producteurs de données, des collectivités locales, des administrations de l’Etat, des gestionnaires de réseaux, des sociétés de service, des utilisateurs privés - est sans cesse en expansion. Dès lors, au-delà de la rationalisation technique qu’offre déjà les standards des éditeurs les plus établis, la normalisation est un enjeu essentiel de la valorisation de l’information parce qu’elle permet ces flux, ces réemplois et cet enrichissement.
La présente fiche se propose d’éclairer les caractéristiques des normes en cours de préparation et de souligner les orientations perceptibles.

Généralités

Objet de la normalisation

L’objet de la normalisation est de permettre les échanges de données en altérant le moins possible leur signification et leurs caractéristiques. Pour être utilisable, une donnée géographique, qui décrit une portion de territoire, doit comporter quatre éléments distincts:
- des coordonnées qui permettent de situer les informations dans un système de référence connu,
- une nomenclature qui énumère les différents objets auxquels on s’intéresse,
- la " structuration " de ces objets, c’est-à-dire la description des liens qui peuvent exister entre certains d’entre eux, comme, par exemple, l’appartenance d’un bâtiment à une parcelle
- les caractéristiques de qualité de ces données.

Or, les formats informatiques de données des logiciels ne permettent pas de transmettre ces informations de façon satisfaisante, même si certains d’entre eux, très diffusés, peuvent être considérés comme des standards. A cela trois raisons :
ils dépendent de logiciels particuliers et n’offrent pas de garantie de durée et de rigueur,
aucun ne gère complètement les quatre caractéristiques de l’information géographique présentées précédemment,
ils ne s’appuient pas sur un vocabulaire commun.

Les différentes approches

L’information géographique est, pour une large part, issue de l’administration ou des services publics. Les stratégies nationales de normalisation sont donc fortement influencées par des aspects non techniques liés à l’organisation des pouvoirs publics.
Ainsi, suivant que l’on se trouve dans un pays où le cadastre a une vocation fiscale ou juridique, les flux d’informations géographiques générés sont très différents. Dans un système de cadastre juridique, chaque transaction d’achat ou de vente exige une validation des limites de l’objet de la transaction, ce qui conduit à une structure d’échange de " message ", assez courte mais fréquente, de type EDIFACT. Dans un système uniquement fiscal comme en France, ces échanges d’informations géographiques avec les utilisateurs n’ont lieu, au mieux, qu’une fois par an, lors de la mise à jour des données alphanumériques associées au plan cadastral. Il en résulte un concept d’échange par lots, auquel correspond en France la norme EDIGéO.

Par ailleurs, suivant que la responsabilité de la production d’information géographique est plus ou moins centralisée, le besoin de formaliser la description précise et stabilisée des produits cartographiques se fait plus ou moins pressant...
Enfin, l’échelle retenue pour la cartographie de base influe sur la complexité des fichiers à constituer. Plus l’échelle est grande et plus la représentation cartographie seule suffit à transmettre la totalité de l’information : une maison, un bâtiment, une voie, se reconnaissent à leurs formes et à leurs positions relatives. Mais à des échelles plus petites, les représentations cartographiques constituent des vues très généralisées et spécialisées d’entités généralement complexes : une zone urbanisée, un espace naturel, ... Une représentation cartographique particulière ne suffit plus à transmettre l’essentiel de l’information, il faut y adjoindre des indications relatives aux objets géographiques eux-mêmes, indépendamment de leur représentation.

Les normes

Étant par nature composites, les systèmes d’information géographiques mettent en œuvre des techniques et des compétences diversifiées (voir la fiche n° 48 Géomaticien un nouveau métier). Différents travaux de normalisation concernent de ce fait le choix et le développement d’un SIG : EDIGéO et la norme sur les métadonnées encadreront la constitution des bases de données, la construction du système d’information bénéficiera quant à elle des travaux effectués pour la norme ISO-SPICE. Enfin, la série des normes ISO 9000 a pour objectif d’améliorer la qualité du service ou de la production.
Cette liste n’est pas limitative. D’autres normes s’appliquent au développement des systèmes d’information et de la cartographie : spécifications garantissant l’ouverture des systèmes d’information, représentations cartographiques, etc. Leur intégration dans la pratique quotidienne les font oublier.
Des normes internationales sont également disponibles et peuvent concerner les maîtres d’ouvrage intervenant dans un contexte plus large.

La norme NF Z 52-000 ou norme EDIGéO

Caractéristiques

La norme EDIGéO est destinée à l’échange d’informations géographiques numériques sur support informatique entre des systèmes d’information géographique.
Ses objectifs sont :
d’optimiser l’efficacité et le volume des échanges de données géographiques numériques,
de réduire au strict minimum le coût financier de ces échanges,
d’être indépendant des systèmes d’information géographique.

Statut actuel

EDIGéO est aujourd’hui une norme NF. Publiée à titre expérimental en août 1992, la norme a été homologuée et a pris effet en juillet 1999.
La norme est complétée par une nomenclature générale des objets géographiques que publie le CNIG.
La norme EDIGéO est moins un « format » de données tel qu’on l’entend en informatique, qu’un ensemble de spécifications permettant de conserver la richesse d’un lot de données au cours d’un échange. De ce fait, un lot de donnés EDIGéO peut être échangé dans d’autres formats informatique que le format « texte ».

Etat d’intégration

- dans l’offre de données :
Les producteurs de données nationales intègrent la norme EDIGéO. Le Service du Cadastre l'a adoptée pour la mise en œuvre du plan cadastral informatisé. L’IGN propose également ses bases de données numériques dans ce format.
- dans l’offre logicielle :
La plupart des éditeurs de progiciels proposent des modules de conversion et d’acquisition ou d’exportation des lots de données au format EDIGéO.

Certification

Le CNIG a mis en place un dispositif de certification composé d’un comité technique et d’un laboratoire de tests pour :
vérifier la conformité physique et la conformité logique de fichiers d’échanges, c’est-à-dire le respect des règles de la norme,
attribuer un certificat de conformité.

Le comité technique n° 287 du Comité européen de normalisation

La diversité européenne

Pour les raisons indiquées précédemment, les points de vue nationaux des pays rassemblés au sein du " comité technique n° 287 " du Comité européen de normalisation sont très variés. Cela a conduit à définir des normes européennes plus " ouvertes ", permettant notamment de traiter tant des échanges de type " message " que des échanges par lots.
Si les normes diffèrent d’EDIGéO, c’est essentiellement par le langage adopté pour le codage, transcription qui pourra être largement automatisée. Par contre, leur structure est très proche de celle d’EDIGéO que l’on pourra assimiler à un sous-ensemble de ces normes.

Les différentes normes produites

Les normes européennes sont constituées d’un ensemble de huit normes :
    -Modèle de référence : description du domaine de l’information géographique ; identification des composantes à normaliser,
    -Description des données-Schéma spatial : géométrie des objets, relations spatiales entre les objets, liaisons avec les données non géométriques,
    -Localisation - Position : définition des concepts fondamentaux, système géodésique de référence et de leur mode de description (mais ne propose pas le choix d’un système particulier),
    -Localisation - Identificateurs géographiques : description des méthodes de documentation des identifiants géographiques - c’est-à-dire permettant de localiser des objets de position inconnue par rattachement à d’autres objets géographiques de position connue.
    -Qualité : modèle associant les principaux critères de qualité déjà définis dans EDIGéO : précision géométrique, précision sémantique, exhaustivité, ...
    -Métadonnées : liste ordonnée de " métadonnées " c’est-à-dire de " données sur les données ", à destination tant des producteurs que des utilisateurs, comprenant la classification des données, leur couverture géographique, des informations sur la qualité, la structure géométrique, et l’accès aux données.
    -Transfert : définition du schéma de transfert des données et des métadonnées, pour le transfert de fichiers, la messagerie ou le dialogue.
    -Requête et mise à jour : interface spécialisée entre deux systèmes d’information permettant à l’un de requérir des données de l’autre.

Avancement et perspectives

Ces projets de normes ont été adoptés en 1998.
En Décembre 1998, le CEN/TC 287 a constaté qu'il avait mené à bien son programme de travail initial et a décidé de suspendre ses travaux.

Pour se préparer aux normes européennes, il conviendra de :
mettre en place des formations ad hoc, y compris au langage adopté pour la norme, EXPRESS,
développer des " profils spécifiques " permettant l’emploi effectif de ces normes à caractère générique. En particulier, il faudra vraisemblablement définir un profil " cadastre ", un profil " collectivité locale ", un profil " environnement ", ... d'ores et déjà deux profils nationaux ont été définis pour les normes "métadonnées" et "qualité".
promouvoir la norme " métadonnées " et son profil national et inciter les principaux producteurs, établissements spécialisés et administrations, à documenter leurs données en respectant cette norme.

Le comité technique ISO 211

Une démarche de normalisation en information géographique s’est également engagée au niveau mondial au sein de l’ISO. Le programme de travail du comité technique 211 de l’ISO est beaucoup plus ambitieux que celuidu TC287 du CEN. Si il comprend comme celui-ci les aspects normatifs liés aux données, son programme prévoit également des normes liées aux systèmes d’information géographique et aux services. Si, pour les parties communes aux deux comités techniques, les normes européennes ont été utilisées comme l’une des bases des travaux de l’ISO, la prise en compte pour les autres thèmes des besoins ou des spécificités propres à l’Europe dépend fortement de l’implication des acteurs européens concernés.

Le consortium OGC

En parallèle à ces travaux des instances officielles, les principaux acteurs du marché se sont regroupés au sein du consortium OpenGis afin d’arriver à un consensus sur des normes communes d’interopérabilité.
La présence des leaders mondiaux en SIG et en informatique générale au sein de ce consortium implique que, si l’objectif de consensus est effectivement atteint, les normes produites par OGC deviendront de facto les standards du marché.
OGC a conclu en 1999 un accord de coopération avec l’ISO facilitant la reconnaissance officielle de ses travaux.

La norme expérimentale sur les métadonnées

Les métadonnées sont constituées par les caractéristiques techniques qui décrivent les données géographiques. Afin de faciliter la constitution des dossiers décrivant les données, une norme expérimentale a été proposée au niveau européen : la norme européenne XP ENV 12567.
La norme propose une série de descripteurs comme : l’Identification du lot (Titre du lot, Version), l’Aperçu du lot (Résumé, Producteur, Type de schéma spatial, etc.), la Qualité du lot (Généalogie : Fournisseur Date de production, Source, Date de validité : durée de vie), Qualité, (Précision, Exhaustivité), etc.
La réflexion sur la meilleure façon de décrire les données a donc été effectuée et les maîtres d’ouvrage en tireront parti. Il pourront s’appuyer sur les travaux du CETUR qui met à la disposition des utilisateurs, une application leur permettant de constituer leurs métadonnées en base de données.

La série des normes ISO 9000

Les normes de la série ISO 9000 rassemblent de nombreux textes normatifs et pédagogiques publiées à partir de 1994. Une modernisation de ce référentiel a été produite en 2000.
Cette normalisation a pour but de promouvoir la qualité dans la production des biens et service en recherchant notamment la satisfaction de l’utilisateur final (client), la clarification des responsabilités dans le fonctionnement des processus de production des biens ou services, et une gestion explicite de la recherche de la qualité.
Les normes ISO 9000 cherchent en premier lieu à décrire l’organisation du travail en termes de processus de production, avec l’intention de les conforter, d’en garantir l’efficacité et la stabilité.
De ce fait, le maître d’ouvrage du SIG tirera bénéfice d’un recensement des processus de production qui composent on activité.
La norme ISO/SPICE décrite ci-dessous est une application aux processus de production des système d’information de la série ISO 9000-2000

La norme XPISO/CEI TR 15504 ou norme ISO/SPICE

L’efficacité d’un système d’information repose pour une part sur la qualité de ses processus de gestion. Le référentiel ISO/SPICE décrit les composants majeurs du management de ces processus.
Il offre un cadre conceptuel à l’organisation d’un système d’information en distinguant, par exemple, trois catégorie de processus
    -les processus organisationnels : pilotage (management), infrastructure, amélioration des processus, formation,
    -les processus de base : acquisition, fourniture, développement, exploitation, maintenance,
    -et les processus de support : documentation, gestion de configuration, assurance de la qualité, vérification, etc.
Tous les processus référencés ne concernent pas les maîtres d’ouvrages d’un SIG à un niveau égal, car certains, comme le processus « développement » ne concernent, en principe, que les éditeurs de progiciels.
Mais dans l’ensemble, la norme apportera un guide utile au maître d’ouvrage.

Pour en savoir plus :

    -Normalisation :

AFNOR
TOUR DE L’EUROPE
92049 PARIS LA DEFENSE CEDEX
Téléphone : 01.42.91.55.34

    -Nomenclature et certification :

CNIG
Téléphone : 01.43.98.83.12

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

#60 Mon 14 January 2008 17:01

CNIG
Participant actif
Date d'inscription: 8 Dec 2007
Messages: 143
Site web

Re: CNIG : fiches d'aide à la maitrise d'ouvrage

Série 2002
Fiche n° 54 : Décision interministérielle du 19.02.01

Décision interministérielle, approuvée par le Premier ministre, diffusée le 19 février 2001

Le député Guy Lengagne, dans le cadre de l'investigation que lui avait confiée le Premier ministre pour actualiser les missions de l'IGN, a proposé un ensemble de mesures nouvelles. Son rapport, intitulé « Les perspectives d’évolution de l’information géographique et les conséquences pour l’IGN » a été remis au Premier ministre en septembre 1999 (cf fiche 33). Le ministère de l'équipement, des transports et du logement a été chargé d'instruire ses propositions. A cette fin, cinq groupes de travail ont été créés afin de déterminer les modalités pratiques de mise en oeuvre des propositions Lengagne. Le projet résultant des travaux menés a ensuite fait l'objet de consultations interministérielles et a abouti à la décision interministérielle, faisant l'objet de la présente fiche, approuvée par le Premier ministre et diffusée le 19 février 2001.

Le contenu de cette décision constitue le document cadre orientant la géomatique publique en France pour les prochaines années (contenu sur www.cnig.gouv.fr).

Cette décision comprend neufs points, tous importants, mais qui, ici, sont présentés en trois groupes :

- la constitution du référentiel aux grandes échelles (RGE),
- les recommandations concourant ou complémentaires à la réalisation du RGE,
- les recommandations concourant au développement du secteur de l'information géographique.

La constitution du RGE

La décision de réaliser un référentiel aux grandes échelles devant couvrir toute la France d’ici 2007 est la principale mesure prise par la décision interministérielle du 19 février. Le RGE doit contenir des objets géographiques cohérents entre eux, et notamment :

- une composante orthophotographique couleurs,
- une composante topographique,
- une composante parcellaire,
- une composante « adresse » destinée à la localisation des informations connues par leur adresse postale.

Le contenu de ce référentiel doit être simple, son accès doit être aisé tant techniquement que financièrement et quel qu'en soit l'usage. Il couvrira le territoire national d'ici la fin des contrats  Etat-Région du XIIe plan.

Ce référentiel aura une précision de 1 m environ, et de quelques dm dans les zones urbaines denses.

Le RGE sera réalisé par intégration de données pouvant ne pas toutes être produites par l’IGN, comme par exemple les données cadastrales qui continueront à être produites par la DGI (service du cadastre). Une mission d’intégration, nouvelle, est confiée à l’IGN. Elle est explicitée au paragraphe suivant.

La mise à jour de ce référentiel sera effectuée sur un rythme annuel. Pour les informations qu'il produit, l'IGN devra mettre en place un système de recueil et de gestion de façon à ce qu’un objet ne donne lieu qu'à une opération de collecte unique, quel que soit le produit dans lequel cet objet apparaît.

Mesures complémentaires à la réalisation du RGE

Elles sont au nombre de quatre, et décrivent successivement :

- l'actualisation des missions de l'IGN,
- la nécessaire coopération entre IGN et la DGI,
- le contrat d'objectifs pluriannuel de l'IGN,
- le rôle du CNIG.

Missions de l'IGN

Les missions actuelles sont confirmées : établissement, tenue à jour, édition et diffusion de données géographiques, de cartes topographiques de base et de cartes dérivées, exécution des travaux pour le ministère de la défense.

De plus, afin de permettre la mise en oeuvre du RGE, une nouvelle mission d’intégrateur est confiée à l'IGN pour les données géographiques de référence, et quel qu'en soit le producteur. Il apparaît en effet que plusieurs composantes du RGE, par exemple les adresses ou le parcellaire et le bâti, ne seront pas produites par IGN, tout en constituant des composantes essentielles du RGE.

Au delà du RGE, et afin de faciliter le développement de secteur privé de l'information géographique, il est prévu que l'IGN donne aux éditeurs ou producteurs d'application la liberté d'accès aux bases de données numériques des référentiel aux différents échelles, aux mêmes conditions financières que celles qu'il s'applique en interne. Cette condition s’étend aux productions cartographiques des entreprises privées, qui devront toutefois être démarquées de celles de l'IGN.

Coopération IGN - DGI

La direction générale des impôts en charge du cadastre contribuera à l'élaboration et à la mise à jour du RGE par la fourniture de données contenues dans le plan cadastral : parcellaire et bâti. A cette fin, la DGI et l'IGN entreprendront une collaboration qui n'affectera en rien les missions actuelles de la DGI ( cadastre) et n’en transférera aucune partie à l'IGN.

La convention cadre conclue entre l'IGN et la DGI (elle a été signée fin février 2001), définit les modalités techniques, juridiques et financières de la fourniture à l’IGN par la DGI des données cadastrales numérisées.

L’intégration de ces données dans la composante parcellaire du RGE sera effectuée par l’IGN, qui réalisera d’abord une phase méthodologique (2001), puis lancera une production pilote sur la Région de l’Ile de France d'ici la fin 2002. Le territoire national devra être couvert avant 2007.

L'IGN réalisera la meilleure continuité possible de données transmises par la DGI (cadastre) et assurera la cohérence de ces données avec les autres composantes du RGE.

La DGI (cadastre) transmettra également à l’IGN les informations de mise à jour pour le parcellaire et le bâti, qui les intégrera dans le RGE.

Contrat d'objectif pluriannuel de l'IGN

La préparation du prochain contrat d'objectifs de l'IGN devra s'assurer de la priorité donnée à la réalisation du RGE. Également, IGN devra veiller au développement rapide des sociétés du secteur géographique. Un suivi comptable sera mis en place à cet effet.

Rôle du CNIG

Le CNIG devra associer les utilisateurs et producteurs de données tant publics que privés pour contribuer à une expression cohérente des besoins en matière information géographique. La décision interministérielle lui demande également de participer au suivi de la mise en oeuvre du RGE. Cette expression des besoins ne se limite pas aux spécifications de contenu mais englobe les aspects légaux, économiques et conditions d’usage du RGE.

De plus, le CNIG précisera les besoins des utilisateurs sur deux domaines particuliers, le référentiel grandes échelles dans les zones urbaines denses et la composante « adresse » du RGE.

Mesures complémentaires

Elles sont au nombre de quatre et concernent la recherche et la formation, la politique européenne, l'information géographique comme outil de modernisation des services de l'état, et le conseil d'administration de l'IGN.

Recherche et formation

Trois axes de progrès sont identifiés :

- constitution d'un réseau de recherche et d'innovation technologique, à créer en concertation avec le ministère de la recherche. Il devra susciter l'innovation dans le secteur économique de l'information géographique,

- examen de la faisabilité et des modalités pratiques de création d'un pôle national de formation de haut niveau, sous l'égide de l'école nationale des sciences géographique, en collaboration avec les autres établissements d'enseignement public spécialisés du secteur (ESGT, ENSAIS, ESTP, école nationale du cadastre, CNFPT),

- poursuite avec le ministère de l'éducation nationale des actions et expérimentations milieu scolaire et universitaire. Une convention entre les deux parties organisera notamment l'accès aux bases de données et aux cartes de l'IGN à des fins pédagogiques.

Politique européenne

Le point principal est l’expression du soutien aux programmes européens visant à rendre interopérables les données publiques de référence, en particulier les applications liées au projet Galiléo et celles concourant au développement d'une composante géographique de la défense européenne. Par extension, il faudra sans doute inclure GMES et d’autres projets de la Commission comme contexte à prendre en compte.

L'information géographique, outil de modernisation de l'état

Il est demandé aux principaux ministères utilisateurs de préparer un schéma directeur permettant de développer l'accès, le partage et l'usage de l'information géographique. Le ministre de la fonction publique et de la réforme de l'état rendra compte au Premier ministre de l'avancement de ces démarches. A ce jour, seulement trois ministères ont semble-t-il initialisé une telle démarche (METL, MAP, MATE).

Conseil d'administration de l'IGN

La principale modification proposée est la composition du conseil. Il est chargé de l’élaboration et du suivi de la politique de l’Institut et devra dorénavant comprendre des représentants des collectivités locales afin de mieux prendre en compte, dans sa politique, les enjeux locaux en matière information géographique.

Impact

Cette décision interministérielle, si elle est prise en compte par les professionnels de l’information géographique, demande à être largement diffusée au sein des ministères utilisateurs. Il est par exemple essentiel que dans le cadre de l’application de la loi SRU, élaboration de SCOT, de PLU et de CC, ou dans le cadre de la PAC, les conséquences e la création du RGE  soient intégrées aux réflexions techniques des ministères. Compte tenu des échéances différentes qui ne permettent pas l’utilisation du RGE non encore réalisé, il est nécessaire de prendre les dispositions transitoires permettant de rendre ultérieurement les informations produites superposables au RGE.

Le CNIG dans sa mission d’accompagnement vigilant du RGE veille à ce que les dispositions prises n’injurient pas l’avenir.

Des commentaires ou des suggestions à cette fiche ?


Fichier(s) joint(s) :
Pour accéder aux fichiers vous devez vous inscrire.

Hors ligne

 

Pied de page des forums

Powered by FluxBB