Cartes d'acquisition

3.4046035805524 (1955)
Posté par rachel 04/04/2009 @ 17:11

Tags : cartes d'acquisition, matériel, informatique, high-tech

Dernières actualités
A Panizzo (lefigaro.fr) - Le Figaro
Mais certains analystes justifient cette progression boursière par la piste d'une offre d'acquisition sur le groupe. En janvier dernier, Palm a crée la surprise en présentant au salon Consumer Electronics Show de Las Vegas son tout dernier smartphone...
L'IGNORANCE, SOURCE DES MAUX - L'Expression
Les opportunités d'acquisition du savoir sont prodigieuses. Cela donne du sens à la vie individuelle et collective. Généralement, un master de l'Université ouverte de Catalogne est formé par 2 postgraduations, à la fois constituées par plusieurs...
CO2 : des primes à la bonne conduite - La Tribune.fr
Enfin, les voitures rejetant moins de 60 g/km de CO2 ont droit à un bonus maximal de 5.000 euros, ce dernier ne pouvant toutefois pas excéder 20 % du coût d'acquisition TTC du véhicule. Des dispositions particulières existent pour aider à la promotion...
La virtualisation réduit les coûts informatiques... sous conditions - ZDNet
L'avantage ne se fait pas au niveau du coût d'acquisition, quasiment équivalent à celui d'une architecture faite de serveurs physiques. Une entreprise ne doit pas penser qu'elle va y gagner sur le prix d'achat. La virtualisation n'est pas un...
Les MacBook deviennent pro et l'autonomie fait un grand bond en avant - 01net
... peu gênante en cas d'acquisition d'une source audio analogique, une prise cela-dit de plus en plus marginalisée par l'utilisation massive de l'USB. Un modèle d'entrée de gamme sans carte graphique dédiée (donc moins cher), une meilleure autonomie,...
Wi2Wi annonce un nouveau module GPS : le W2SG0006 qui réduit de 30 ... - Vnunet.fr
Avec son courant de fonctionnement faible (de seulement 30 milliampères), son temps d'acquisition de position ultra rapide, sa mémoire vive auxiliaire pour sauvegarde de position, son encombrement réduit et sa haute sensibilité de réception,...
Les archéologues rentrent la mémoire au musée - Sud Ouest
La commission d'acquisition des collections déterminera si ce lot peut rejoindre les réserves du futur musée. En 2008, deux diagnostics et une fouille préventive ont été menés à bien, cette année sont programmés les diagnostics des rues Chanzy et du...
Les communiqués de presse Business Wire - Vnunet.fr
Les processeurs Six-Core AMD Opteron tirent parti de la plateforme d'infrastructure existante ainsi que d'une architecture mémoire économique et hautement performante, ce qui aide à réduire les frais d'acquisition du système....
Vos idées de sorties sur : dunkerque@lavoixdunord.fr - La Voix du Nord
Présentation des principales acquisitions d'arts graphiques depuis 2004 ; doté d'un des plus grands cabinets d'arts graphiques d'Europe, le LAAC a fait des dessins et des photographies l'une des priorités de sa politique d'acquisition depuis la...

Accélération matérielle

L'accélération matérielle consiste à confier une fonction spécifique effectuée par le processeur à un circuit intégré dédié qui effectuera cette fonction de façon plus efficace.

Pendant longtemps, les calculs effectués par les ordinateurs grand public étaient entièrement pris en charge par le processeur central (CPU). Or ce processeur s'avérait insuffisant dans un certain nombre de domaines. On eut l'idée de créer des circuits plus efficaces que le processeur pour ces tâches afin de le décharger.

On parle d'accélération matérielle puisqu'elle est obtenue par le câblage matériel des calculs à effectuer, et non de manière logicielle, où un processeur généraliste suit un programme logiciel. Par abus de langage, on dit parfois que les calculs sont câblés matériellement.

L'accélération matérielle est souvent utilisée à travers des pilotes spécifiques, par exemple via Glide, OpenGL, Direct3D.

Les jeux vidéo en 3D temps réel ont largement contribué à l'augmentation de besoin de puissance de l'informatique grand public par des cartes spécialisées.

Il s'agit d'accélérer le traitement des opérations en virgule flottante. C'est historiquement la première fonction à avoir été accélérée. Les unités de calcul en virgule flottante (Floating Point Unit ou FPU en anglais) étaient d'abord séparés du processeur mais sur la carte mère. Par la suite, ils ont été intégrés au processeur, ce qui est le cas de tous les processeurs récents.

Les cartes accélératrices 3D sont de plus en plus sollicités par les programmes, et leurs concepteurs poussent souvent la capacité de ces composants au point de nécessiter un système de refroidissement spécifique. La plupart des jeux 3D récents sont accélérés 3D, sauf Outcast, exception notable car basé sur une technologie ne permettant pas encore l'accélération (voxels).

Historiquement, c'est le premier système vendu en carte spécifique (cartes Voodoo, de 3dfx).

L'accélération physique simule les phénomènes physiques, surtout mécaniques, comme les déplacements et collisions entre solides, et la gravité. Les circuits réalisant ces fonctions sont des Physics Processing Unit ou PPU.

Ces cartes peuvent effectuer des tâches liées à la compression/décompression de flux vidéo comme MPEG ou Xvid. Ce type d'accélération peut se retrouver dans des cartes accélératrices 3D ou dans des cartes d'acquisition vidéo (Firewire).

Certaines cartes sonores sont capables d'effectuer des tâches de traitement de signal grâce à des processeurs de signal numérique (Digital Signal Processor ou DSP en anglais) intégrés. Ces traitements permettent notamment d'ajouter des effets comme des échos, de la réverbération.

L'emploi des shaders 2.0 et suivants permet de considérer le processeur graphique (Graphical Processing Unit en anglais) comme un coprocesseur programmable multi usages et massivement parallèle.

En haut



LabVIEW

Copie d'écran d'un programme (VI) LabVIEW. Chaque élément représente une routine, un appel à un sous programme LabView ou un contrôle en face avant.

LabVIEW est un logiciel de développement d'applications de la société américaine National Instruments basé sur un langage de programmation graphique appelé langage G.

Les domaines d'application traditionnels de LabVIEW sont la commande et la mesure à partir d'un PC (acquisition de données, contrôle-commande d'instruments de mesure, de dispositifs expérimentaux, de bancs de test). Cette vocation est consacrée par des bibliothèques de fonctions spécialisées (GPIB, VXI, PXI, cartes d'acquisition DAQ, traitement de données...), mais aussi par les particularités du langage G (parallélisme inhérent à l'exécution par flux de données) et de l'environnement de développement (pilotes de périphériques standards, assistants pour l'installation du matériel).

Le concept d'instrument virtuel qui a donné son nom à LabVIEW (Laboratory Virtual Instrumentation Engineering Workbench), se manifeste par la permanence d'une interface graphique pour chaque module (fonction) d'un programme. Les contrôles et les indicateurs de ce panneau avant constituent l'interface par laquelle le programme interagit avec l'utilisateur (lecture de commandes et de paramètres, affichage des résultats). Les fonctions de contrôle-commande de cartes ou d'instruments constituent l'interface par laquelle le programme interagit avec le montage.

Un programme LabVIEW permet donc d'automatiser un montage associant plusieurs appareils programmables, et réunit l'accès aux fonctionnalités de ce montage dans une interface utilisateur unique, véritable face avant d'un instrument virtuel.

Pour le développeur, un programme en langage G se présente comme un schéma, le diagramme, réunissant différentes icônes reliées par des fils de couleur. Chaque fil symbolise le passage d'une donnée depuis une source dont elle sort (comme résultat), vers une cible où elle entre (comme paramètre).

Les diagrammes du langage G ont donc une signification bien différente de celle des schémas électroniques qu'ils évoquent parfois. Dans un diagramme LabVIEW, la donnée ne transite dans le fil qu'au moment où elle est générée par son icône source. L'icône cible ne commencera son exécution que lorsque toutes ses données d'entrée seront disponibles. Ce modèle d'ordonnancement par flots de données détermine l'ordre d'exécution des traitements du programme. Une conséquence importante de cette règle est que les traitements qui n'échangent pas de données sont libres de s'exécuter en parallèle. Cette propriété du langage G facilite le développement d'applications multiprocessus, particulièrement intéressantes dans le cadre du contrôle de systèmes réactifs (embarqués ou non).

La conception des programmes en langage G conserve une approche essentiellement procédurale. Mariée à l'exécution par flots de données, cette approche procure de bons résultats dans le domaine de l'instrumentation. Elle est aussi la plus intuitive pour des ingénieurs ou des chercheurs souvent plus familiers des protocoles expérimentaux que des concepts informatiques.

Le support d'une conception orientée objet sous LabVIEW s'est développé de façon plutôt confidentielle avec tout d'abord le kit "GOOP" proposé par une société suédoise dès 1999, puis avec un support des notions de classe et d'héritage au sein même de l'environnement de développement 8.20, en 2006.

Créé par Jeff Kodosky et présenté pour la première fois sur Macintosh en 1986, LabVIEW a étendu son usage au PC et à divers systèmes d'exploitation (Microsoft Windows, UNIX, Linux, Mac OS...), ainsi qu'aux PDA sous Palm OS et Pocket PC sous Windows Mobile. Il s'est également développé en direction des systèmes embarqués et temps réel, en s'ouvrant par exemple à la programmation de circuits intégrés (FPGA).

En haut



Numériscope

Boîtier TiVo

Un numériscope est un enregistreur vidéo personnel de télévision (en anglais Personal Video Recorder ou PVR).

Parmi les successeurs du magnétoscope à bande magnétique et à la différence du DVDscope (enregistreur DVD) ou de l'enregistreur Bluray, le PVR est dit « intelligent » car il intègre un logiciel de navigation et de gestion des enregistrements censé faciliter son utilisation.

Les deux premiers numériscopes largement diffusés en 1998 (d'abord aux États-Unis puis en Europe, mais officiellement absents du marché français) sont TiVo et ReplayTV.

Lors de leur introduction sur le marché américain, leur acquisition nécessite la souscription d'un abonnement à un service. Désormais, ces équipements sont commercialisés indépendamment des offres de télévision payante. Le guide des programmes est régulièrement et gratuitement mis à jour via les signaux de télédiffusion (données EPG) soit via les services Télétexte soit dans le flux numérique retransmis pour la TNT, la télévision par satellite, le câble numérique, l'ADSL ou la TMP.

La première gamme de numériscopes grand public commercialisée en France est apparue en 1999 avec les démodulateurs numériques à disques dur (Nokia, Technisat, Echostar) « copiés » par les éditeurs de bouquets satellite payants à compter de 2002 avec le lancement du terminal Platinium de TPS puis le Pilotime de CanalSat.

Une génération intermédiaire incluant des sorties HDMI pour téléviseur HDTV mais sans capacité à lire des programmes en HD est sortie à l'hiver 2005. La génération suivante (automne 2008) inclus l'enregistrement de programmes HDTV.

Le premier « Numériscope » de masse en France est le terminal Freebox-HD, par l'opérateur DSL Free (Iliad) mis en circulation à partir de 2006.

La différence majeure par rapport à un magnétoscope ou à un DVDscope concerne l'emploi instantané et simplifié que permet le numérique : visionner n'importe quel film enregistré et stocké sur le disque dur, accéder directement à tel ou tel chapitre, utiliser les fonctions avance et retour rapide jusqu'à + ou - 256 fois la vitesse normale, supprimer ou « zapper » la publicité, etc...

Cet équipement bouleverse la « consommation » de télévision, car il permet de totalement se libérer de la programmation en direct de la télévision pour regarder les programmes selon ses propres disponibilités horaires. Le « téléconsommateur » fabrique et visionne sa propre programmation télévisuelle.

Les modèles les plus évolués « apprennent » les goûts du téléspectateur au fil de ses sélection et lui suggèrent le visionnage ou l'enregistrement de ses types d'émissions préférées (selon les critères : types de programme, acteur, réalisateur, genre, etc...).

Sous réserve de ne pas dépasser la capacité du disque interne (sauf à rajouter un disque externe), le numériscope permet d'enregistrer à volonté de façon parfaitement improvisée et directe. Il intègre une indexation pour faciliter la recherche des séquences enregistrées, identifiables par son nom et par une « vignette » de la première image du programme. Pour les modèles dotés de la connectique compatible, il est possible d'y raccorder un graveur DVD et de libérer ainsi l'espace disponible sur le disque interne. Toutefois, cette sauvegarde externe peut être rendue impossible par une protection numérique anti-copie (exemple : Macrovision).

Un enregistrement numérique est composé de données chiffrées. Les logiciels qui le gèrent comprennent la correction d'erreur (y compris en temps réel), ce qui permet de déceler des imperfections ou une altération et d'alerter l'utilisateur afin procéder à une sauvegarde externe ou un transfert de données vers un nouveau disque (ou un DVD). De plus, la copie externe peut s'effectuer à vitesse accélérée (par exemple 16 fois la vitesse nominale ou lecture en temps réel), permettant par exemple la sauvegarde externe en moins de 10 minutes d'un film d'une heure trente sur un DVD vierge.

Par opposition à un enregistrement analogique, cette transcription n'entraîne aucun risque de dégradation de qualité. Toutefois, dans chaque opération de transfert numérique (informatique), il existe un risque de perte de données. Le taux de ces erreurs ne doit pas dépasser un certain seuil au delà duquel, l'enregistrement est irrémédiablement perturbé voire illisible (absence d'image, rupture du code temporel, données corrompues...).

Le logiciel de fonctionnement (Système opérationnel) de l'appareil peut être automatiquement mis à jour par les signaux numériques qu'il capte (télédiffusion) ou via Internet.

Les contenus, fiches d'information et données additionnelles peuvent être mis à disposition via Internet en P2P. Des communautés d'internautes peuvent également bénéficier de ces données selon leur intérêt (exemple : les membres d'une famille, associations, fanclubs...). Ce dispositif répond à la nécessité de conservation des œuvres. En étant réparties sur le Net, la multiplicité des copies limite les risques de déperdition totale, en particulier pour les œuvres « mineures » ou ancienne. Toutefois, cette sauvegarde ne saurait rivaliser avec la performance des systèmes professionnels broadcast ou de restauration exploités par les éditeurs de télévision et les organismes d'archivage, tels que l'INA en France.

Le support de stockage le plus fréquent pour les VPR est le disque dur, identique à ceux qui équipent les ordinateurs personnels. En 2008, les capacités les plus courantes s'élèvent entre 160 Go (gigaoctets) et 500 Go. Chaque gigaoctet permet de stocker entre 15 à 90 minutes d'enregistrement (vidéo + audio) selon la qualité d'image choisie (la basse résolution nécessitant peu d'espace à l'opposé de la HD laquelle nécessite de très gros fichiers).

Avec l'émergences des restrictions d'accès (DRM et de contrôle d'accès) ou d'anti-copie (Macrovision), les fonctions de recopie voire d'enregistrement au mode numérique sont parfois rendues impossibles à partir des sources telles que récepteurs satellite (Canalsat), TNT ou encore câble. De même, les opérateurs xDSL qui diffusent des chaînes de télévision et des services de Vidéo à la demande, sont amenés à verrouiller l'enregistrement ou la copie des programmes auxquels leurs clients sont pourtant abonnés. Ces verrouillage sont généralement imposés par les grands studios de cinéma (major companies) pour privilégier la vente et la location de DVD ou de BluRay. Ainsi, il est parfois possible de sauvegarder sur le disque dur interne du numériscope mais il est ensuite impossible d'en graver une copie sur un disque (DVD).

Un micro-ordinateur équipé des périphériques nécessaires (carte d'acquisition vidéo, carte de réception télévision, disque dur, carte vidéo et audio reliables à un téléviseur ou à un ensemble home cinéma), de processeurs adéquats, de mémoire vive suffisante, peut se transformer en numériscope, après installation d'un logiciel spécialisé. Les spécialistes le décrivent alors comme un HTPC.

Le logiciel libre MythTV est un exemple d'un HTPC. Il permet en outre de gérer une ou plusieurs cartes d'acquisition vidéo, de programmer des émissions à enregistrer et de procéder à la détection automatique des publicités télévisées. D'autres logiciels commerciaux ou gratuits, tels que VLC player, Replay TV, SageTV et Windows MCE offrent des fonctionnalités similaires.

En haut



Caméscope

Caméscope Sony D8/Digital8

On nomme caméscope un appareil électronique portatif permettant d'enregistrer des images et du son sur un même support. Il combine donc les fonctions d'une caméra vidéo avec celles d'un magnétoscope, d'où son nom, mot-valise de ces deux termes. Il s'agit d'une évolution technologique par rapport à la génération précédente qui faisait appel à deux appareils distincts.

On peut distinguer les caméscopes numériques des caméscopes analogiques.

Ces dernières années, la part de marché des modèles numériques a été en constante augmentation grâce à l'arrivée de produits plus abordables et de bonne qualité, jusqu'à supplanter presque totalement les modèles analogiques.

Certains caméscopes numériques équipés de la fonction "path through" permettent l'acquisition directe de films au format PAL depuis un caméscope analogique sur un ordinateur (pour une qualité supérieure à la plupart des cartes d'acquisition grand public).

Les séquences enregistrées par un caméscope numérique peuvent être très facilement transférées vers un ordinateur équipé d'une prise IEEE 1394 (appelée également FireWire ou i.Link), ce qui ouvre la voie au montage vidéo en utilisant un programme approprié (qui est parfois vendu en même temps que le caméscope). Le transfert s'effectue à la vitesse de 1x, ce qui signifie qu'une séquence de x minutes demandera exactement x minutes pour passer d'un appareil à l'autre.

Certains modèles sont équipés d'une prise USB, et sont reconnus par les ordinateurs comme disque dur externe.

Il existe plusieurs supports d'enregistrement et autant de formats. Consulter la page vidéo pour avoir plus d'informations. Les caméscopes les plus récents sont également capables d'enregistrer sur des supports plus innovants tels que des mémoires flash ou des disques durs (en MPEG, MPEG-2 ou MPEG-4) ou directement sur un DVD (soit DVD-RAM, soit DVD-R) en MPEG-2.

Ces appareils sont le plus souvent sans fil à l'inverse des webcams.

Le Mini DV, avec ses cassettes de très petite taille permet aux constructeurs de créer des caméscopes encore plus petits et plus légers, ce qui contribue à son succès auprès de beaucoup d'amateurs. La fin des années 90 verra aussi la commercialisation du Digital 8 (version numérique du Video 8) qui connu nettement moins de succès que le Mini DV.

En haut



Final Cut Pro

Final Cut Pro est un logiciel de montage virtuel édité par Apple.

Développé à l'origine par la firme Macromedia, il a été racheté par Apple en 1998, ce qui lui a évité une disparition certaine. Après refonte complète et appui marketing, Apple en a fait un outil considéré aujourd'hui comme incontournable pour les monteurs vidéo sur Macintosh. Ce logiciel ne fonctionne que sur le système Mac OS X.

Ce logiciel est de qualité professionnelle et fait à ce titre concurrence aux solutions d'Avid Technology, bien que celles-ci restent le choix prioritaire pour les productions importantes.

Final Cut Pro a apporté dans le monde du montage virtuel une nouveauté toute simple à ses débuts : le montage en DV natif; en connectant simplement un câble IEEE 1394 sur le connecteur FireWire de l'ordinateur, il était alors possible de récupérer une vidéo au format numérique, pour la monter sans aucune perte ni transformation.

Au fur et à mesure de l'évolution du logiciel, Final Cut a intégré la gestion d'autres interfaces, entre autres les cartes d'acquisition vidéo. Proposées par des constructeurs tiers, ces cartes permettent de capturer un signal analogique ou numérique non comprimé (SDI), et de le travailler avec Final Cut - ou toute autre application compatible QuickTime. La première de ces cartes fut la RTMac proposé par Matrox. Dans le monde professionnel, la référence des cartes d'acquisition pour FCP est la gamme DeckLink de Black Magic, également compatible avec Windows.

And All That Could Have Been, Live de Nine Inch Nails a été entièrement monté sous Final Cut Pro.

La dernière version de Final Cut Pro (6) offre une meilleure intégration avec les autres applications professionnelles d'Apple. De plus, cette version supporte mieux les différents formats vidéo: HD, DV et SD. Une nouvelle technologie appelée Dynamic RT Extreme, qui permet de traiter des effets en temps réel.

Final Cut Pro inclut aussi Compressor 2, une application qui permet la compression des fichiers vidéo aux formats MPEG-1, MPEG-2 pour DVD, QuickTime .mov, MPEG-4, MPEG-4 H.264, et aussi, à des formats propriétaires d'éditeurs tiers, comme Windows Media.

LiveType 2, livré aussi avec Final Cut Pro, permet de créer des titres animés qui peuvent être incorporés dans le montage.

Final Cut Pro fait maintenant partie de la suite Final Cut Studio de Apple avec DVD Studio Pro, Motion et Soundtrack Pro.

En haut



Video4Linux

Video4Linux ou V4L est une API vidéo pour Linux. Video4Linux est intégré dans le noyau Linux.

V4L est une couche abstraite entre les logiciels de vidéo et les périphériques vidéo. Il permet notamment la capture de flux vidéos et d'images en provenance de caméscopes numériques, de cartes d'acquisition vidéo, de tuners TV et radio, de webcams etc.

Il existe 2 versions de l'API, Video4Linux (dans les anciens noyaux 2.2, 2.4 et 2.6) et plus récemment Video4Linux2, évolution majeure en standard dans les noyaux Linux 2.6.

En haut



Système d'information géographique

Un système d'information géographique (SIG) est un outil informatique permettant d'organiser et présenter des données alphanumériques spatialement référencées, ainsi que de produire des plans et cartes. Ses usages couvrent les activités géomatiques de traitement et diffusion de l'information géographique. La représentation est généralement en deux dimensions, mais un rendu 3D ou une animation présentant des variations temporelles sur un territoire sont possibles.

Le rôle du système d'information est de proposer une représentation plus ou moins réaliste de l'environnement spatial en se basant sur des primitives graphiques telles que des points, des vecteurs (arcs), des polygones ou des maillages (raster). À ces primitives sont associées des informations attributaires telles que la nature (route, voie ferrée, forêt, etc.) ou toute autre information contextuelle (nombre d'habitants, type ou superficie d'une commune par ex.).

L'information géographique peut être définie comme l'ensemble de la description d'un objet et de sa position géographique à la surface de la Terre.

En France, où il existe un Conseil National de l'Information Géographique (CNIG, présidé par Jacques Lagardère), dans son acception courante, le terme fait référence aux outils logiciels. Cependant, le concept englobe l'ensemble constitué par les logiciels, les données, le matériel et les savoir-faire liés à l'utilisation de ces derniers. On peut aussi parler de système d'information à référence spatiale (SIRS) pour les données et leur structuration. L'acronyme SIT (système d'information sur le territoire) est aussi utilisé dans quelques pays francophones. Enfin, les sigles BDU (banque de données urbaine), voire BDT (banque de données sur le territoire), plus anciens, peuvent se rencontrer ici et là.

On cite souvent comme première application des SIG l'étude menée avec succès par le docteur John Snow pendant l'épidémie de choléra dans le quartier de Soho à Londres en 1854 : ayant représenté sur un plan la localisation des malades et l'endroit où ils puisaient leur eau, il détermina que c'était l'eau d'un certain puits qui était le foyer de contamination. On peut faire du SIG sans ordinateur.

Le développement des SIG dans la science et l’aménagement du territoire a été permis par l'avancée de la technologie informatique, et encouragé par prise de conscience environnementale et de nouvelles approches scientifiques transdisciplinaires, intégratrices. Depuis les années 1970, notamment depuis le sommet de la Terre à Rio de Janeiro en 1992 qui a généré une demande croissante de cartes présentant l'état de l'environnement et utiles pour mesurer les impacts du développement.

Elles sont la base des SIG. Les données géographiques sont importées à partir de fichiers ou saisies par un opérateur. Voir le paragraphe suivant.

Le traitement des données se fait à l'aide des logiciels sur un ordinateur. Des systèmes client-serveur en intranet, extranet voire via Internet facilitant ensuite et de plus en plus la diffusion des résultats.

Un SIG fait appel à une connaissance technique et à divers savoir-faire et donc divers métiers qui peuvent être effectués par une ou plusieurs personnes. Le « sigiste » doit mobiliser des compétences en géodésie (connaissance des concepts de système de référence et de système de projection), en analyse des données, des processus et de modélisation (analyse Merise, langage UML par exemple), en traitement statistique, en sémiologie graphique et cartographique, en traitement graphique. Il doit savoir traduire en requêtes informatiques les questions qu'on lui pose.

Comme tous les utilisateurs de SIG ne sont pas forcément des spécialistes, un SIG propose une série de boîtes à outils que l’utilisateur assemble pour réaliser son projet. N’importe qui peut, un jour ou l’autre, être amené à utiliser un SIG. Cela dit, on ne s'improvise pas géomaticien : une bonne connaissance des données manipulées et de la nature des traitements effectués par les logiciels permet seule d'interpréter convenablement la qualité des résultats obtenus.

Les SIG ont comme limites la pertinence, la richesse, et l'occurrence de mise à jour de leurs bases de données, mais aussi parfois les restrictions d'accessibilité ainsi que les droits d'auteur sur certaines données et informations qui peuvent empêcher la diffusion de cartes, ou empêcher leur réalisation pour les travaux partageant les données de plusieurs SIG. L'accessibilité peut également souffrir de mesures prises pour protéger des entités particulières lorsque la taille de l'échantillon est trop petite (secret statistique), ou par la présence sur une couche de données d'informations stratégiques et/ou protégées. Enfin certaines requêtes demandent un temps ou une puissance de calcul non disponibles.

Une autre limite est la lisibilité : pour ne pas trop charger la carte, les croisements d’informations ne peuvent guère dépasser 3 ou 4 variables par carte. Au-delà, il faut faire plusieurs cartes, ou, si les variables sont nombreuses, et pour ne pas être submergé par une multitude de cartes, s’orienter vers des techniques de représentation sur un graphe unique comme l'Iconographie des corrélations.

Il s'agit de données associées à un objet ou une localisation géographique, soit pour décrire un objet géographique, soit pour localiser des informations : nom d'une route, type d'un bâtiment localisé par son adresse, nombre d'habitants d'un immeuble localisé par ses coordonnées Lambert, débit d'un cours d'eau, tension d'une ligne de transport d'énergie, type d'arbres dans un verger localisé par sa parcelle, etc. Les données attributaires sont reliées à la géométrie de l'objet.

À l'heure actuelle, aucun SIG ne gère complètement les polyèdres, ou volumiques. Dans le meilleur des cas, celui des logiciels dits 2D½, à un point (x,y) peut être associé une cote (z) et une seule.

Un système de coordonnées terrestres (sphérique ou projectif) permet de référencer les objets dans l'espace et de positionner l'ensemble des objets les uns par rapport aux autres. Les objets sont généralement organisés en couches, chaque couche rassemblant l'ensemble des objets homogènes (bâti, rivières, voirie, parcelles, etc.).

Un des avantages des SIG est que les relations entre les objets peuvent être calculées et donner naissance à des points d'intersection. C'est la topologie. Ceci permet d'éviter la répétition d'objets superposés. Une parcelle bordant une route aura les mêmes sommets que ceux définis pour la route.

Le géo-référencement est la technique de mise en relation organisée des objets géographiques et des données attributaires. Il suppose la mise en place dans le SIG d'un système de repérants normés, dont le rôle est l'équivalent des dépendances fonctionnelles dans les bases de données relationnelles. Ainsi des données alphanumériques, issues de fichiers externes au SIG lui-même, pourront être croisées avec les informations géographiques du SIG, donnant lieu à des usages de géoanalyse.

C'est pourquoi toute source de données géographiques ne se limite pas à son contenu attributaire et géographique, mais est accompagnée d'informations caractérisant la source elle-même, c'est-à-dire de données sur les données (on les appelle métadonnées).

L'ensemble de ces informations doit pouvoir être facilement accessible et partageable par tous les acteurs intervenant à quelque niveau que ce soit dans le cycle de vie des données au sein de l'organisation. La définition d'un porte-feuille de métadonnées (registre de métadonnées) reste un enjeu pour toute organisation qui fait de son SIG une pièce importante de son activité, et ce qu'elle soit fournisseur de données ou simple utilisatrice.

Afin de faciliter les échanges de métadonnées, elles peuvent être structurées en fonction de la norme ISO 19115. Ce travail de normalisation devrait permettre la constitution de grands annuaires de données géographiques, qui permettront une utilisation optimale de ces dernières.

Ceci devrait permettre des utilisations interdisciplinaires améliorées, par exemple dans le domaine santé-environnement et écoépidémiologie, ou du développement durable ou de la prospective.

Le monde des SIG est en pleine évolution, on utilise ces systèmes dans un ensemble de domaines qui ne cesse de s'accroître tout comme le nombre de personnes qu'il emploie. Les architectes des SIG se nomment des géomaticiens. Qui sont-ils ? Quelles compétences sont nécessaires pour ce type d'emploi?

La géomatique est un mélange de géographie et d'informatique, une mise en valeur cartographique de concepts spatialisables, c'est l'acquisition et la gestion de données ainsi que l'analyse de concepts ayant une base géographique mais qui appartiennent à de nombreux domaines. Le géomaticien se doit donc d'avoir des connaissances dans tous ces domaines. Ces géomaticiens sont généralement formés à plus de 40% en géographie. Les autres champs d'études sont, bien entendu la géomatique, mais aussi la biologie et la cartographie pour ne nommer que les plus importants. Les emplois se trouvent en majorité dans les domaines de l'aménagement du territoire/urbanisme, les études environnementales, les études sociales (géo-marketing, politique), l'agriculture et la cartographie. Les emplois se trouvent pour la plupart dans le domaine public sans toutefois mettre de côté le domaine privé. Les géomaticiens sont donc des travailleurs aux multiples talents évoluant dans différents domaines reliés d'une quelconque façon à l'espace et au territoire.

Elle offre également la possibilité de composer en fonction de ses besoins une carte informative à partir des 320 couches mises à disposition. Visitez la rubrique SIG-Var de la DDEA du Var.

En haut



Source : Wikipedia