L'évolution de la Technologie


LES SYSTÈMES OUVERTS SONT LE FUTUR DE LA VIDÉOSURVEILLANCE


Depuis les années 80 l'informatique a évolué en suivant la logique des systèmes ouverts, selon quelques principes simples qui ont permis la percée de la mini-informatique et de la micro-informatique en substitution des systèmes centraux dits "propriétaires".

Basés sur les standards par opposition aux systèmes propriétaires, le système opératoire Unix et le protocole de communication IP se sont imposés en permettant l'interopérabilité de machines construites par une grande diversité de constructeurs.

Trois principes majeurs définissent les systèmes ouverts :

  • L'interopérabilité est la capacité d'un système à coopérer avec d'autres systèmes basés sur le même standard.

  • La portabilité est la capacité d'un système à s'exécuter sur des plateformes matérielles de différentes natures.

  • La scalabilité est la capacité d'un système à croitre sans subir de modifications de son mode opératoire

La vidéosurveillance est devenue depuis 2000 une application particulière de l'informatique et les principes élémentaires des systèmes ouverts s'appliquent à cette discipline :

  • L'interopérabilité est nécessaire afin que les systèmes indépendants puissent coopérer et que la centralisation de la surveillance puisse être envisagée.

  • La portabilité est nécessaire afin qu'un grand nombre d'équipements de profils différents issus de constructeurs variés puissent coopérer au sein d'un même système.

  • La scalabilité est nécessaire afin que l'accroissement du nombre de caméras ne nécessite pas d'aménagements particuliers et n'impose pas de surcoûts particuliers.

Si tcp-ip a été le standard clef pour le développement des systèmes ouverts informatiques en réseaux, séparant en 7 couches de l'International Standard Organisation (ISO) les étapes des échanges entre deux machines, le MPEG-4 AVC ou H264 représente l'aboutissement des efforts de la communauté scientifique en matière de compression et de transmission de vidéo entre des machines.

MPEG-4 AVC représente l'effort de standardisation autour duquel se concentre toute l'industrie de la vidéo, le broadcasting (TNT), la TV sur IP, la vidéo de salon (Blue Ray), la vidéoconférence et bien sûr la vidéosurveillance.

Pour autant, la vidéosurveillance en réseaux nécessite avant tout le maintient opérationnel d'un réseau de transport IP approprié et sa supervision. Il est donc important de prendre la mesure de l'importance de la gestion du réseau et de son administration au sein du système global de vidéosurveillance.

CINQ DIMENSIONS DE LA VIDÉOSURVEILLANCE SUR IP

Les capteurs : caméras et encodeurs numériques


L'industrie de la vidéosurveillance a utilisé les standards de la vidéo et les formats associés depuis ses prémices. Le signal analogique d'une caméra était originellement transporté sur un réseau câblé, affiché sur des moniteurs dédiés et enregistré sur des magnétoscopes à bande.

L'évolution des systèmes de vidéosurveillance a été guidée par trois nécessités majeures :

1) accroitre l'échelle des réseaux

2) stocker davantage de vidéo

3) multiplier les postes de consultation

Pour satisfaire ces objectifs, l'industrie a tout d'abord utilisé la fibre optique pour le transport du signal vidéo, en lieu et place du réseau câblé. Elle a aussi défini des enregistreurs dits "numériques" pour remplacer les magnétoscopes à bande. Mais la multiplication des postes de contrôle est restée un problème difficilement soluble sans augmenter fortement les coûts.

L'utilisation d'un réseau informatique en lieu et place d'un réseau analogique câblé ou fibre représente une opportunité de répondre à l'ensemble de la problématique en minimisant les coûts de déploiement.

Afin de profiter pleinement des réseaux informatiques et du fameux protocole universel IP, il est nécessaire de numériser le signal à la source pour ne transporter que des informations binaires. La numérisation du signal vidéo est couteuse en temps de calcul et en bande passante réseau. Très rapidement, la question de la compression de la vidéo numérisée a été posée.

Des boîtiers spécialisés appelés encodeurs ont été produits afin de numériser, compresser et transmettre les signaux vidéo compressés sur les réseaux IP.

Grâce à la miniaturisation, les boîtiers ont pu être directement intégrés dans des blocs optiques et l'industrie a fourni une nouvelle génération de caméras conçues pour être utilisées en réseau IP, les caméras dites IP, autonomes, à ne pas confondre avec les webcams qui se greffent sur un PC pour fonctionner.

Le standard de compression d'image JPEG a été utilisé dans les premiers "encodeurs" et les premières caméras IP.

Rapidement, les travaux issus des efforts de standardisation en distribution de contenus vidéo grand-public (DVD) ont été utilisés en vidéosurveillance. Le format de compression standardisé MPEG-2 disponible sur les DVD et déjà utilisé pour la transmission de signaux télévisés numériques a été mis à profit.

Le comité technique MPEG, créé dés 1988 a été force de proposition et a rallié l'industrie de la vidéo numérique autour de deux standards historiques. Le MPEG-1 utilisé sur les vidéo disques puis le MPEG-2 des DVD.

Le MPEG-3 n'a jamais vu le jour mais le MPEG-4 s'est rapidement imposé dans les équipements de vidéo grand public en remplacement du MPEG-2 qu'il est en passe d'éclipser totalement à présent.

Un autre organe de normalisation a largement contribué à la standardisation en compression vidéo, il s'agit du VCEG, groupe d'étude issu de l'Union Internationale des Télécommunications (ITU). VCEG a été à l'origine des protocoles de vidéoconférence H261 et H263. La dernière évolution du standard MPEG-4, le H264 (ou MPEG-4 part. 10 ou MPEG-4 AVC) constitue une fusion des travaux de MPEG et VCEG regroupé sous le sigle JVT (Joint Video Team).

Aussi il est logique que l'industrie de la vidéosurveillance adopte aujourd'hui le MPEG-4 AVC, dans la continuité de son rôle de suiveur de l'industrie de la vidéo.

Au plan de la compression, du transport et du stockage de la vidéo il est donc hautement probable que les solutions d'avenir seront établies sur ce standard.

H264 représente l'aboutissement des travaux de normalisation. Astucieusement, il spécifie en détail (539 pages pour MPEG-4 Visual ou Part. 2 (1999) et 250 pages pour H264 ou Part. 10 (2003) comment un décodeur de vidéo doit fonctionner mais ne donne pas d'indication quand à la réalisation d'un encodeur.

Ainsi l'objectif du standard est bien d'établir une compatibilité de fonctionnement entre les algorithmes de compression/décompression (CODECS) de vidéo de différents constructeurs et de différentes machines.

Les tests d'interopérabilité entre CODECS (échanges de fichiers entre développeurs de codecs différents) sont considérés comme une façon appropriée de tester et d'identifier une grande variété de problèmes potentiels. Il est à noter que des organismes industriels comme ISMA (Internet Streaming Alliance) et M4IF (MPEG-4 Industry Forum) promeuvent activement les tests d'interopérabilité. Depuis 2008 se sont cependant développés sur ce plan des groupes industriels de normalisation spécialisés indépendant des groupes de normalisation initiaux[1].

Qualités essentielles à rechercher dans un codec


L'organisation indépendante MPEG Industry Forum propose aux développeurs les outils nécessaires pour construire leurs codecs et gère les licences liées aux différents brevets qui jalonnent le développement du MPEG-4.

Les constructeurs d'équipement et éditeurs de logiciels compatibles avec le standard MPEG-4 sont répertoriés sur le site de MPEGIF.

Cependant, si tous à priori respectent les contraintes d'interopérabilité, chaque codec se distingue par ses critères de performance propres. En vidéosurveillance, les trois critères fondamentaux à surveiller sont la qualité d'image, la latence de compression et la bande passante consommée sur le réseau.

Il faut minimiser le débit sur le réseau pour optimiser la capacité d'extension du système et minimiser les coûts de stockage et de transport.

Au plan de la qualité d'image il n'existe cependant aucun outil normalisé pour la déterminer totalement et le jugement des utilisateurs reste le meilleur indicateur. Dans un processus vidéo, il est important de noter que la qualité d'image tient non seulement dans la qualité intrinsèque de chaque image, telle qu'elle peut être extraite du flux vidéo et considérée comme une image fixe, mais aussi dans la qualité du flux lui-même, c'est-à-dire dans la capacité du codec à générer le nombre d'images par seconde qui est exigé, dans une qualité constante.

Un certain nombre de séquences de test permettent de jauger la capacité d'un codec à générer un flux de qualité.

Les réseaux de transport du signal

Initialement on utilisait le réseau câblé télévisé fermé (CCTV), pour transporter le signal de chaque caméra vers un organe de commutation et de combinaison appelé matrice, en charge de le redistribuer vers les moniteurs de contrôle et les enregistreurs.

La matrice était l'organe essentiel du système de vidéosurveillance analogique. Ses coûts d'extension sont souvent rédhibitoires et l'échelle des systèmes qu'elle peut gérer est limitée. En passant sur des réseaux IP, la nécessité d'utiliser un organe central faillible ne s'impose plus. C'est le réseau qui est utilisé pour assurer la commutation des flux vidéo depuis les caméras vers les moniteurs et les enregistreurs. Sur IP, la taille du système de vidéosurveillance est virtuellement illimitée. La nature même du réseau est variable, il peut être construit sur du câble Ethernet, de la paire cuivrée téléphonique utilisée en haut débit (sDSL), des signaux hertziens (jusqu'à 40 Kms en portée optique), des fibres optiques, de la 3G mobile etc. Bien sûr, il est nécessaire de prendre en compte le débit et la qualité de service que le réseau est capable de proposer et d'adapter en conséquence les caractéristiques d'encodage de la vidéo[2].

Sur le plan des usages, le recours au réseau IP transforme en profondeur l’outil vidéosurveillance. Il en multiplie les caméras et les postes de visionnage sans nécessiter l’ajout d’équipements centraux. Il étend aussi l’utilisation de la vidéosurveillance aux nouveaux réseaux mobiles de données qui atteignent déjà les débits suffisants pour transporter la vidéo d’une caméra par ligne.

Ces nouvelles capacités réseaux, combinées avec les usages décrit au paragraphe I.2.2 « Les mutations de la vidéo et l’acceptation du grand public », constituent des opportunités d’enrichir la trousse à outil de la vidéoprotection, notamment pour le déploiement d’équipements temporaires.

Les enregistreurs

Initialement l'enregistrement des flux vidéo était effectué sur des magnétoscopes à bande. La durée enregistrable était faible et la qualité d'image (VHS) pauvre.

L'enregistreur numérique (Digital Video Recorder) est apparu avant la généralisation de l'utilisation d’IP comme réseau de transport. Il s'agit d'un ordinateur doté de disques de grande taille et d'un logiciel d'archivage et de consultation.

L'enregistreur dispose d'un certain nombre d'entrées vidéo sur lesquelles se branche les câbles qui apportent les signaux analogiques.

La numérisation du signal est effectuée sur l'enregistreur, soit par un logiciel, soit par une carte d'acquisition spécialisée.

Dans ce schéma, le signal est transporté au format analogique. Il n'est numérisé que pour être enregistré. Les DVR ne sont pas adaptés à une utilisation en réseau IP, sauf pour leur consultation.

La génération des enregistreurs dits "en réseau" (Network Video Recorders) a été conçue pour enregistrer des flux vidéo déjà numérisés et transportés via un réseau IP.

Il s'agit de serveurs informatiques équipés d'un logiciel d'enregistrement qui organise l'enregistrement des flux vidéo en faisant appel au système de gestion de fichiers du système opératoire.

Ils ne sont pas limités par le nombre d'entrées vidéo puisqu'ils reçoivent les flux vidéo par leur carte réseau. Il est donc important de bien définir leur puissance de calcul et leur mémoire en fonction du nombre de caméras simultanées qu'ils doivent enregistrer.

Le standard MPEG-4, comme son prédécesseur MPEG-2 spécifie le format d'enregistrement de la vidéo (en se basant  sur le format quicktime d’Apple) mais chaque constructeur complète ce format pour faciliter la recherche de scènes et optimiser la rapidité d'accès aux enregistrements[3].

Les enregistreurs sont un élément clef de l’architecture d’un système de vidéoprotection. Concentrant les flux d’images de nombreuses caméras, ils doivent être placés dans le réseau en fonction de la bande passante disponible. L’arrivée sur le marché des disques flash (sans partie mécanique) va inciter les constructeurs à proposer des caméras équipées de capacités de stockage, introduisant un degré de liberté supplémentaire dans le choix de l’emplacement de stockage. Néanmoins cette dernière solution comporte un risque important de perte des enregistrements.

L’évolution des systèmes d’enregistrement de vidéo


Nous verrons au chapitre consacré à l’analyse vidéo quelle importance revêt maintenant l’automatisation de la détection de situations et d’événements.

Au niveau de l’enregistrement, il est tout d’abord fondamental que les événements soient enregistrés de manière synchronisée avec la vidéo, afin de permettre de retrouver simplement les séquences concernées. Ensuite il est important de remarquer que si les systèmes d’analyse vidéo peuvent être utilisés en direct pour assister à la prévention des situations anormales, ils peuvent aussi être utilisés a posteriori lors de la recherche d’évidences. Il est donc important que les enregistreurs vidéo soient optimisés pour l’analyse vidéo. Il y a une double problématique à ce niveau, celle de l’indexation, qui sera résolue par l’introduction de systèmes de gestion de bases de données dans les processus d’enregistrement, puis celle du format qui nécessitera d’enrichir les flux vidéo enregistrés avec des métadonnées structurées de type XML. C’est l’une des pistes essentielles du groupe de normalisation AFNOR FVN lancé fin 2008.

Les systèmes opératoires et les logiciels de supervision


Dans le système de vidéosurveillance sur IP, le transport de flux vidéo est assuré par le réseau. Le logiciel intervient à deux niveaux :

  1. organiser les caméras et les enregistreurs, les sites surveillés et les opérateurs de surveillance

  2. permettre l'exploitation selon l'organisation définie.

On compte donc à minima trois  types d'intervenants sur le système :

  1. L'ingénieur système en charge du réseau et des serveurs physiques (machines). Il pourra utiliser un logiciel de supervision de réseau pour détecter les défaillances des serveurs ou des logiciels.

  2. L'administrateur de vidéoprotection, en charge de la définition des droits d'accès des opérateurs, le paramétrage des codecs, le paramétrage des fonctions de détection, le paramétrage des enregistrements, la préparation des affichages, la définition des procédures d'alarme, l'export des preuves

  3. L'opérateur de vidéoprotection utilise les affichages définis, réagit aux alarmes

Les constructeurs de codecs fournissent en général des systèmes opératoires faciles à mettre en œuvre et optimisés pour leur codec à l’exclusion de tous les autres.

Par opposition il existe un petit nombre d’éditeurs de logiciels qui développent des systèmes complexes compatibles avec le plus grand nombre de codecs.

Globalement, l’industrie évolue en intégrant progressivement la détection d’intrusion et le contrôle d’accès au système de vidéoprotection qui devient l’application fédératrice. Ainsi a émergé peu à peu la notion de système « hyperviseur » capable d’agglomérer l’information en provenance des différents systèmes de sûreté, le contrôle d’accès, l’alarme intrusion, la vidéosurveillance et par extension, la gestion technique centralisée des bâtiments.

Les systèmes d'analyse et de détection : MPEG-7 ?


L'évolution vers l'augmentation de la résolution d'image et l'analyse en temps réel, l'informatisation totale et la convergence vers les réseaux IP ont transformé la vidéosurveillance et contribuent à en faire une industrie du logiciel. Néanmoins, à présent que sont résolus et standardisés les opérations traditionnelles, des besoins nouveaux doivent être pris en compte pour améliorer l'efficacité des systèmes de vidéoprotection. Il s'agit principalement des problèmes de reconnaissance et d'analyse d'image, de comportement et de situations, qui nécessitent des résolutions d'images supérieures à celle utilisée jusque là[4].

Là encore, l'industrie multimédia et vidéo grand public a déjà progressé en normalisant le HDTV sur la base de 1080 lignes par 1920 colonnes. La dernière génération de caméscopes Full HD utilise déjà le codec AVC HD dans cette résolution d'image de 2 Méga-pixels et propose d'ailleurs conjointement le stockage de la vidéo sur disque dur ou carte mémoire intégré au caméscope au lieu de la bande magnétique mini-DV. Certains constructeurs fournissent déjà des outils de recherche de scène avec une capacité de reconnaissance de visages pour aider au classement des séquences vidéo.

Ces avancées laissent présager les prochaines évolutions dans le domaine de la vidéoprotection. Disposer de résolutions d'images supérieures va ouvrir la voie vers une analyse d'images plus précise et de meilleures capacités de reconnaissance.

L'augmentation de la capacité de calcul des processeurs embarqués dans les encodeurs et les caméras IP, (qui double chaque année selon la très fameuse loi de Moore) nous promet de pouvoir disposer au niveau de chaque capteur vidéo d'une capacité de détection et de reconnaissance qu'il faudra savoir intégrer au système de vidéoprotection et notamment enregistrer, afin d'indexer la vidéo enregistrée et d'aider à la recherche de scènes. C'est là tout le sens du standard MPEG-7 qui concerne l'indexation de la vidéo et non plus sa compression. MPEG-7 définit une syntaxe basée sur le langage XML pour caractériser la vidéo et l'audio et retrouver facilement des passages semblables en formulant des requêtes basées sur la couleur, la forme, les mouvements ou le son.

MPEG-7 s'intègre nativement dans un système utilisant MPEG-4 pour fournir les outils de recherche de séquence les plus efficaces. Il prend pleinement en compte la gestion des objets visuels du MPEG-4 qui facilite considérablement l'analyse des scènes.

Une étude très complète des techniques de vidéosurveillance intelligente a été réalisée au sein de la Commission Nationale de Vidéoprotection [5] ainsi qu’au Centre de Recherche Informatique de Montréal (CRIM), au Canada[6]. Mais dans ce domaine pourtant en évolution forte depuis 10 ans aucune solution réellement efficace ne satisfait pour l’instant les utilisateurs. Comme pour l’intelligence artificielle dans les années 80, on attend beaucoup de la machine qui est dénuée du bon sens le plus élémentaire. Néanmoins la recherche de solutions continue [7] car l’analyse vidéo est une technologie indispensable dans la levée de doute assistée par ordinateur[8] .

DEMAIN : MPEG-21 ?

La vidéosurveillance a largement bénéficié des travaux de normalisation de l'industrie du multimédia et de la vidéo. Les standards de compression MPEG-4 et d'indexation MPEG-7 seront vraisemblablement au cœur des systèmes logiciels de vidéosurveillance en réseau dans un futur proche. Pour l'instant, le logiciel opératoire de vidéosurveillance n'est pas normalisé et l'industrie de la vidéosurveillance gravite autour de deux types d'acteurs : d'une part des constructeurs de caméras et codecs qui fournissent leur propre logiciel opératoire, d'autre part des éditeurs de logiciels qui tentent d'être compatibles avec le plus grand nombre de codecs. Pourtant le comité MPEG a fait abstraction de ces rivalités commerciales et a déjà tracé les grandes lignes que devront respecter les systèmes de gestion et d'utilisation de biens numériques en définissant le standard MPEG-21. Comme pour MPEG-4, la vidéosurveillance n'utilisera qu'un sous-ensemble réduit de recommandations pour satisfaire à son cahier des charges, mais l’ensemble des entités et des notions qu’elle manipule fait déjà partie du MPEG-21.

MOUVEMENTS DE STANDARDISATION EN MARCHE


Force est de constater que les standards MPEG-7 et MPEG-21, issus de l’industrie audiovisuelle ne font pas encore l’objet d’implémentations concrètes dans l’industrie de la sécurité. Même si l’on a basculé de manière évidente dans l’informatisation massive de la sécurité électronique, les mouvements de standardisation indispensables dans le domaine de la vidéo grand public (caméscopes, télévision, vidéo de salon) ont une portée moindre dans le marché de la sécurité où les utilisateurs acceptent souvent de faire installer une solution propriétaire où même « sur mesure » à condition qu’elle remplisse le cahier des charges.

Dans l’écosystème de la vidéosurveillance, les intérêts des constructeurs de caméras, des éditeurs de logiciel et des utilisateurs ne sont pas forcément convergents et le manque de normalisation intervient comme le sable dans les rouages du développement de la vidéosurveillance et notamment dans le développement des systèmes Massivement Multi-Caméras (M2C) comme ceux qui protègent les réseaux de transports publics. Quand on opère un réseau de 10 000 caméras, la dépendance vis-à-vis de tel ou tel constructeur ou éditeur représente un risque majeur qui ne peut être éludé.

Les choix techniques de la SNCF sont par exemple « historiquement » non interopérables avec les systèmes déployés par exemple à la RATP et si l’on considère dans son ensemble le développement du « Réseau National Français de Vidéoprotection» incluant l’ensemble des caméras [9] installées en espace public et transport, ce qui représente environ 20 000 caméras dans les espaces publics et collectivités et 75 000 caméras dans les transports publics on constate une grande disparité qui rend difficile le travail de requête de preuves de la police judiciaire et impossible le recoupement informatique. A l’inverse, il pourrait être argué que le maintient d’une certaine confidentialité autour des interfaces informatiques qui permettent au logiciel d’exploitation de vidéosurveillance de visionner les caméras et les enregistrements, gagnent à ne pas être dévoilées, qu’ainsi la « sécurité du système » s’en trouve améliorée, etc. Ces arguments d’un autre âge ont été largement utilisés par les industriels de l’alarme [10] qui ont tenté de « verrouiller leur marché » en utilisant des protocoles de communication « propriétaires » que seuls les télésurveilleurs professionnels arrivaient à interpréter grâce à de coûteux investissements en équipements frontaux de communication. Nous vivons maintenant à l’heure d’Internet et tous les protocoles de communication sont aujourd’hui bâtis sur le fameux protocole de contrôle de transport (TCP). Ce qui fait la sécurité d’un système, ce n’est sûrement pas sa dépendance vis-à-vis d’un constructeur que les lois implacables du capitalisme boursier peuvent décapiter sans vergogne, mais avant tout la sécurité du réseau informatique qui le supporte. La dépendance du constructeur est à classer parmi les risques essentiels qui pèsent sur un utilisateur. Il faut donc faire dialoguer entre eux des industriels fournisseurs de parties de la solution pour se protéger contre l’hégémonie des marques et leur fragilité.

Emergence des groupes de normalisation


PSIA, ONVIF, AFNOR FVN

Les difficultés rencontrées par les éditeurs de logiciel d’exploitation de vidéosurveillance ont conduit comme souvent dans les technologies de l’information, à la constitution de groupes de normalisation incluant des constructeurs de caméras, de codecs et des éditeurs de logiciel. Ces groupes formés de manière opportuniste au gré des affinités de partenariat conduisent souvent à l’élaboration de produits qui peuvent devenir des standards de fait si ils sont adoptés en masse sur leur marché. Dans le domaine de la vidéo analogique, les standards qui gouvernaient l’affichage des images sur les écrans télévisuels avaient ainsi émergé de part et d’autre de l’Atlantique dans les années 50. Ils s’appelaient National Television System Committee (NTSC) du coté Américain et japonais, Phase Alternative Line (PAL) en Allemagne, Australie et Asie, Séquentiel Couleur A Mémoire (SECAM) en France, dans quelques pays Africains, dans l’ex-URSS et les pays du Moyen-Orient.

Dans le domaine numérique, si la compression est mondialement normalisée par les comité MPEG, les problématiques de transmission de flux (streaming, de découverte automatisée et de gestion d’équipements, de gestion d’alarme, d’événements et d’étiquetage vidéo (Metadata) ainsi que de commande de visionnage des caméras (commande des flux, déplacement des caméras motorisées, zoom) sont longtemps resté tributaires de l’arbitraire des constructeurs.

Depuis 2008 néanmoins, on a observé la formation de deux groupes de travail industriels nord américains ayant des visées normalisatrices pour l’industrie de la vidéosurveillance sur IP. Il s’ agit de Open Network Video Industry Forum (ONVIF) et Physical Security Interoperability Alliance (PSIA). Aujourd’hui, la quasi majorité des constructeurs et éditeurs majeurs de l’industrie adhèrent à PSIA ou ONVIF. ONVIF a été lancé par les constructeurs Axis Communication, Robert Bosch et Sony et  représente près de 72% du marché de la vidéosurveillance[11]. PSIA est pour l’instant moins représentatif, bien que ses membres fondateurs CISCO et PELCO (racheté en 2009 par le français Schneider Electric[12]) soient chacun les champions de leurs marchés respectifs, mais dispose d’une avance sur le plan de la technologie informatique d’interfaçage. Il utilise en effet une architecture technique d’échange de données moins contraignante et plus ouverte que celle adoptée par ONVIF qui est fortement teintée par Microsoft et utilise un protocole d’échange plus lourd [13]. Ces groupes de travail élaborent des interfaces informatiques normalisées entre caméras et logiciels. Ils garantissent aux constructeurs et aux éditeurs de logiciel que, s’ils sont compatibles avec leurs recommandations, leurs produits fonctionneront ensemble sans qu’ils aient besoin de développer une relation technique particulière. Pratiquement, le gain de temps pour les constructeurs et les éditeurs est immense. A terme, on peut prévoir un rapprochement des deux spécifications et en tous cas, l’adhésion des constructeurs et éditeurs majeurs aux préconisations des deux groupes de travail.

En France la démarche de normalisation a été coordonnée par Thalès, historiquement très présent au sein des comités de normalisation internationaux JPEG et MPEG et a démarré en septembre 2008 sous le patronage du Ministère de l’Intérieur. EADS, SAGEM et THALES ont parrainé la création de cette initiative dont la vocation est la constitution d’une norme Française reconnue par l’Organisation des Standards Internationaux (OSI) notamment dans le cadre du forum sur la sécurité sociétale. Le groupe de travail appelé ISO/TC 223 a pour objectif de prendre en compte les métadonnées essentielles (localisation, date, alarmes,…) dans le respect des règlementations concernant la vie privée, pour la mise en place d’une norme spécifiant l’interopérabilité minimum nécessaire pour l’exploitation des enregistrements de vidéoprotection. La démarche de normalisation se veut progressive et basée sur les résultats de recherches et les projets déployés sur le territoire Français. Des correspondants dans les groupes de travail ONVIF et PSIA ont été identifiés et le travail de normalisation devrait prendre en compte les travaux réalisés outre atlantique.

[1] Ces groupes  sont décrits en détail au chapitre « Mouvements de standardisation en marche» p. 32

[2] Le standard MPEG-4 définit dans sa partie six MPEG-4 Part. 6 un protocole optionnel de gestion de session, mais les données vidéo peuvent aussi être transmises en utilisant le protocole standard RTP pour gérer les données sous forme de paquets utilisables avec le protocole UDP. Si la livraison des paquets n'est garantie, comme dans l'utilisation de TCP, UDP est mieux adapté aux contraintes de latence du temps réel.

[3] Dans un enregistrement MPEG-4 on peut enregistrer de façon synchronisée le son et la vidéo.

[4] La résolution maximale normalisée en MPEG-4 Part 2 est de 704x576 pixels soit 0,5 Méga-pixel par image

[5] Note technique : la vidéosurveillance intelligente, juillet 2008

[6] La vidéosurveillance Intelligente, promesses et défis. Valérie Gouaillier, CRIM, 2009

[7] Note technique  « La vidéoprotection Intelligente », Ministère de l’Intérieur, de l’Outre-mer et

des collectivités  locales, 1 er  juillet 2008

[8] Le home office a mis au pont une librairie de vidéos de test destinées à tester les algorithmes d’analyse vidéo (Imagery Library for Intelligent Detection Systems)

[9] Estimations communiquées par M. Philippe Melchior et reprises dans le rapport n° 131 du Sénat par MM. Courtois et Gautier

[10] Les constructeurs d’équipements de télésurveillance se sont groupés au sein du Groupement des Industries des Matériels Electroniques de Sécurité (GIMES). Les Télésurveilleurs sont plutôt représentés au sein du Groupement Professionnel des Métiers de la Sécurité Electronique (GPMSE) ou de l’Association des Métiers de la Sécurité (ADMS)

[11] Selon les analystes de IMS Research dans le communiqué de presse ONVIF du 21 avril 2010

[12] Annoncé dans le communiqué de presse de Pelco du 1er aout 2007 repris par Le Figaro dans son édition électronique du 14 octobre 2007

[13] ONVIF utilise le protocole SOAP et la méthode de découverte WS Discovery de Microsoft. PSIA utilise l’architecture REST et est compatible avec les protocoles de découverte d’Apple (bonjour) et le protocole UpNP.

Aucun commentaire:

Enregistrer un commentaire