Biométrie

Discussion dans 'Bibliothèque Wladbladi' créé par titegazelle, 19 Février 2013.

  1. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113



    Biométrie


    Le mot biométrie signifie «mesure + vivant» ou «mesure du vivant», et désigne dans un sens très large l'étude quantitative des êtres vivants. Parmi les principaux domaines d'application de la biométrie, on peut citer l'agronomie, l'anthropologie, l'écologie et la médecine.

    L'usage de ce terme se rapporte de plus en plus à l'usage de ces techniques à des fins de reconnaissance, d'authentification et d'identification, le sens premier du mot biométrie étant alors repris par le terme biostatistique.


    Différentes significations

    Étude quantitative des êtres vivants

    Durant tout le XX[SUP]e[/SUP] siècle, le mot «biométrie» a été utilisé quasi exclusivement dans le sens très large de l'étude quantitative des êtres vivants, notamment à l'aide des méthodes statistiques. C'est dans cette optique que la revue Biometrika paraît depuis 1901 et que la Biometric Society (Société internationale de Biométrie) a été fondée en 1947.
    On peut mentionner aussi les revues Biometrics Bulletin (devenue Biometrics) et Biometrische Zeitschrift (devenue Biometrical Journal), lancées respectivement en 1945 et 1959, ainsi que l'existence d'un nombre important de sociétés et groupes nationaux de biométrie.


    Identification des personnes
    Depuis le début du XXI[SUP]e[/SUP] siècle, le mot «biométrie» est utilisé également dans le sens plus restrictif de l'«identification des personnes» en fonction de caractéristiques biologiques telles que les empreintes digitales, les traits du visage, etc.

    Informations complémentaires
    En anglais, la distinction entre les deux acceptions du mot biométrie est parfois faite en utilisant respectivement biometry dans le premier cas et biometrics dans le deuxième cas. Dans le premier cas, le mot biostatistique (en anglais : biostatistics) est aussi considéré dans une certaine mesure comme équivalent de biométrie, en particulier dans le domaine médical.

    On pourrait ajouter qu'au cours du XIX[SUP]e[/SUP] siècle, le mot biométrie avait déjà été utilisé, sans réelles bases scientifiques, dans l'optique de la recherche des "vibrations vitales", en vue de mesurer des degrés de vie, de santé et de maladie.


    Identification des personnes

    Analyse morphologique

    L'analyse morphologique peut se pratiquer avec les empreintes digitales, l'iris, les réseaux veineux de la rétine, les réseaux veineux de la paume de la main, la morphologie de la main, le poids, ainsi qu'avec les traits du visage.
    Les deux moyens biométriques principaux sont les empreintes digitales et l'iris :

    Les empreintes digitales
    Une empreinte digitale est le dessin formé par les lignes de la peau des doigts, des paumes des mains, des orteils ou de la plante des pieds. Ce dessin se forme durant la période fœtale. Il existe deux types d’empreintes : l'empreinte directe (qui laisse une marque visible) et l'empreinte latente (saleté, sueur ou autre résidu déposé sur un objet). Elles sont uniques et immuables, elles ne se modifient donc pas au cours du temps (sauf par accident comme une brûlure par exemple). La probabilité de trouver deux empreintes digitales similaires est de 1 sur 10 puissance 24. Les jumeaux, par exemple, venant de la même cellule, auront des empreintes très proches mais pas semblables.

    Elles sont composées, de façon rudimentaire, de terminaisons en crêtes, soit le point où la crête s’arrête, et de bifurcations, soit le point où la crête se divise en deux. Le noyau est le point intérieur, situé en général au milieu de l’empreinte. Il sert souvent de point de repère pour situer les autres minuties. D’autres termes sont également rencontrés : le lac, l’île, le delta, la vallée, la fin de ligne… Ces caractéristiques peuvent être numérisées. Une empreinte complète contient en moyenne une centaine de points caractéristiques mais les contrôles ne sont effectués qu'à partir de 12 points. , il est quasiment impossible de trouver 2 individus présentant 12 points caractéristiques identiques, même dans une population de plusieurs millions de personnes.


    Reconnaissance de l’iris
    La reconnaissance de l'iris est une technique de biométrie permettant reconnaitre une personne par l'observation de son iris. Il ne faut en aucun cas la confondre avec la rétine, autre moyen biométrique, qui est situé au fond de l’œil.


    L’iris est situé dans l’humeur aqueuse, il est entouré par le blanc de l’œil, la pupille est située en son centre, la cornée se trouve devant lui et le cristallin derrière. L'iris correspond à la partie colorée de l’œil et c’est cette partie qui est utilisée en biométrie.

    La formation de l'iris pour un œil humain commence au troisième mois de gestation, les structures qui créent les éléments distinctifs sont terminées lors du huitième mois et la pigmentation se poursuit dans les premières années suivant la naissance. La formation de l'iris est chaotique ce qui génère des motifs présentant de fortes variabilités. On recèle environ 244 caractéristiques pour un motif.

    En effet, la texture de l’iris ou ce que l’on appelle le motif de l’iris, comprend de nombreuses caractéristiques. Celles les plus souvent utilisées en biométrie, sont la collerette (appelée ainsi car elle forme le dessin d'une collerette autour de la pupille), les tâches pigmentaires (comme les tâches de rousseur ou les grains de beauté), les cryptes (ce sont de petits creux), la couronne ciliaire (ou zone ciliaire, enchevêtrement de tubes fins formant un petit renflement), les sillions ou la pupille qui eux sont contrôlés suivant leur taille.

    Ces éléments de l’iris restent fixe, ils ne varient que très peu durant toute une vie. Chaque motif est stable et unique (la probabilité de similitude est de 1 sur 10 puissance 72). De plus, le motif de l’iris n’est pas d'origine génétique contrairement à la couleur des yeux. Donc deux individus, même s’ils sont parents, peuvent avoir la même couleur mais jamais le même motif. Par ailleurs, les vrais jumeaux non plus ne sont pas confondus, il y a assez de caractéristiques dans l'iris pour que l'on puisse les distinguer.

    L'organe iridien est relativement à l’abri des lésions. S’agissant d’un tissu interne, l’iris est protégé par la cornée et l’humeur aqueuse. Étant donné que ces deux barrières sont transparentes, l’iris peut être facilement identifié à plus d’un mètre. On peut donc facilement photographier l'iris, qui n'est pas pourtant exposé à d'éventuels dommages.

    Cependant comme l'iris occupe une petite surface, le matériel utilisé actuellement pour l'observer ne permet pas une étude précise au niveau des éléments du motif, seuls les contours macroscopiques sont analysés. Toutefois la précision des capteurs augmente de plus en plus et l’iris est suffisamment varié pour qu’il ne soit pas indispensable de recueillir toutes les informations qu’il contient.

    - Capture de l'image d’un iris
    L’utilisateur doit fixer l’objectif d'une caméra numérique qui balaie l’iris d’une personne d’une distance de 30 à 60 cm, et acquiert directement son dessin. Elle le compare ensuite à un fichier informatisé d’identification personnelle (les systèmes de reconnaissance en usage aujourd’hui sont en mesure de fouiller une banque de données nationale à la vitesse de 100 000 codes iridiens par seconde).

    Or, l'iris est un organe sensible, sa taille est petite et il est obscurci par les cils, les paupières ou les lentilles de contact. De plus, elle est variable et les utilisateurs ont tendance à bouger. Il est donc assez difficile d'avoir une bonne image de l'iris, il faut que ce soit rapide, précis et qu'il n'y ait pas de lumière pouvant se refléter sur l’œil.
    La prise de vue de l'iris est effectuée le plus souvent par une caméra (caméra CCD monochrome 640 x 480) employée avec une source de lumière de longueur d’onde comprise entre 700 et 900 nm, invisible pour les humains.

    D’autres systèmes emploient une caméra à large vision qui permet la localisation des yeux sur le visage, puis une autre caméra avec une vision étroite prend des images des yeux (il y a une plus grande résolution) avec un capteur classique et un objectif macro. Les différentes contraintes, en particulier de l'éclairage, impose une proximité entre le capteur et l’œil (30 à 60 cm), car plus l’œil est éloigné plus il y a de problèmes. Il faut également tenir compte des reflets ponctuels, de la non uniformité de l’éclairage, et des images de l’environnement qui se reflètent sur l’iris. On utilise alors un éclairage artificiel (diodes DEL) infrarouge, tout en atténuant le plus possible l’éclairage ambiant.

    Pour le traitement numérique, la méthode employée est celle de John Daugman. Après la numérisation de l’image de l’œil, le logiciel détermine le centre de la pupille et le contour de l’iris. Puis sur ces deux données le logiciel établit des bandes de tailles égales (la taille varie selon la dilatation de la pupille) pour former un fichier « gabarit », à partir de l’analyse de la texture de l’iris. Le fichier formé est un code iridien accompli grâce à l'algorithme de Daugman.

    L’utilisateur doit fixer l’objectif d'une caméra numérique qui balaie l’iris d’une personne d’une distance de 30 cm à 60 cm, et acquiert directement son dessin. Elle le compare ensuite à un fichier informatisé d’identification personnelle (les systèmes de reconnaissance en usage aujourd’hui sont en mesure de fouiller une banque de données nationale à la vitesse de 100 000 codes iridiens par seconde).

    Or, l'iris est un organe sensible, sa taille est petite et il est obscurci par les cils, les paupières ou les lentilles de contacts. De plus, elle est variable et les utilisateurs ont tendance à bouger. Il est donc assez difficile d'avoir une bonne image de l'iris, il faut que ce soit rapide, précis et qu'il n'y ait pas de lumière pouvant se refléter sur l’œil.
    La prise de vue de l'iris est effectuée le plus souvent par une caméra (caméra CCD monochrome 640 x 480) employée avec une source de lumière de longueur d’ondes comprise entre 700 et 900 nm, invisible pour les humains.

    D’autres systèmes emploient une caméra à large vision qui permet la localisation des yeux sur le visage, puis une autre caméra avec une vision étroite prend des images des yeux (il y a une plus grande résolution) avec un capteur classique et un objectif macro.
    Les différentes contraintes, en particulier de l'éclairage, impose une proximité entre le capteur et l’œil (30 à 60 cm), car plus l’œil est éloigné plus il y a de problèmes. Il faut également tenir compte des reflets ponctuels, de la non uniformité de l’éclairage, et des images de l’environnement qui se reflètent sur l’iris. On utilise alors un éclairage artificiel (diodes DEL) infrarouge, tout en atténuant le plus possible l’éclairage ambiant.

    Pour le traitement numérique, la méthode employée est celle de John Daugman : après la numérisation de l’image de l’œil, le logiciel détermine le centre de la pupille et le contour de l’iris. Puis sur ces deux données le logiciel établit des bandes de tailles égales (la taille varie selon la dilatation de la pupille) pour former un fichier « gabarit », à partir de l’analyse de la texture de l’iris. Le fichier formé est un code iridien accompli grâce à l'algorithme de Daugman.

     
  2. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Reconnaissance de visage


    La reconnaissance de visage est un domaine de la
    vision par ordinateur consistant à reconnaitre automatiquement une personne à partir d'une image de son visage. C'est un sujet particulièrement étudié en vision par ordinateur, avec de très nombreuses publications, brevets, et de conférences spécialisées.

    La reconnaissance de visage a de nombreuses applications en vidéo-surveillance, biométrie, robotique, indexation d'images et de vidéos, recherche d'images par le contenu, etc...
    La reconnaissance de visage fait partie du domaine du traitement du signal.

    Historique


    L'une des premières tentatives de reconnaissance de visage est faite par Takeo Kanade en 1973 lors de sa thèse de doctorat à l'Université de Kyoto.


    Détection de visage

    La détection de visage est un domaine de la
    vision par ordinateur consistant à détecter un visage humain dans une image numérique. C'est un cas spécifique de détection d'objet, où l'on cherche à détecter la présence et la localisation précise d'un ou plusieurs visages dans une image. C'est l'un des domaines de la vision par ordinateur parmi les plus étudiés, avec de très nombreuses publications, brevets, et de conférences spécialisées. La forte activité de recherche en détection de visage a également permis de faire émerger des méthodes génériques de détection d'objet.

    La détection de visage a de très nombreuses applications directes en vidéo-surveillance, biométrie, robotique, commande d'interface homme-machine, photographie, indexation d'images et de vidéos, recherche d'images par le contenu, etc... Elle permet également de faciliter l'automatisation complète d'autres processus comme la reconnaissance de visage ou la reconnaissance

    Problématique


    La détection de visage cherche à détecter la présence et la localisation précise d'un ou plusieurs visages dans une image numérique. C'est est un sujet difficile, notamment dû à la grande variabilité d'apparence des visages dans des conditions non contraintes:

    • Variabilité intrinsèque des visages humains (couleur, taille, forme)
    • Présence ou absence de caractéristiques particulières (cheveux, moustache, barbe, lunettes...)
    • Expressions faciales modifiant la géométrie du visage
    • Occultation par d'autres objets ou d'autres visages
    • Orientation et pose (de face, de profil)
    • Conditions d'illumination et qualité de l'image
    La détection de visage doit faire face à une forte variabilité intra-classe, et la plupart des méthodes de détection d'objet destinées aux objets rigides ne sont pas adaptées.

    Historique


    Les premiers essais datent du début des années 1970, et sont basés sur des méthodes à bases d'heuristiques. Ces méthodes sont très peu robustes, car elles font de nombreuses suppositions en se plaçant dans des cas très simples (visage de face, bonnes conditions d'illuminations, etc...). La recherche et les premières méthodes significatives se développent surtout à partir des années 1990. L'augmentation de la puissance de calcul des ordinateurs permet notamment l'utilisation de méthodes statistiques et d'apprentissage plus complexes et sur de plus gros volumes de données, ce qui permet un net gain de performance. Elle est particulièrement importante car elle se distingue des précédentes méthodes de détection d'objet, auparavant limitées aux objets rigides, et donc avec moins de variabilité.

    Un pas important est franchi en 2001 avec la publication de la méthode de Viola et Jones, la première méthode capable de détecter des visages en temps-réel. La méthode devient standard et est reprise et améliorée par de nombreux chercheurs. C'est également à partir des années 2000 que les méthodes basées apparence, qui apprennent des modèles de visage à partir d'un ensemble d'images d'apprentissage, se révèlent généralement supérieures aux autres types d'approches.

    Applications


    La détection de visage possède de très nombreuses applications directes et indirectes. Parmi les applications directes, la plus connue est sa présence dans de nombreux appareils photo numérique, où elle sert à effectuer la mise au point automatique sur les visages. C'est également une technique importante pour les interfaces homme-machine évoluées, afin de permettre une interaction plus naturelle entre un humain et un ordinateur
    .
    La détection de visage est aussi utilisée en indexation d'images et recherche d'information, où elle peut être utilisée pour rechercher des images contenant des personnes, associer automatiquement un visage à un nom dans une page web, identifier les principales personnes dans une vidéo par clustering.

    La détection de visage peut aussi servir à déterminer l'attention d'un utilisateur, par exemple face à un écran dans l'espace public, qui peut également, une fois le visage détecté, déterminer le sexe et l'âge de la personne afin de proposer des publicités ciblées. Cela peut également servir à savoir si une personne est bien présente devant une télévision allumée, et dans le cas contraire mettre l'appareil en veille ou réduire la luminosité afin d'économiser de l'énergie.

    De façon plus indirecte, la détection de visage est la première étape vers des applications plus évoluées, qui nécessitent la localisation du visage, comme la reconnaissance de visage, la reconnaissance d'expression faciales, l'évaluation de l'âge ou du sexe d'une personne, le suivi de visage ou l'estimation de la direction du regard et de l'attention visuelle.


    .........
     
  3. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113



    Identité numérique (Internet)


    L'identité numérique
    peut être définie comme un lien technologique entre une entité réelle (la personne) et une entité virtuelle (sa ou ses représentation(s) numériques).

    Les réseaux sociaux et les blogs ont provoqué la prolifération des données personnelles sur le Web. Désormais, chaque utilisateur dispose et doit gérer une véritable «identité numérique» constituée des informations qu'il a saisies dans ses profils, de ses contributions (par exemple dans les blogs) et des traces qu'il ou elle laisse sur les sites web visités…
    L'évolution d'internet offrant de plus en plus de services pour les particuliers, les entreprises et les gouvernements, amène irrévocablement à se poser la problématique de la sécurité de l'information et plus particulièrement des données personnelles.


    Les réponses à ces problématiques sont pluridisciplinaires et en particulier concernent les aspects :

    • Techniques : technologies à mettre en œuvre pour gérer l'identité.
    • Psychologiques et sociaux : la projection de l'identité en ligne revêt des enjeux nouveaux, comme la demande de droit à l'oubli
    • Légaux : le droit se fondant sur les définitions de personnes physiques et morales, il a connu quelques adaptations pour renforcer la notion d'identité et son applicabilité dans l'ère du numérique.
    • Éducatifs : étant donné l'accès des plus jeunes aux technologies de l'information et de la communication et la permanence des traces laissées sur les réseaux, la prévention par la sensibilisation des utilisateurs.
    Enjeux de l'identité numérique

    Un internaute français posséderait en moyenne 12 comptes numériques si on additionne les diverses adresses de messagerie, les réseaux sociaux et les comptes créés pour acheter ou vendre en ligne.

    Par ailleurs, l'usurpation d'identité pour accéder à internet est deux fois plus courante que celle faite hors internet. Les chiffres seraient de l’ordre de 400 000 et 200 000.
    Cet état de fait qui peut être généralisé au niveau international a conduit, en 2009, des gouvernements à proposer un accord, la résolution de Madrid qui pointe l'urgence d'édifier un ensemble de normes et de références dans ce domaine.

    Dimension technique


    Des technologies déjà présentes sur le marché peuvent et vont contribuer à établir un certain degré de confiance de la part des utilisateurs.

    Techniques et outils de protection

    • Des technologies d'authentification et d'authentification forte, voire de cryptologie peuvent être mises en œuvre.
    • D'autres mécanismes peuvent aussi être utilisés tels que les techniques d'anonymisation, l'utilisation de pseudonymes, les technologies de transparence.
    Travaux et recherches conduites sur l'identité numérique

    Les thèmes de recherche

    Un certain nombre de travaux et recherches sont conduits sur l'identité numérique qui couvrent une variété de disciplines telles que:

    Les initiatives de recherche

    • «Le programme Identites Actives » : Identites Actives est programme de la FING (Fédération Internet Nouvelles Générations) qui est particulièrement focalisée sur les usages.
    • FIDIS (Future of Identity in the Information Society): FIDIS est un réseau d'excellence de la commission européenne. FIDIS a une approche pluridisciplinaire et couvre l'ensemble des aspects relatifs à l'identité numérique.
    • Prodoper (PROtection des DOnnées PERsonnelles): Prodoper est un projet du CNRS qui aborde les questions renvoyant à la protection des libertés individuelles, des données personnelles, ou encore à l’impact des NTIC sur les libertés civiles
    Projets gouvernementaux

    En France

    Deux initiatives concurrentes semblent se dégager en faveur d'une signature numérique sécurisée pour les citoyens français :

    • Adoption par le sénat d'un projet de loi sur la carte d'identité biométrique devant proposer ce service : le titulaire de la carte peut installer sur celle-ci une deuxième puce support de sa signature numérique, pouvant jouer le rôle d'authentificateur sur les sites administratifs puis à terme sur les sites de commerce électronique. Suite aux navettes parlementaires et à la saisine du Conseil constitutionnel, la Loi n° 2012-410 du 27 mars 2012 relative à la protection de l'identité a considérablement réduit les services offerts par ce document d'identité en matière numérique.
    • Relance par Le Ministère de l'Industrie et de l'Économie numérique d'un autre dispositif — baptisé Idénum — supporté par une mini-clé USB ou par la puce d'un mobile, capable d'identifier automatiquement l'utilisateur sur les sites partenaires d'Idénum. Moyennant la confirmation d'un mot de passe, l'identité de l'internaute est immédiatement vérifiée. Ce projet est toujours dans l'attente de la publication de l'étude de préfiguration d'un consortium Idénum.
    Institutions et autres projets

    En France


    • CNIL (Commission nationale de l'informatique et des libertés): autorité de contrôle française en matière de protection des données personnelles.
    • Internet Sans Crainte: Internet Sans Crainte est une initiative financée par la commission européenne visant à informer le citoyen des risques associés à l'identité en ligne, en particulier pour les enfants et les adolescents.
    • Association Présaje. Travaux menés sur les aspects juridiques de l'identité numérique: Ouvrage collectif: "L'identité à l'ère numérique".
    • Association francophone des spécialistes de l'investigation numérique: l'AFSIN, association francophones des spécialistes de l'investigation numérique est une association loi de 1901 fondée en octobre 2006 par des magistrats, des enquêteurs et des experts judiciaires pour favoriser les échanges en langue française sur les sujets relatifs à l'investigation numérique.
    Dimension psychologique et sociale

    L'identité en ligne (l'exposition de soi)

    Le Web social et en particulier l'arrivée du réseautage social en ligne, des Blogs, de la mise en ligne sur YouTube, de l'usage de WebCams ont permis aux individus de se définir une identité en ligne ; Celle-ci reflétant plus ou moins, dans ce contexte, la façon dont ceux-ci sont perçus par les autres.
    Les mises en œuvre de l'identité numérique sont diverses : par exemple

    • un individu peut utiliser son profil pour se décrire, éventuellement tenté de bâtir une image favorable auprès des autres,
    • un autre va souhaiter s'extérioriser à travers ses projets ou ses contributions à un projet,
    • un troisième emprunte -via un avatar- la personnalité d'un personnage dans un monde virtuel.
    On dénombre au moins cinq modalités de mise en œuvre des identités sur internet
    Une cyberidentité est appréciée par autrui, via :

    • La présentation de l'individu par lui-même (self-présentation)
    • L'observation des traces numériques d'usage et comportements de l'individu (par exemple le niveau de qualité, ou de collaborativité de ses contributions, illustrations, apports…)
    • La «réputation» de l'individu et son statut (par exemple, dans le cas de Wikipédia, le système des lauriers (Barnstars) fournit un moyen d'avoir accès au jugement des autres).
    Parmi les motivations à se définir en ligne, figurent : L'utilité de se présenter pour mieux communiquer, ou trouver des internautes ayant des compétences ou centre d'intérêts proches ou complémentaires ;

    • Le narcissisme et le désir d'attirer l'attention
    • Le désir d'augmenter sa visibilité et donc son capital social.
    Ces motivations permettent de comprendre l'expansion des réseaux sociaux (communautés virtuelles).

    Manipulation ou correction de l'identité numérique

    Afin d'améliorer une notoriété en ligne, des agences proposent désormais à leurs clients d'examiner leur cyber-réputation et de la corriger. Leur travail consiste à reléguer le plus loin possible dans les pages recherchées les informations pouvant nuire, et positionner des informations de nature beaucoup plus positive partout sur internet grâce à des techniques de baronnages sur les réseaux sociaux.

    L'identité affichée en ligne n'est pas forcément ni l'identité réelle, ni toujours la même. Au contraire, la capacité à assumer des identités différentes est l'un des principaux attraits de l'identité numérique. Par exemple, des études ont montré que les participants dans les sites web de rencontres déformaient souvent la réalité à leur avantage.
    Certaines sociétés proposent même de vendre des 'amis' à ajouter aux accointances de manière à augmenter sa visibilité.

    Dimension légale


    Informatique et liberté
    s
    (Cette section est vide)


    L’usurpation d’identité

    Aussi étonnant que cela puisse paraître, l’usurpation d’identité a, pendant longtemps été ignorée en tant que telle par le législateur. Aucune loi ne punissait directement l'usurpation d'identité sur Internet. L’OCDE a publié fin mars 2009 un rapport intitulé Online Identity Theft montrant que la plupart des pays occidentaux ne disposent pas d'une législation spécifique réprimant le vol d'identité. Ce n'est que très récemment que l'infraction d'usurpation d'identité a été sanctionnée en tant que telle, depuis l'adoption de la Loi n°2002-1094 du 29 août 2002 d'orientation et de programmation pour la performance de la sécurité intérieure, dite Loppsi, dont la dernière réforme a été opérée par la loi n° 2011-267 du 14 mars 2011 d'orientation et de programmation pour la performance de la sécurité intérieure, donnant naissance à la Loppsi 2.

    Cette dernière modification vient sanctionner pénalement l'usurpation d'identité sur internet inséré dans le code pénal à l'article 226-4-1.


    - Sanctions pénales
    En France, le délit d'usurpation d'identité n'était directement sanctionné que dans un cas : le fait de prendre le nom d'un tiers. En effet, l’article 434-23 du Code pénal punit «le fait de prendre le nom d’un tiers, dans des circonstances qui ont déterminé ou auraient pu déterminer contre celui-ci des poursuites pénales [… ]. Dans ce cas, elle est punie de 5 ans d'emprisonnement et de 75 000 euros d'amende.» L’application de cet article est subordonnée à l’existence de conséquences pénales à l’égard de la personne usurpée, ce qui très restrictif.

    L'usurpation d'identité n'était pas un délit pénal en elle-même. Ainsi, envoyer un courriel en se faisant passer pour quelqu’un d’autre n’est pas en tant que tel punissable. En revanche, dans d’autres cas très particuliers, comme le fait d'utiliser une fausse identité dans un acte authentique ou un document administratif destiné à l'autorité publique (article 433-19 du Code pénal), prendre un faux nom pour se faire délivrer un extrait de casier judiciaire (article 433-19 du Code pénal), ou récupérer des identifiants et des mots de passe afin de vider le compte d’un client d’une banque, seront considérés comme répréhensibles.

    Ainsi, le 31 septembre 2005, le Tribunal de grande instance de Paris avait jugé Robin B. coupable de contrefaçon pour avoir réalisé un site internet personnel imitant la page d’enregistrement à Microsoft Messenger invitant les internautes à lui fournir leurs données personnelles à une adresse électronique qu’il avait créée.
    L’article 434-23 du Code pénal joue dans le seul cas où la constitution du délit tient à ce qu’ait été pris «le nom d'un tiers». Le droit pénal est d'interprétation stricte : aussi, les juges pourraient refuser cette assimilation.

    L'usurpation d'identité est sanctionnée indirectement, au travers de l'atteinte à des données personnelles, de l'escroquerie, de la contrefaçon de marque, de l'atteinte à un système automatisé de traitement de données. En d’autres termes, l’usurpation d’identité est une composante d’infraction et non une infraction en tant que telle. Ainsi, l’article 434-23 du Code pénal vient prendre sa place aux côtés de l’escroquerie et de la contrefaçon dans l’arsenal répressif de ce comportement. Les textes répressifs étant par principe d’interprétation stricte, il est toujours possible que dans un cas précis les agissements analysés échappent à toute sanction. Néanmoins, le droit français paraît donc aujourd’hui doté de trois outils distincts au moins : les textes prévoyant et réprimant la contrefaçon, l’usurpation d’identité et l’escroquerie, pour lutter contre le phishing.

    La qualification d’escroquerie paraît répondre également assez nettement au souci de répression : l’article 313-1 du Code pénal la définit en effet notamment comme l’usage d’un faux nom ou d’une fausse qualité dans le but de tromper une personne physique ou morale et de la déterminer à son préjudice ou au préjudice d’un tiers, à remettre des fonds, des valeurs ou un bien quelconque, ou encore à fournir un service ou à consentir un acte opérant obligation ou décharge. Dans d’autres cas, l’usurpateur se fera passer pour quelqu’un d’autre dans un espace public. La loi de 1881 sur la presse sera applicable. Enfin, on peut imaginer le dévoilement de données à caractère personnel dans le cadre d’une usurpation d’identité. Dans ce cas là, la loi du 6 janvier 1978 s’appliquera.

    Désormais, «Le fait d’usurper l’identité d’un tiers ou une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération ou ses intérêts, est puni d'un an d’emprisonnement et de 15 000 euros d’amende. Cette infraction est punie des mêmes peines lorsqu’elle est commise sur un réseau de communication électronique ouverte au public.»

    - Sanctions de droit commun
    Au delà de l’aspect pénal, l’usurpation d’identité présente également un aspect civil.
    Chacun peut aussi faire sanctionner l'atteinte à son nom ou à d'autres éléments de sa personnalité, ou encore obtenir le remboursement des sommes dépensées par celui qui a utilisé les données de sa carte bancaire frauduleusement. Une femme a été indemnisée de son préjudice causé par une collègue qui utilisait son identité et ses coordonnées téléphoniques sur Meetic, où elle la faisait passer pour «une femme facile, désireuse de relations sexuelles».

    Tant le nom que le pseudonyme sont civilement protégé contre les usurpations. L’article 1382 du Code civil qui fonde la responsabilité civile est particulièrement applicable à ces cas.

    Pour ce faire, l’usurpation d’identité doit être caractérisée par une réponse positive aux trois critères suivants :

    • l'existence d'une faute (l’utilisation d’un pseudonyme de manière trompeuse par exemple, en se faisant passer pour quelqu’un de connu) ;
    • l'existence d'un préjudice (le titulaire de l’identité doit subir un préjudice du fait de la faute commise par l’usurpateur) ;
    • la preuve du lien de causalité entre la faute et le préjudice évoqués.
    L'article 1382 du Code civil peut jouer également si l’usurpateur dévoile des aspects de la vie privée de la personne dont il a pris l’identité.
    Les sanctions existantes sont considérées comme insuffisantes au regard du développement considérable de l'usurpation d'identité. La ministre de l'Intérieur, Michèle Alliot-Marie, a annoncé, le 24 mars 2009, que l'usurpation d'identité sur Internet serait mieux sanctionnée : «Usurper l’identité d’autrui par courrier est interdit par la loi. Ce n’est pas le cas pour l’usurpation d’identité sur Internet. Et pourtant, la diffusion sur Internet est plus large que celle que peut connaître le courrier.»

    La nouvelle incrimination figure dans le projet de loi de programmation et de performance pour la sécurité intérieure (Lopsi). Des sénateurs avaient auparavant proposé, en 2005 puis en 2008, que soit créée une infraction pénale spécifique sans que leur proposition ne soit débattue, estimant que l’arsenal existant, principalement l’article 434-23 du Code pénal, était suffisant.

    Dimension éducative

    Les enjeux : pourquoi en parler à l'école ?

    Le réseau web est un réseau public: Comment gérer des informations qui sont susceptibles d'être vues par n’importe quel utilisateur ? Certaines fonctionnalités offrent une protection ou un filtrage d'accès à certaines informations dont l'accès devient restreint à une catégorie ou liste nominative d'individus. Voir par exemple le système de sécurité facebook.

    Les élèves doivent être avertis qu’il faut être vigilant en ce qui concerne la publication de photos ou de vidéos qui peuvent être préjudiciables pour eux et leur avenir.
    Il arrive fréquemment qu’un chef d’entreprise consulte le profil d’un candidat demandeur d’emploi avant de l’embaucher. C’est pourquoi, bon nombre de personnes veillent désormais à leur «e-réputation».


    Il ne suffit pas de supprimer une publication pour qu’elle disparaisse du Web, contrairement à ce que croient les élèves, car celles-ci peuvent avoir été sauvegardées par des internautes sur leur ordinateur local.
    C’est aussi le cas des chaînes de solidarité par
    courriels qui perdurent bien après la disparition de la cause à défendre.

    Le but est de sensibiliser les élèves sur la question de l’identité numérique, les enjeux et les conséquences qu’elle engendre, sans forcément leur faire la morale. Il est important qu’ils maîtrisent leur identité numérique et qu’ils développent leur sens critique et leur attitude civique face à l’Internet afin que l’identité de chacun soit préservée.

    Comment en parler à l'école ?
    Dans un premier temps, il s’agit pour l’enseignant de partir des connaissances propres et des pratiques des élèves. Il est vrai que l’identité numérique est un sujet difficile à aborder en classe car cette question touche l’intimité de chacun. Il est possible ainsi d’ouvrir avec eux un débat sur cette question. Il faut également s’adapter à l’hétérogénéité des élèves : leur âge, leurs dispositions matérielles personnelles et leurs compétences informatiques. Il existe des précautions à prendre : prendre garde à ne pas juger l’élève tout en lui expliquant les risques qu’il encourt, faire attention à ne pas dramatiser les situations numériques que peuvent rencontrer les élèves dans leur utilisation de l’outil informatique. L’enseignant peut profiter d’un contexte pédagogique pour aborder cette question.

    Il ne faut pas hésiter par exemple, à leur donner des informations objectives et complètes qui les guideront dans leur utilisation du web. L’enseignant doit être garant du savoir qu’il transmet et ainsi être certain de la véracité de ses propos. Il doit se positionner en tant qu’expert. Cependant, attention à ne pas imposer ses opinions vis-à-vis d’Internet.
    Il peut être intéressant de se baser sur un exemple concret de la vie quotidienne de l’élève de façon à faire naître et à développer en lui un comportement éthique et responsable sur la toile. L’élève doit prendre conscience qu’il reste le même individu aussi bien dans un environnement virtuel que dans la vie réelle.

    Transcrire les réseaux sociaux dans la vie réelle est une des méthodes que l’on peut utiliser pour cerner les enjeux de l’identité numérique. On peut questionner les élèves sur leurs représentations des réseaux sociaux et leur demander de les mettre en scène sous la forme de petits sketchs. Par ce biais, les élèves pourront comprendre que les réseaux sociaux virtuels appellent des comportements spécifiques et non adaptés à la réalité. Par exemple, croiser un inconnu dans la rue et lui demander : «Est-ce que tu veux être mon ami ?».

    Afin de faire prendre conscience des dangers éventuels de l’utilisation d’Internet, il est possible de proposer aux élèves une utilisation réfléchie de l’outil informatique (notamment des réseaux sociaux comme Facebook ou Twitter). Le but est de leur apprendre à utiliser ces outils sans pour autant dévoiler leur identité numérique. On peut leur montrer comment régler les paramètres de sécurité des documents mis en ligne.
    Dans cet objectif les enfants pourraient créer une page Facebook pour la classe où ils publieraient des documents liés à leurs activités scolaires, au projet de l’école, etc.

    En parallèle, on peut aussi aborder l’idée de traces (les informations déposées sur Internet, restent en mémoire sur le serveur) et leur faire collecter des données personnelles (photos, vidéos, etc.) pour constater qu’il est facile d’utiliser ces informations à bon ou mauvais escient.



    _____________________________________________
    Nom de la page : Identité numérique (Internet)
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Identité numérique (Internet) de Wikipédia en français (auteurs)
    les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique



    .......
     
  4. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113



    Méthode de Viola et Jones


    La
    méthode de Viola et Jones est une méthode de détection d'objet dans une image numérique, proposée par les chercheurs Paul Viola et Michael Jones en 2001. Elle fait partie des toutes premières méthodes capables de détecter efficacement et en temps réel des objets dans une image. Inventée à l'origine pour détecter des visages, elle peut également être utilisée pour détecter d'autres types d'objets comme des voitures ou des avions. La méthode de Viola et Jones est l'une des méthodes les plus connues et les plus utilisées, en particulier pour la détection de visages et la détection de personnes.

    En tant que procédé d'apprentissage supervisé, la méthode de Viola et Jones nécessite de quelques centaines à plusieurs milliers d'exemples de l'objet que l'on souhaite détecter, pour entraîner un classifieur. Une fois son apprentissage réalisé, ce classifieur est utilisé pour détecter la présence éventuelle de l'objet dans une image en parcourant celle-ci de manière exhaustive, à toutes les positions et dans toutes les tailles possibles.
    Considérée comme étant l'une des plus importantes méthodes de détection d'objet, la méthode de Viola et Jones est notamment connue pour avoir introduit plusieurs notions reprises ensuite par de nombreux chercheurs en vision par ordinateur, à l'exemple de la notion d'image intégrale ou de la méthode de classification construite comme une cascade de classifieurs boostés.

    Cette méthode bénéficie d'une implémentation sous licence BSD dans OpenCV, une librairie très utilisée en vision par ordinateur.


    Historique


    Paul Viola et Michael Jones, alors employés au Cambridge Research Laboratory de la société américaine Compaq, publient la méthode qui porte leur nom pour la première fois le 13 juillet 2001 dans le journal scientifique International Journal of Computer Vision (IJCV). Les deux auteurs publient ensuite deux autres articles sur la méthode : une version moins détaillée, présentée à la Conference on Computer Vision and Pattern Recognition (CVPR) en décembre 2001 et une version révisée en 2004, toujours dans IJCV.

    Les caractéristiques extraites par cette méthode sont inspirées des travaux de Papageorgiou, Oren et Poggio, datant de 1998, qui utilisent des caractéristiques construites à partir d'ondelettes de Haar. La méthode s'inspire également de précédents travaux de Paul Viola et Kinh Tieu dans un autre domaine, celui de la recherche d'image par le contenu, en reprenant l'idée de sélection de caractéristiques par AdaBoost. Parmi les nombreuses méthodes de détection de visages publiées à l'époque, Viola et Jones considèrent en particulier celle de Rowley-Kanade : en raison de ses excellents résultats et de sa rapidité, ils la prennent comme référence pour les comparaisons. À performances équivalentes, Viola et Jones notent que la détection par leur méthode est 15 fois plus rapide que le détecteur de Rowley-Kanade.

    La méthode, considérée comme l'une des plus efficaces en détection de visage, devient rapidement un standard dans ce domaine. Les travaux de Viola et Jones sont parmi les plus utilisés et les plus cités par les chercheurs, et de nombreuses améliorations sont ainsi proposées. Leurs travaux sont également étendus à d'autres types d'objets que les visages et la méthode devient ainsi un standard en détection d'objet. La méthode est par ailleurs reconnue comme étant celle ayant eu le plus d'impact dans le domaine de la détection de visage dans les années 2000.


    Éléments de la méthode


    La méthode de Viola et Jones est une approche basée sur l'apparence, qui consiste à parcourir l'ensemble de l'image en calculant un certain nombre de caractéristiques dans des zones rectangulaires qui se chevauchent. Elle a la particularité d'utiliser des caractéristiques très simples mais très nombreuses. Une première innovation de la méthode est l'introduction des images intégrales, qui permettent le calcul rapide de ces caractéristiques. Une deuxième innovation importante est la sélection de ces caractéristiques par boosting, en interprétant les caractéristiques comme des classifieurs.

    Enfin, la méthode propose une architecture pour combiner les classifieurs boostés en un processus en cascade, ce qui apporte un net gain en temps de détection.

    La méthode, en tant que méthode d'apprentissage supervisé, est divisée en deux étapes : une étape d'apprentissage du classifieur basé sur un grand nombre d'exemples positifs (c'est-à-dire les objets d'intérêt, par exemple des visages) et d'exemples négatifs, et une phase de détection par application de ce classifieur à des images inconnues.

    Caractéristiques

    - Description

    Plutôt que de travailler directement sur les valeurs de pixels, et pour être à la fois plus efficace et plus rapide, Viola et Jones proposent d'utiliser des caractéristiques, c'est-à-dire une représentation synthétique et informative, calculée à partir des valeurs des pixels. Viola et Jones définissent des caractéristiques très simples, les caractéristiques pseudo-Haar, qui sont calculées par la différence des sommes de pixels de deux ou plusieurs zones rectangulaires adjacentes. La figure ci-contre donne des exemples des caractéristiques proposées par Viola et Jones à 2, 3 ou 4 rectangles, dans lesquelles la somme de pixels sombres est soustraite de la somme des pixels blancs. Leur nom vient de leur similitude avec les ondelettes de Haar, précédemment proposées comme caractéristiques par Papageorgiou et dont se sont inspirés Viola et Jones.

    Pour calculer rapidement et efficacement ces caractéristiques sur une image, les auteurs proposent également une nouvelle méthode, qu'ils appellent «image intégrale». C'est une représentation sous la forme d'une image, de même taille que l'image d'origine, qui en chacun de ses points contient la somme des pixels situés au-dessus de lui et à sa gauche. Plus formellement, l'image intégrale [​IMG] au point [​IMG] est définie à partir de l'image [​IMG] par :
    [​IMG]


    Grâce à cette représentation, une caractéristique formée de deux zones rectangulaires peut être calculée en seulement 6 accès à l'image intégrale, et donc en un temps constant quelle que soit la taille de la caractéristique.

    - Calcul
    Les caractéristiques sont calculées à toutes les positions et à toutes les échelles dans une fenêtre de détection de petite taille, typiquement de 24 × 24 pixels ou de 20 × 15 pixels. Un très grand nombre de caractéristiques par fenêtre est ainsi généré, Viola et Jones donnant l'exemple d'une fenêtre de taille 24 × 24 qui génère environ 160 000 caractéristiques.

    En phase de détection, l'ensemble de l'image est parcouru en déplaçant la fenêtre de détection d'un certain pas dans le sens horizontal et vertical (ce pas valant 1 pixel dans l'algorithme original). Les changements d'échelles se font en modifiant successivement la taille de la fenêtre de détection. Viola et Jones utilisent un facteur multiplicatif de 1,25, jusqu'à ce que la fenêtre couvre la totalité de l'image.
    Finalement, et afin d'être plus robuste aux variations d'illumination, les fenêtres sont normalisées par la variance.

    La conséquence de ces choix techniques, notamment le recours aux images intégrales, est un gain notable en efficacité, les caractéristiques étant évaluées très rapidement quelle que soit la taille de la fenêtre.

    Sélection de caractéristiques par boosting

    Le deuxième élément clé de la méthode de Viola et Jones est l'utilisation d'une méthode de boosting afin de sélectionner les meilleures caractéristiques. Le boosting est un principe qui consiste à construire un classifieur «fort» à partir d'une combinaison pondérée de classifieurs «faibles», c'est-à-dire donnant en moyenne une réponse meilleure qu'un tirage aléatoire. Viola et Jones adaptent ce principe en assimilant une caractéristique à un classifieur faible, en construisant un classifieur faible qui n'utilise qu'une seule caractéristique. L'apprentissage du classifieur faible consiste alors à trouver la valeur seuil de la caractéristique qui permet de mieux séparer les exemples positifs des exemples négatifs. Le classifieur se réduit alors à un couple (caractéristique, seuil).


    L'algorithme de boosting utilisé est en pratique une version modifiée d'AdaBoost, qui est utilisée à la fois pour la sélection et pour l'apprentissage d'un classifieur «fort». Les classifieurs faibles utilisés sont souvent des arbres de décision. Un cas remarquable, fréquemment rencontré, est celui de l'arbre de profondeur 1, qui réduit l'opération de classification à un simple seuillage.

    L'algorithme est de type itératif, à nombre d'itérations déterminé. À chaque itération, l'algorithme sélectionne une caractéristique, qui sera ajoutée à la liste des caractéristiques sélectionnées aux itérations précédentes, et le tout va contribuer à la construction du classifieur fort final. Cette sélection se fait en entraînant un classifieur faible pour toutes les caractéristiques et en sélectionnant celui avec l'erreur la plus faible sur l'ensemble d'apprentissage. L'algorithme tient également à jour une distribution de probabilité sur l'ensemble d'apprentissage, réévaluée à chaque itération en fonction des résultats de classification. En particulier, plus de poids est attribué aux exemples difficiles à classer, c'est-à-dire ceux dont l'erreur est élevée. Le classifieur «fort» final construit par AdaBoost est composé de la somme pondérée des classifieurs sélectionnés.

    Plus formellement, on considère un ensemble de [​IMG] images [​IMG] et leurs étiquettes associées [​IMG], qui sont telles que [​IMG] si l'image [​IMG] est un exemple négatif et [​IMG] si [​IMG] est un exemple de l'objet à détecter. L'algorithme de boosting est constitué d'un nombre [​IMG] d'itérations, et pour chaque itération [​IMG] et chaque caractéristique [​IMG], on construit un classifieur faible [​IMG]. Idéalement, le but est d'obtenir un classifieur [​IMG] qui prédise exactement les étiquettes pour chaque échantillon, c'est-à-dire [​IMG] [​IMG].
    En pratique, le classifieur n'est pas parfait et l'erreur engendrée par ce classifieur est donnée par :

    [​IMG],
    les [​IMG] étant les poids associés à chaque exemple et mis à jour à chaque itération en fonction de l'erreur obtenue à l'itération précédente. On sélectionne alors à l'itération [​IMG] le classifieur [​IMG] présentant l'erreur la plus faible : [​IMG].
    Le classifieur fort final [​IMG] est construit par seuillage de la somme pondérée des classifieurs faibles sélectionnés :
    [​IMG]

    Les [​IMG] sont des coefficients calculés à partir de l'erreur [​IMG].

    Cascade de classifieurs


    La méthode de Viola et Jones est basée sur une approche par recherche exhaustive sur l'ensemble de l'image, qui teste la présence de l'objet dans une fenêtre à toutes les positions et à plusieurs échelles. Cette approche est cependant extrêmement coûteuse en calcul. L'une des idées-clés de la méthode pour réduire ce coût réside dans l'organisation de l'algorithme de détection en une cascade de classifieurs. Appliqués séquentiellement, ces classifieurs prennent une décision d'acceptation — la fenêtre contient l'objet et l'exemple est alors passé au classifieur suivant —, ou de rejet — la fenêtre ne contient pas l'objet et dans ce cas l'exemple est définitivement écarté —.

    L'idée est que l'immense majorité des fenêtres testées étant négatives (c.-à-d. ne contiennent pas l'objet), il est avantageux de pouvoir les rejeter avec le moins possible de calculs. Ici, les classifieurs les plus simples, donc les plus rapides, sont situés au début de la cascade, et rejettent très rapidement la grande majorité des exemples négatifs. Cette structure en cascade peut également s'interpréter comme un arbre de décision dégénéré, puisque chaque nœud ne comporte qu'une seule branche.

    En pratique, la cascade est constituée d'une succession d'étages, chacune étant formée d'un classifieur fort appris par AdaBoost. L'apprentissage du classifieur de l'étage [​IMG] est réalisé avec les exemples qui ont passé l'étage [​IMG] ; ce classifieur doit donc faire face à un problème plus difficile : plus on monte dans les étages, plus les classifieurs sont complexes.

    Le choix du nombre [​IMG] d'étages est fixé par l'utilisateur ; dans leur méthode originale, Viola et Jones utilisent [​IMG] étages. L'utilisateur doit également spécifier le taux de détection minimal [​IMG] et le taux de fausse alarme maximal [​IMG] à atteindre pour l'étage [​IMG]
    Le taux de détection de la cascade est alors donné par : [​IMG]
    et le taux de fausse alarme par :
    [​IMG]

    En pratique, les taux [​IMG] et [​IMG] sont les mêmes pour tous les étages. Indirectement, ces taux déterminent également le nombre de caractéristiques utilisées par les classifieurs forts à chaque étage : les itérations d'Adaboost continuent jusqu'à ce que le taux de fausse alarme cible soit atteint. Des caractéristiques/classifieurs faibles sont ajoutés jusqu'à ce que les taux cibles soient atteints, avant de passer ensuite à l'étage suivant.

    Pour atteindre des taux de détection et de fausse alarme corrects en fin de cascade, il est nécessaire que les classifieurs forts de chaque étage aient un bon taux de détection ; ils peuvent par contre avoir un taux de fausses alarmes élevé. Si l'on prend l'exemple d'une cascade de 32 étages, pour obtenir une performance finale [​IMG] et [​IMG], chaque classifieur fort doit atteindre [​IMG], mais peut se permettre [​IMG] (i.e. [​IMG] et [​IMG]). Chaque étage ajouté diminue donc le nombre de fausses alarmes, mais aussi le taux de détection.

    Plusieurs chercheurs font remarquer que cette idée de filtrer rapidement les exemples négatifs les plus simples n'est pas nouvelle. Elle existe dans d'autres méthodes sous forme d'heuristiques, comme la détection de la couleur chair ou une étape de pré-classification.

    Étapes clés

    Apprentissage

    L'apprentissage est réalisé sur un très large ensemble d'images positives (c'est-à-dire contenant l'objet) et négatives (ne contenant pas l'objet). Plusieurs milliers d'exemples sont en général nécessaires. Cet apprentissage comprend :

    • Le calcul des caractéristiques pseudo-Haar sur les exemples positifs et négatifs ;
    • L'entraînement de la cascade : à chaque étage de la cascade, un classifieur fort est entraîné par AdaBoost. Il est construit par ajouts successifs de classifieurs faibles entraînés sur une seule caractéristique, jusqu'à l'obtention de performances conformes aux taux de détection et de fausse alarme souhaités pour l'étage.
    Détection

    La détection s'applique sur une image de test, dans laquelle on souhaite déceler la présence et la localisation d'un objet. En voici les étapes :

    • parcours de l'ensemble de l'image à toutes les positions et échelles, avec une fenêtre de taille 24 × 24 pixels, et application de la cascade à chaque sous-fenêtre, en commençant par le premier étage :
      • calcul des caractéristiques pseudo-Haar utilisées par le classifieur de l'étage courant,
      • puis calcul de la réponse du classifieur,
      • passage ensuite à l'étage supérieur si la réponse est positive, à la sous-fenêtre suivante sinon,
      • et enfin l'exemple est déclaré positif si tous les étages répondent positivement ;
    • fusion des détections multiples : l'objet peut en effet générer plusieurs détections, à différentes positions et échelles ; cette dernière étape fusionne les détections qui se chevauchent pour ne retourner qu'un seul résultat.
    Performances

    Viola et Jones ont testé leur algorithme sur la base de visages MIT+CMU, constituée de 130 images contenant 507 visages de face. Ils présentent leur résultat sous la forme d'une courbeReceiver Operating Characteristic (ROC), qui donne le taux de détection correct en fonction du nombre de fausses alarmes total sur toutes les images du corpus. À titre d'exemple, pour 50 fausses alarmes, ils obtiennent un taux de détection de 88,8 %.

    Viola et Jones comparent également les performances de leur méthode aux détecteurs de visages existants, notamment celui de Rowley-Kanade. Ils constatent que les résultats sont globalement proches des autres détecteurs, quoique légèrement inférieures aux résultats de Rowley-Kanade pour un faible nombre de fausses alarmes, et légèrement supérieurs pour un nombre de fausses alarmes élevées.

    La rapidité de détection, pour sa part, dépend directement du nombre de caractéristiques évaluées, donc du contenu de l'image. Sur un PCPentium IIIcadencé à 700 Mhz, les auteurs rapportent un temps de traitement moyen de 0,067 secondes pour une image de taille 384 × 288 pixels, correspondant à débit moyen de 15 images par seconde, assez proche des exigences du traitement vidéo en temps réel (soit 25 images par seconde). Au final, sur la base de visages MIT+CMU, leur détecteur est 15 fois plus rapide que celui de Rowley-Kanade et 600 fois plus rapide que celui de Schneiderman-Kanade, pour des taux de détection et de fausse alarme comparables.

    Limitations et extensions

    De très nombreuses améliorations ont été proposées par la suite, visant à améliorer le paramétrage de la méthode, ou à en combler un certain nombre de limitations.

    L'une des premières améliorations est apportée par Lienhart et Maydt en 2002. Ils proposent d'étendre l'ensemble de caractéristiques pseudo-Haar utilisé de 4 à 14 caractéristiques. De même, ils introduisent des caractéristiques «de biais» (tournées de 45°), ainsi qu'une méthode pour les calculer basée sur une extension des images intégrales.

    D'autres types de caractéristiques ont également été utilisées en remplacement des caractéristiques de Haar : les histogrammes de gradients orientés, les motifs binaires locaux ou la covariance de région. Les chercheurs ont également proposé d'utiliser des variantes de l'algorithme de boosting, notamment RealBoost, qui produit un indice de confiance à valeurs réelles, en plus de la classification. Plusieurs travaux ont ainsi montré la supériorité de RealBoost sur AdaBoost dans le cadre de l'algorithme de Viola et Jones.

    Viola et Jones étendent en 2003 leur système à la détection de piétons dans des vidéos, en incluant une information de mouvement en plus de l'information d'apparence.

    Une des limitations de la méthode est son manque de robustesse à la rotation, et sa difficulté à apprendre plusieurs vues d'un même objet. En particulier, il est difficile d'obtenir un classifieur capable de détecter à la fois des visages de face et de profil. Viola et Jones ont proposé une amélioration qui permet de corriger ce défaut, qui consiste à apprendre une cascade dédiée à chaque orientation ou vue, et à utiliser lors de la détection un arbre de décision pour sélectionner la bonne cascade à appliquer. Plusieurs autres améliorations ont été proposées par la suite pour apporter une solution à ce problème.

    Une autre limitation importante de la méthode de Viola et Jones concerne le temps d'apprentissage de la cascade, compris généralement entre plusieurs jours et plusieurs semaines de calcul, ce qui limite sévèrement les possibilités de tests et de choix des paramètres.

    Un des problèmes majeurs de la méthode proposée par Viola et Jones est qu'il n'existe pas de méthode optimale pour choisir les différents paramètres régissant l'algorithme : le nombre d'étages, leur ordre ou les taux de détection et de fausses alarmes pour chaque étage doivent être choisis par essais et erreurs. Plusieurs méthodes sont proposées pour déterminer certains de ces seuils de manière automatique.

    Un reproche également fait à la méthode concerne la perte d'information subie au passage d'un étage à l'autre de la cascade, perte due à l'effet couperet des décisions d'acceptation ou de rejet prises à chaque étage. Certains chercheurs proposent la solution de garder l'information contenue dans la somme pondérée des classifieurs faibles, par exemple le « boosting chain » de Xiao. Une modification plus radicale de structure est proposée par Bourdev et sa notion de cascade souple, qui consiste essentiellement à supprimer le concept d'étages, en formant un seul classifieur fort, donc une seule somme, et en permettant de prendre une décision à chaque évaluation de classifieur faible et de s'affranchir de la contrainte des taux de détection et de fausses alarmes cibles.

    Applications


    La méthode de Viola et Jones a essentiellement été appliquée à la détection de visage et à la détection de personne, principalement en raison des nombreuses applications pratiques qu'offrent ces deux domaines, notamment en vidéosurveillance, en indexation d'images et de vidéo ou pour les interfaces homme-machine multimodales. Un exemple d'application grand public de la méthode est donné par les appareils photographiques numériques, où elle sert à effectuer la mise au point automatique sur les visages. Combinée avec le standard JPEG 2000, la méthode peut également servir à compresser les visages avec un taux de compression plus faible que le reste de l'image, afin de préserver les détails des visages.

    Les constructeurs automobiles s'intéressent également à la méthode pour concevoir des systèmes de sécurité capables de détecter automatiquement les autres usagers de la route, en particulier les piétons. Des recherches ont également montré que l'efficacité de la méthode ne se limite pas au domaine visible, mais qu'elle s'étend également au domaine infrarouge.

    La méthode de Viola et Jones a également été utilisée pour détecter d'autres types d'objets, par exemple des mains, pour la commande gestuelle d'une interface homme-machine, des voitures dans des images satellites pour la création de systèmes d'information géographique débarrassés de toute présence visuelle d'automobiles, ou pour l'évaluation et le suivi du trafic routier.

    La méthode a également été évaluée pour la détection d'avions dans des images de basse résolution à partir d'une caméra embarquée dans un véhicule aérien, pour l'évitement de collisions. Des applications militaires existent aussi pour la détection de cibles (chars, avions) dans des images aériennes ou satellitaires.

    Implémentations


    Il existe de nombreuses implémentations du détecteur de Viola et Jones, la plus utilisée étant celle en C++ présente dans la libraire de vision par ordinateur OpenCV, publiée sous licence BSD. Des implémentations ont été développées pour des environnements ou plates-formes spécifiques, notamment pour une exécution dans des navigateurs Web en utilisant le langage de script ActionScript du logiciel multimédia Flash. Des implémentations matérielles ont également été développées sur ASIC, FPGA et sur GPU. L'utilisation de l'architecture parallèle de ces derniers permet un net gain de temps de détection par rapport à l'implémentation OpenCV traditionnelle.

    Enfin, les implémentations les plus courantes sont celles rencontrées dans les appareils photographiques numériques pour la mise au point automatique par la détection de visage. Elles nécessitent des optimisations particulières pour faire face à la faible puissance de calcul de ce type de matériel.



    _____________________________________
    Nom de la page : Méthode de Viola et Jones
    Crédit à insérer : Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Méthode de Viola et Jones de Wikipédia en français (auteurs)

    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique

    [​IMG]Cet article est reconnu comme «article de qualité»
    depuis sa version du 27 novembre 2010
    (comparer avec la version actuelle).
    Pour toute information complémentaire,
    consulter sa page de discussion et le vote l'ayant promu.
    _____________________________________

    Une démonstration de détection de visage
    avec la méthode de Viola et Jones






    ..........
     
  5. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Analyse comportementale


    Outre les caractéristiques physiques, un individu possède également plusieurs éléments liés à son comportement qui lui sont propres :


    - dynamique des frappes au clavier (keystroke-scan) : les frappes au clavier sont influencées par plusieurs choses; tout d'abord, selon le texte que l'on tape et, de manière plus générale selon sa nature, on aura tendance à modifier sa façon de taper au clavier. C'est d'ailleurs un des moyens utilisés par certaines attaques (timing attacks) pour essayer d'inférer le contenu ou la nature du texte tapé de façon à remonter jusqu'à un mot de passe par exemple. Ces techniques sont assez satisfaisantes mais restent néanmoins statistiques.
    Ensuite, le facteur comportemental entre en jeu, et ce facteur va être – lui - différent pour chaque individu. Les facteurs sont à peu de chose près identiques à ceux évoqués précédemment : ce sont les durées entre frappes, la fréquence des erreurs, durée de la frappe elle-même, etc. La différence se situe plus au niveau de l'analyse, qui peut être soit statique et basée sur des réseaux neuronaux, soit dynamique et statistique (comparaison continuelle entre l'échantillon et la référence).


    - reconnaissance vocale
    (voice-scan) : les données utilisées par la reconnaissance vocale proviennent à la fois de facteurs physiologiques et comportementaux. Ils ne sont en général pas imitables.


    - dynamique des signatures
    (signature-scan) : ce type de biométrie est à l'heure actuelle peu utilisé mais ses défenseurs espèrent l'imposer assez rapidement pour des applications spécifiques (documents électroniques, rapports, contrats...). Le procédé est habituellement combiné à une palette graphique (ou équivalent) munie d'un stylo. Ce dispositif va mesurer plusieurs caractéristiques lors de la signature, tel que la vitesse, l'ordre des frappes, la pression et les accélérations, le temps total, etc.
    Bref tout ce qui peut permettre d'identifier une personne de la façon la plus sure possible quand on utilise une donnée aussi changeante que la signature.


    L'informatique ambiante utilise différents capteurs, dont éventuellement des capteurs biométriques pour permettre aux personnes de communiquer de manière plus intuitive avec les personnes (ex : Projet SixthSense développé par Pranav Mistry au MIT). Des systèmes informatiques peuvent aussi utiliser la biométrie pour la recherche de visage, de personnes dans une vidéo, des images, une foule, etc. ...avec des risques potentiels ou avérés pour la protection de la vie privée.

    Analyse comportementale et morphologique


    La
    voix.


    -
    Quand elle interprète sa partie d'une œuvre musicale, la voix est utilisée comme un
    instrument de musique (elle est à ce titre considérée comme le plus ancien).
    - La production du son vocal, ou phonation, est obtenue par l'envoi d'air à travers deux cordes vocales en vibration, situées dans le larynx, puis par amplification et résonance grâce aux différents organes résonateurs, comme le pharynx, la cavité buccale ou les fosses nasales.

    - La voix humaine est capable de produire une très grande variété de fréquences. - C'est en modifiant la tension, et surtout, l'épaisseur des cordes vocales, que l'on peut changer leur fréquence de vibration, ce qui a pour effet de faire varier la hauteur des sons émis par la voix. Toutes ces modifications sont le fruit d'actions neuro-cérébrales.

    Technique


    La technique du chant est très complexe et demande beaucoup de pratique pour pouvoir être bien maîtrisée. Contrairement aux idées reçues, lorsque l'on chante, ce ne sont pas seulement les cordes vocales qui se mettent en action, mais véritablement tout le corps.
    En effet, les poumons sont la partie essentielle de l'instrument. Ce sont eux qui fournissent l'air permettant de mettre en vibration les cordes vocales. Le diaphragme (le muscle des poumons) commande l'inspiration. Quand il est en position basse, il cesse son action. L'expiration de l'air se fait alors par les muscles abdominaux, transverses et obliques appuyés sur le grand-droit, eux-mêmes en rapport direct avec les viscères (foie, estomac, intestin…). C'est le larynx qui renferme les cordes vocales, qui se tendent ou se détendent sous l'action complexe de plusieurs muscles. Pour permettre au chanteur d'émettre des sons de différentes hauteurs, le larynx se tend de façon plus ou moins accentuée. Quand il monte ou descend dans la trachée, il modifie la dimension de la caisse de résonance et modifie en conséquence le timbre, mais pas la hauteur du son.
    Ce sont les muscles intrinsèques du larynx qui agissent sur la hauteur du son produit : - muscles adducteurs des plis vocaux; - un muscle abducteur des plis vocaux : le muscle crico-aryténoïdien postérieur; - les muscles tenseurs des plis vocaux : le muscle crico-thyroïdien et le muscle thyro-aryténoïdien ou muscle vocal (Anatomie ORL de Pierre Bonfils et Jean-Marc Chevallier - Médecines-Sciences Flammarion 2005)


    Les différents registres vocaux sont obtenus selon la tension et la déformation des plis vocaux induite par ces différents muscles. Les médecins parlent de : registre épais inférieur et registre épais supérieur et de registre mince et petit registre (Docteurs Stéphane de Corbière et Elisabeth Fresnel - Collège International de Médecine et Chirurgie - American Hospital of Paris - Edition 2001).


    Les professionnels de la voix, quant à eux, distinguent quatre façons d'émettre des sons vocaux, en rapport aux différents modes de fonctionnement du larynx, dits «mécanismes»
    :

    • Le mécanisme 0 dit «Fry» ou «strohbass»
    • Le mécanisme I dit «voix de poitrine», le larynx est parfaitement descendu dans la gorge, les sons sont timbrés. Exemple, la basse solo au début du Tuba Mirum du Requiem de Mozart. Il correspond aux registres épais inférieur et supérieur de la médecine.
    • Le mécanisme II dit «voix de tête» ou «falsetto», le larynx est monté dans la gorge, les sons sont minces et légers. Exemple l'«air de l’Arithmétique» dans L'Enfant et les Sortilèges de Maurice Ravel. Il correspond au registre mince et au petit registre de la médecine.
    • Le mécanisme III dit «voix de sifflet». Il permet de produire des sons au-delà de 1500Hz, mais est très peu utilisé en chant.
    Pour s'exercer le chanteur pratique ce que l'on appelle des vocalises, exercices qui doivent amener le chanteur à une parfaite homogénéité de sa voix du grave à l'aigu.

    Typologies vocales


    Note: Cette typologie est uniquement valable pour les chanteurs et chanteuses lyriques car elle implique l'utilisation d'une technique de chant classique, notamment chez les femmes avec l'usage de la voix de tête à partir d'une certaine hauteur, tandis que la plupart des chanteuses de variété utilisent la voix de poitrine (ou voix «pleine»).

    Il existe différents types de voix. On différencie communément les voix de femmes et d'enfants des voix d'hommes, les voix féminines et enfantines étant plus aiguës que les voix d'hommes (sauf exceptions) en raison de phénomènes hormonaux.
    La typologie classique, reprise entre autres par Hector Berlioz dans son Traité de l'orchestration, a choisi de retenir six principaux registres (grave/médium/aigu), nommées comme suit en termes musicaux :
    • Les sopranos, ou voix aiguës de femmes et d'enfants (voire rarement d'hommes)
    • Les mezzo-sopranos, ou voix moyennes de femmes et d'enfants, voire d'hommes
    • Les altos, ou voix graves de femmes et d'enfants, voire d'hommes
    • Les ténors, ou voix aiguës d'hommes
    • Les barytons, ou voix moyennes d'hommes
    • Les basses, qui comme leur nom l'indique correspondent aux voix graves d'hommes.
    Cette classification se fait en fonction du timbre, de l'épaisseur, et de la tessiture de la voix, terme utilisé en musique pour désigner une échelle sonore définie, dans laquelle la voix peut émettre des sons aisément, en gardant une homogénéité de timbre. Certaines exceptions peuvent se rajouter à ces classifications :
    • Les contre-ténor et les haute-contre qui sont deux types différents de voix. Le premier est un ténor ou un baryton, chantant uniquement avec sa voix de tête, sauf pour le registre très grave où il passe en voix de poitrine. Le second est un ténor, utilisant occasionnellement sa voix de tête pour les aigus (ou sur-aigus).
    • Certaines femmes possèdent des voix très graves, appelées «femmes ténors». On en trouve plus en Europe de l'Est et elles sont très employées dans la musique chorale de Bulgarie.
    Enfin, certaines voix virtuoses peuvent atteindre des notes extrêmement aiguës comme les sopranos légers colorature ou encore des notes très graves comme les basses profondes (ou basses «nobles»), souvent présentes dans la musique slave. Les notes extrêmes dans l'aigu (au-dessus du do[SUP]4[/SUP] pour les hommes, et au-dessus du do[SUP]5[/SUP] pour les femmes ou les enfants) sont également appelées « contre-nom-de-la-note ». Exemple : le contre-ut du ténor correspond au do[SUP]4[/SUP], le contre-mi de la soprano au mi[SUP]5[/SUP].

    La
    gestuelle
    (Voir Intelligence ambiante - Nanotechnologies) #4
     
  6. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Vie privée et informatique


    L'apparition de l'
    informatique a changé la nature des problèmes posés par la notion de vie privée. Si l'informatisation des données a été généralement considérée comme un progrès, elle s'est aussi accompagnée de dangers - en littérature Big Brother, le panoptique et dès l'époque latine la question de Juvénal : Quis custodiet ipsos custodes? (Mais qui gardera ces gardiens ?) - liés à la possibilité pour autrui ou un pouvoir institué, d'avoir un accès non contrôlé aux informations de nombreux citoyens.

    Traditionnellement, la protection de la vie privée repose sur l’édification de barrières légales (par exemple loi informatique et libertés) et techniques (cryptographie). Dans le cas d'internet, l'obfuscation vient compléter cet arsenal.

    Principes clés


    Les défenseurs de la vie privée n’ont voulu que chaque citoyen :

    • puisse maîtriser qui détient des informations sur eux ainsi que le type d'information personnelle détenue
    • puisse maîtriser l'usage qui est fait de cette information, en particulier :
      • qu'il puisse éviter de se faire interpeller (par téléphone, par courrier, par courriel...)
      • qu'il ait un contrôle sur les informations le concernant : avoir été la bête noire d'un directeur particulier ne doit pas handicaper ses chances de retrouver un emploi.
      • qu'il ait un droit de consultation et de rectification de ces informations (que "signe particulier : boîte" ne se transforme pas à la suite d'une erreur de saisie en "signe particulier : boit" !)
    • À long terme, les Européens prennent souvent l'exemple du totalitarisme : il ne faudrait pas qu'en cas d'installation d'un tel régime, celui-ci puisse «avoir accès à des informations de ségrégation».
    Ces demandes ont parfois été reçues :

    • Avec la directive 95/46/CE, l'Union européenne impose que les données personnelles collectées par une société pour rendre un service ne puissent être utilisées sans l'accord express de son utilisateur : il s'agit de l’opt-in du citoyen. À comparer à l’opt-out qui prévalait avant et où un citoyen devait spécifiquement interdire l'usage de ses données personnelles.
    • Suivant les pays, il y a un droit d'accès et de modification.
    • Suivant les pays, le refus que l'on utilise les données personnelles dans un but de sollicitation commerciale ne doit pas porter atteinte à l'accès au service initial. Donc égalité de traitement des personnes.
    • le droit à l'oubli se développe, (voir Archivage électronique#Le «droit à l'oubli»).
    • Chaque personne peut avoir des préférences différentes selon le cas. Certains acceptent d'être sollicités, d'autres refusent, et tout dépend du contexte.
    Ainsi :

    • Les données personnelles sont, pour l'instant :
    • Les défenseurs de la vie privée établissent une distinction entre possesseur des données et dépositaire. On peut le traduire d'une autre façon : « mes données sont une extension de moi-même », donc quand on les touche, je veux m'en apercevoir. Ce serait de ce principe que découlerait le droit d'accès et de modification. Une idée en ce sens serait que toute personne puisse souscrire à un organisme de gestion de mes données qui permettrait de lui rapporter qui a des informations sur lui, quelles sont les informations, pour quels usages elles sont destinées, et qui lui permettraient de les corriger, modifier, supprimer lorsque de droit.
    • Certains standards orientés utilisateurs mettent en avant ces deux principes : notice & consent (« notification et consentement »), mais ces deux seules fonctions témoignent qu'en fait, dans ce domaine, c'est le logiciel qui dicte ce que le citoyen peut exiger, et non le contraire. Sinon les standards parleraient de « notice, consent, auditing of accesses, access and update ».
    • Les données sensibles des personnes.

    La gestion et la protection des données personnelles
    collectées et stockées par les fournisseurs de service


    Les fournisseurs de services, que ce soit l'administration ou des opérateurs de service sont amenés à collecter et stocker des informations personnelles dans le but de fournir le service. Toutes les bases de données ainsi collectées doivent être soumises à l'autorisation préalable de la CNIL. L'autorisation concerne :


    • Le type de données gérées
    • L'usage des données ainsi collectées
    • La durée de conservation
    Les données personnelles collectées
    Deux catégories de données sont stockées et gérées dans des fichiers informatiques par les fournisseurs de service:

    • Les données fournies par l'utilisateur, en général au moment de la souscription au service:
      • Données nécessaires à l'identification de l'usager ou du client (nom, prénom, date de naissance, sexe, etc).
      • Données nécessaires à la facturation du service (adresse de facturation et moyen de paiement)
      • Données nécessaires à la fourniture du service
      • Données complémentaires, optionnelles, que le fournisseur de service peut collecter pour un usage marketing à condition d'avoir obtenu l'accord express du client
      • Données complémentaires demandées en échange de la fourniture d'un service gratuit sur Internet
    • Les données collectées pendant la fourniture du service. Il s'agit des données les plus sensibles en matière de vie privée. Ces données dépendent du type de service fourni :
      • Opérateurs de télécommunication - tickets de facturation et d'usage permettant de retrouver
        • l'ensemble des correspondants d'une personne (émission et réception)
        • l'ensemble des sites web visités et des pages vues
        • l'ensemble des lieux physiques (cellules) où un téléphone mobile allumé a été vu, même s'il n'a pas appelé
      • Services bancaires
        • ensemble des transactions de paiement horodatées avec les coordonnées de la contrepartie (commerçant)
        • incidents de paiement
        • crédits et incidents de remboursement
        • revenus récurrents
      • Services de santé (incluant Sécurité sociale et assurance) - information sur les maladies d'une personne et les médicaments achetés
      • Services d'éducation
      • Fournisseurs de service gratuit sur Internet : Données d'usage du service utilisées par le fournisseur de service pour se rémunération
    Les services de police et les renseignements généraux collectent des données pour leurs besoins propres. Une quarantaine de fichiers différents existent ainsi en France.

    L'usage des données
    Les données collectées sont utilisées pour fournir le service, le facturer et gérer les réclamations. Mais les préoccupations en matière de protection de la vie privée concernent :


    • La capacité du fournisseur de service à protéger les données stockées, d'un accès extérieur malveillant
    • L'usage qui est fait des données collectées pour une usage non prévu par le contrat (action marketing, location de fichiers, etc.)
    Les établissements financiers et les opérateurs de télécommunication possèdent des informations extrêmement sensibles sur la vie privée de leur client. La CNIL veille particulièrement à ce que ces données ne soient pas traitées pour des actions marketing.
    Certaines données doivent être mises à la disposition de la police sur commission rogatoire.

    Durée de conservation des données
    La conservation des données administratives peut-être extrêmement longue, et durer toute la vie (Cotisations retraites, transactions immobilières par exemple).
    La durée de conservation par les fournisseurs de services non administratifs est soumise en France à l'accord préalable de la CNIL. Les données ne doivent être en principe conservées que pendant la durée nécessaire à fourniture du service, ainsi que pendant une période complémentaire raisonnable. L'article L110-4 du Code de commerce français prévoit que «Les obligations nées à l'occasion de leur commerce entre commerçants ou entre commerçants et non-commerçants se prescrivent par cinq ans si elles ne sont pas soumises à des prescriptions spéciales plus courtes». Ainsi les entreprises de services peuvent raisonnablement conserver certaines données personnelles de leur client pendant cinq ans après la fourniture du service.
    En cas de résiliation du service, les données nécessaires à la collecte du dernier paiement peuvent être conservées tant que la dernière facture est considérée comme exigible. En cas de litige, la durée peut être de plusieurs années. Même si la résiliation est faite normalement, le fournisseur conserve des données pour relancer ses anciens clients.
    Néanmoins la loi peut exiger une conservation beaucoup plus longue des données; il en est ainsi :


    • De la conservation des données bancaires qui peuvent être utilisées comme preuve dans des conflits commerciaux (dix ans pour les paiements, réduit à cinq ans depuis 2008)
    • Des données de télécommunication qui peuvent servir de preuve lors des procès au pénal ou pendant les enquêtes judiciaires qui peuvent avoir lieu longtemps après les faits.
    Protection des données
    C'est un point extrêmement sensible, puisque l'on sait que malgré les moyens de protection mis en œuvre, aucun système ne peut être considéré comme inviolable.
    Ainsi le fournisseur de service doit :


    • S'assurer que l'accès à son système d'information est protégé des accès extérieurs. Il doit également s'assurer de l'impossibilité d'altérer les données.
    • Respecter les règles en matière de stockage des données bancaires (interdiction de stocker en clair les numéros de carte par exemple)
    • Éviter de stocker les mots de passe des clients, mais se contenter de stocker l'information permettant de contrôler les mots de passe.
    Traces sur Internet
    Ce que l'on appelle ainsi, ce sont tous les fichiers qui s'enregistrent sur l'ordinateur d'un utilisateur, le plus souvent à son insu, lorsqu'il navigue sur Internet : cookies, historique, formulaires, fichiers téléchargés, fichiers Internet temporaires... Les logiciels comme Internet Explorer en version 7, Firefox, Chrome, CCleaner, Wise Disk Cleaner ou encore Steganos Internet Anonym permettent d'effacer facilement ces traces.

    D'autres méthodes réduisent sensiblement le traçage (et la censure) des internautes soit sur l'internet normal (
    Tor) soit en constituant un réseau anonyme (Freenet, I2P)


    Le paradoxe de la vie privée
    Ce terme français, issu de l'expression anglaise «privacy paradox», désigne le paradoxe entre une pratique, la divulgation quotidienne de ses données à caractère personnel particulièrement développée sur internet (commodité, usage dans le web social) et un souhait, la volonté de protéger sa vie privée.

    Législation


    Depuis les années 1970, la plupart des pays industrialisés se sont dotés de lois contre la violation de la vie privée.

    L’OCDE a été le principal acteur, c'est lui qui a fourni les grands principes qui devaient être suivis par tous les pays membres. Les pays anglo-saxons ont plutôt adopté des positions autorégulées par le marché, souvent organisées par branche d'activité.





    ________________________________________
    Nom de la page : Vie privée et informatique
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Vie privée et informatique de Wikipédia en français (auteurs)
    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique


    .........
     
  7. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Passeport biométrique


    Un passeport est un document de circulation délivré par le gouvernement d'un État à ses citoyens, pouvant aussi servir de justificatif d'identité — mais ne constituant pas toujours une preuve de nationalité.


    Il contient généralement le nom, la photographie d'identité, la signature, la date et lieu de naissance du titulaire, et d'autres facteurs aidant à son identification. L'obligation d'intégrer dans des puces des données biométriques est progressivement mise en place dans certains États, notamment ceux de l'Union européenne.

    Les passeports ont une origine ancienne, mais leur fonction a changé avec l'établissement des États-nations modernes au XIX[SUP]e[/SUP] siècle. Le contrôle des passeports, qui a été allégé lors de la seconde moitié du XIX[SUP]e[/SUP] siècle, a été strictement rétabli lors de la Première Guerre mondiale. Dès la fin de celle-ci, de nouvelles lois rendent permanentes les dispositions temporaires prises lors de la Grande guerre. Ce n'est toutefois qu'après la Seconde Guerre mondiale qu'un système international unifié et harmonisé des passeports émerge.
    En permettant à la fois d'attester de la nationalité de son porteur et de contrôler les migrations, les passeports sont devenus une pièce maîtresse de la souveraineté étatique. S'ils sont aujourd'hui davantage utilisés pour contrôler les entrées sur le territoire, ils ont pu, à certaines périodes et dans certains pays, être utilisés pour contrôler voire empêcher l'émigration.


    Histoire

    Une des plus anciennes références au passeport a été faite dans le Livre de Néhémie. Néhémie, un officiel servant le roi Artaxerxès de l'antique Perse en 450 av. J.-C, a demandé la permission de voyager en Judée. Le roi, qui était d'accord, lui donna une lettre adressée "aux gouverneurs de la province par-delà la rivière" leur demandant de le laisser passer à travers leurs territoires.

    Le terme «passeport» est très ancien : il remonte au XV[SUP]e[/SUP] siècle et vient de «passe» et «port» : il s'appliquait à l'époque à la libre circulation des marchandises. Son utilisation pour les voyageurs est attestée dès 1464. Le mot proviendrait non pas des ports marins, mais du document médiéval requis pour passer les portes des villes fortifiées. En 1548, la Diète impériale d'Augsbourg oblige la «populace sans maître» à détenir des documents de voyage impériaux pour circuler, à moins de risquer l'expulsion. Le terme de «passeport» (Passporten) aurait été utilisé peu après (en 1570) dans la langue juridique.

    Le roi Frédéric-Guillaume I[SUP]er[/SUP] de Prusse (1713-1740) imposa plusieurs lois contre le vagabondage exigeant des passeports, qui devaient être visés dans chaque ville. L'émigration des paysans est alors punie de mort. La doctrine mercantiliste considère en effet la population comme une richesse, et s'emploie donc, avec plus ou moins de succès, à bloquer les flux d'émigration. En Prusse en 1753, une mesure de police impose à tout «voyageur», sauf «officiels de l'armée» ou «autres personnes de qualité», de se prémunir d'un «passeport».


    Au XIXe siècle: le contrôle des «classes dangereuses»


    Après la Révolution française, l'édit d'octobre 1807 libère du servage tous les Prussiens qui y étaient encore asservis, permettant une grande liberté de circulation. Mais, une semaine avant de déclarer la guerre à Napoléon, Frédéric-Guillaume III promulgue une nouvelle loi, le 20 mars 1813, imposant un régime strict des passeports, qui, selon l'historien John Torpey (1998), donne «aux mesures prises par la France révolutionnaire une allure désordonnée et improvisée». Ces dispositions furent abrogées après le Congrès de Vienne par la loi du 22 juin 1817. Celle-ci obligeait toutefois toute personne voulant sortir de Prusse à exiger un passeport. Ces mesures restreignant l'émigration perdurent jusqu'au moins le milieu du XIX[SUP]e[/SUP] siècle. En 1820, le gouvernement prussien décide de punir de prison ceux qui incitent à l'émigration. À l'intérieur du pays, les voyageurs n'ont pas besoin de passeport, mais doivent pouvoir certifier leur identité face à la police.
    À cette fin, le Ministère de la Police délivre sur demande des «cartes d'identité» (Legitimationskarte).


    Le 18 octobre 1850, un «Traité des laissez-passer» est signé entre «tous les États allemands», sauf les Pays-Bas, le Danemark, le Hesse-Hombourg et le Lichtenstein, qui adoucit les formalités nécessaires. Les laissez-passer sont uniformisés, tandis que le visa obligatoire est supprimé. Toutefois, ces laissez-passer ne sont accordés qu'aux personnes «dignes de confiance» et suffisamment riches pour pouvoir subvenir à leurs besoins. Les domestiques, les apprentis itinérants ou autres personnes en quête d'emploi n'y ont pas le droit. Les formalités visent ainsi principalement les «classes dangereuses». Pour les autres, progressivement les formalités sont allégées, le visa étant supprimé par la Suisse en 1862.

    En 1865, un traité abolissant la nécessité des passeports, mais conservant celle de pouvoir certifier son identité, est signé entre la Saxe, la Bavière, le Hanovre et le Würtemberg. La Prusse, qui refuse de signer ce traité, pourtant ouvert à «tous les États de la Confédération allemande», négocie sous l'égide de Bismarck une nouvelle loi, en 1867, s'appliquant à la Confédération de l'Allemagne du Nord, qui supprime les formalités de passeport et les visas pour les sujets de la Confédération ainsi que pour les étrangers, et qui interdit les «cartes de résidence» (Aufenthaltstkarten) sur le territoire de la Confédération. Les autorités conservent toutefois le droit de vérifier l'identité des voyageurs.
    Mais la loi de 1867, débattue en septembre au Reichstag, se distingue surtout du traité de 1865 en éliminant les restrictions visant les classes populaires.

    Toutefois, la loi de 1867 permet aussi le rétablissement du contrôle des passeports pour des raisons liées à l'ordre public, ce qui est fait dès 1878, afin de mieux contrôler le mouvement socialiste naissant. En 1879, l'Empire impose des formalités de passeport aux migrants venant de Russie. 30 000 Polonais sont déportés hors de Prusse (en) à partir de 1885. Les passeports deviennent obligatoires à partir de 1894 pour les étrangers venant en Allemagne, tandis que les ouvriers étrangers se voient imposer en 1908 une carte d'identité (Legitimationswang). L'Agence des Ouvriers Agricoles Allemands (Deutsche Feldarbeiterzentrale), fondée en 1905, est chargée de les contrôler.


    De la «Belle époque» à l'entre-deux-guerres


    Les formalités de passeport sont progressivement allégées, sans disparaître complètement, à la fin du XIX[SUP]e[/SUP] siècle, à la faveur du régime du laissez-faire. Les diverses lois ne sont plus guère appliquées, sauf en ce qui concerne le contrôle des ouvriers étrangers (que ce soit dans l'Empire allemand, ou en France, avec le décret du 2 octobre 1888 et la loi du 8 août 1893). L'Italie promulgue en 1901 une loi qui oblige les émigrants italiens à se prémunir de passeport. Plutôt qu'empêcher l'émigration, considérée comme soupape de sûreté, cette loi vise plutôt à s'assurer que ceux qui immigrent aux États-Unis ne soient pas rejetés par ces derniers, qui ont imposé un certain nombre de contrôles dès la fin du XIX[SUP]e[/SUP] siècle.

    Dès août 1914, tous les États rétablissent des formalités strictes qui perdurent tout au long de la Première Guerre mondiale, et qui sont rendues permanentes par la suite. Celles-ci ont à la fois pour objectif de surveiller les étrangers, et d'empêcher les nationaux d'échapper à la conscription.

    Le Royaume-Uni promulgue d'abord l'Aliens Act de 1905, qui rétablit les formalités de l'Aliens Restriction Act de 1836, qui n'étaient plus guère appliquées: tout étranger entrant sur le territoire national doit donc présenter au douanier «tout passeport en sa possession», et, le cas échéant, à faire la preuve de sa nationalité britannique (et donc se prémunir aussi d'un titre d'identité attestant de sa qualité de sujet britannique (en)). La loi de 1905 est combattue, sans succès, par les libéraux de Manchester. En août 1914, Londres promulgue de façon simultanée le British Nationality Act et le Status of Aliens Act. Ces contrôles et restrictions, à l'origine temporaires, sont rendues permanentes par l'Aliens Order de 1920. Celui-ci rend quasi-obligatoire le port d'un passeport à tout citoyen britannique désirant retourner au pays.

    De même, dès le début de la guerre, la France rétabli les formalités de contrôle des passeports, tombés en désuétude (sauf pendant la Commune de 1871). En avril 1917, deux décrets promulgués par le gouvernement Clemenceau imposent aux étrangers le port d'une carte d'identité.

    L'Empire allemand contrôle dès le 31 juillet 1914 ceux qui entrent sur le territoire, avant d'étendre cette mesure à ceux qui en sortent.

    Par le décret du 6 août 1914, l'Italie empêche à tous ses nationaux en âge d'effectuer leur service militaire d'émigrer. Les formalités de passeport pour les candidats à l'émigration sont renforcées en mai 1915. L'année suivante, le décret du 16 mars 1916 suspend complètement l'émission de passeports pour les voyages à l'étranger, et le passeport interne, évoqué dans la loi sur la sécurité publique de 1889, est rétabli. L'Italie, qui avait jusque là permis aux étrangers d'entrer sur le territoire national sans contrôle, effectue un virage spectaculaire à la faveur de la guerre.

    De provisoires, ces dispositions sont rendues permanentes aux lendemains de la guerre. L'Allemagne les entérine par un arrêté de juin 1919, le Royaume-Uni par l'Aliens Order de 1920. Les Italiens obligent les émigrants à posséder un passeport (décret de mai 1919), disposition qui vise plutôt à protéger les migrants contre les mesures de contrôle adoptées par les États-Unis et autres États accueillant la main-d'œuvre italienne.

    Les États-Unis, qui avaient obligé, par l'arrêté du 15 décembre 1915, les immigrants à se faire viser le passeport par des fonctionnaires américains avant leur départ, entérinent cette disposition par une loi le 22 mai 1918. Une nouvelle loi, en 1919, étend ces dispositions au temps de paix. Les quotas d'immigration (loi de 1921, loi Johnson-Reed de 1924, etc.) imposent aux migrants de justifier de leur nationalité, et donc d'obtenir un passeport ou certificat d'identité. La loi de 1924 oblige aussi à ceux-ci de se faire viser le passeport avant leur départ. Enfin, Washington créé en 1924 la police fédérale des frontières (Border Patrol).

    En 1922, l'Office international Nansen pour les réfugiés, qui dépend de la Société des Nations, met en place le passeport Nansen pour les réfugiés russes, devenus apatrides par le décret soviétique du 15 décembre 1922, le nouveau système international des passeports rendant sinon impossible leurs déplacements. Ce système est étendu aux Arméniens qui fuient le génocide en mai 1924, puis, en 1933, aux Assyriens et minorités fuyant l'ex-Empire ottoman.

    L'Allemagne nazie et l'Italie fasciste établissent des formalités strictes, visant les étrangers, les juifs, les vagabonds (le Wanderbuch), etc.


    Après 1945


    Ce n'est qu'après la Seconde Guerre mondiale que les formalités de passeport ont été véritablement uniformisées dans le système international. La décision du Canada, en 1946, d'édicter ses propres dispositions concernant la nationalité canadienne, bouleverse le système des passeports à l'intérieur du Commonwealth. Les sujets britanniques (en) de la Couronne doivent ainsi choisir entre la nationalité du dominion où ils vivent, ou devenir «citoyen du Royaume-Uni et des colonies (en)» (CUKC), statut créé par une loi de 1948.

    En 1966, le Pacte international relatif aux droits civils et politiques consacre le droit de chacun de quitter son pays, réaffirmé, en même temps que le droit pour tout national d'entrer librement dans son pays, dans le quatrième protocole de la Convention européenne des droits de l'homme (art. 12-4; non ratifié par le Royaume-Uni en raison d'un droit de la nationalité spécifique et créant une nationalité britannique de second rang, n'ayant pas la citoyenneté ni le droit de résider au Royaume-Uni, pour certains sujets des ex-colonies).


    En France

    Lorsqu'il revient sur les monopoles commerciaux créés par Colbert, Louis XIV délivre dès 1669 des autorisations de commerce à certains ports, dont celui de Nantes, et qui ne relèvent que du bon vouloir royal, appelés «passe-ports». C'est l'époque où sont créés dans chaque colonie des postes de gouverneur et d'intendant, la compagnie des Indes occidentales étant dissoute en 1674 par Louis XIV.

    Des certificats étaient ainsi utilisés dès l'Ancien Régime, en généralisant le système inventé lors de la peste de Marseille. Un registre des soldats est notamment mis en place en 1716 par Claude Le Blanc afin de lutter contre la désertion.

    Les passeports sont abolis au début de la Révolution, au nom de la liberté de circulation, qui est l'un des premiers droits énoncés par la Constitution de 1791. Mais leur usage est vite rétabli, en droit sinon en fait, avec une multitude de décrets et de lois (décret du 1[SUP]er[/SUP] février 1792, décret de la convention nationale du 7 décembre 1792 qui permet à l'administration de refuser d'émettre un passeport à quelqu'un qui le demande — décret qui a «force de loi» selon le Conseil d'État (1991), etc.). Ces textes réglementaires ne sont toutefois qu'imparfaitement appliqués.

    La France a notamment utilisé le système du livret ouvrier tout au long du XIX[SUP]e[/SUP] siècle. La loi sur les nomades du 16 juillet 1912 (soutenu en particulier par Pierre-Étienne Flandin) oblige aussi ces derniers à se munir d'un «carnet anthropométrique». Selon l'art. 8 du décret d'application de 1913 :
    «Il doit, en outre, recevoir le signalement anthropométrique qui indique notamment la hauteur de la taille, celle du buste, l’envergure, la longueur et la largeur de la tête, le diamètre bizygomatique, la longueur de l’oreille droite, la longueur des doigts médius et auriculaires gauches, celle de la coudée gauche, celle du pied gauche, la couleur des yeux : des cases sont réservées pour les empreintes digitales et pour les deux photographies (profil et face) du porteur du carnet.»
    On impose en 1917 le port obligatoire de la carte d'identité à tous les étrangers, celle-ci ne devenant obligatoire pour tous que sous Vichy, avec la loi du 27 octobre 1940.

    Restriction à l'intérieur d'un pays


    Un passeport est généralement utilisé pour circuler à l'extérieur de son pays d'origine ou du moins pour passer les frontières entre Etats. Cependant certains pays ont pu rendre obligatoire un document de voyage pour limiter ou contrôler la circulation des personnes sur son territoire.

    Outre la Prusse ou la France, le plus célèbre fut sans doute l'Union soviétique, repris en partie par la Russie contemporaine, qui avec le propiska (système d'enregistrement du lieu de résidence) unifie les méthodes de contrôle étatique des déplacements sur son territoire. Le décret du 27 décembre 1932, qui institue le propiska pour les citadins, visait en grande partie à prévenir l'exode rural de paysans affamés suite à la famine consécutive au Premier plan quinquennal (1928-1933). Un citoyen soviétique devait par exemple pouvoir justifier sa présence à Moscou à l'aide d'un document officiel. La fraude était massive, en partie en raison de l'attrait de la capitale, mais surtout en raison de la complexité du système, conduisant à un fractionnement de l'entité territoriale.
    Le contrôle de la mobilité interne et les documents officiels à cet usage existait déjà dans l'Empire russe (par exemple le podaroshna, dont est doté le héros de Jules Verne, Michel Strogoff), mais la loi de 1932 innova en instituant un titre d'identité unique sur tout le territoire soviétique.


    En Chine subsiste le huji, tandis que le programme Détention et Rapatriement, officiellement mis en place de 1982 à 2003, servait à contrôler les migrations internes et éviter un trop important exode rural.

    L'Afrique du Sud avait mis en place, à l'époque de l'apartheid, les Pass laws (en) dès 1923, obligeant les Noirs sud-africains à se munir d'un titre d'identité afin de pouvoir se mouvoir.
    L'Italie fasciste, elle, supprimait les passeports des citoyens soupçonnés d'être des opposants au régime. L'exil intérieur (confinato) a ainsi été la solution de rechange à l'exil pour de nombreux opposants.


    Passeport électronique et biométrique


    Selon les normes internationales de l'Organisation de l'aviation civile internationale (OACI), la transition vers les passeports électroniques devra être achevée en 2015. À ces normes minimales, certains États ont rajouté l'exigence d'intégrer aux passeports électroniques des données biométriques, notamment la photographie numérisée du visage et deux empreintes digitales, également stockées sur la puce électronique.

    Les normes de l'OACI


    Au niveau international, la partie électronique du document répond aux spécifications définies par l'Organisation de l'aviation civile internationale (OACI) dans le DOC9303, Partie 1, Volume 2, rédigé après les attentats du 11 septembre 2001.
    Ce document, cependant, n'oblige pas à émettre des passeports biométriques, mais seulement des passeports lisibles à la machine (machine-readable passports (en), MRP), faisant appel à la reconnaissance optique de caractères (un certain nombre d'informations relatives à l'état civil étant inscrites sur la bande magnétique).

    Les 192 Etats membres de l'ICAO doivent, selon ces normes, émettre des MRP à partir d'avril 2010, tout passeport non lisible à la machine devant expirer en 2015.
    En août 2010, environ 170 Etats répondaient à ces normes; les États-Unis ont fortement poussé à leur adoption rapide en rendant obligatoire ces passeports aux voyageurs voulant et pouvant bénéficier du Visa Waiver Program (en) (programme d'exemption de visas). Par ailleurs, seuls 16 États (dont, par exemple, l'Allemagne) participent à l'ICAO Public Key Directory, système international permettant de vérifier l'intégrité des puces et de s'assurer qu'elles n'ont pas été modifiées ni échangées, en activité depuis début 2007.

    Les données à stocker dans le document sont typiquement d'une taille comprise entre 32 et 64 kilo octets.

    Le mécanisme de base qui permet d'améliorer la sécurité du document via le support de l'électronique est l'Authentification Passive, permettant schématiquement de signer les données associées au porteur du passeport (données textuelles [Nom, Prénom, Sexe, Numéro de document, etc.….], image faciale, empreintes digitales).

    D'autres mécanismes sont également disponibles de manière optionnelle, tels le Contrôle d'accès basique (en) qui permet en principe de prévenir l'espionnage de la liaison lecteur sans-contact ↔ passeport et l'accès au passeport à l'insu du porteur ou l'Authentification active qui permet de prévenir le clonage du document.


    Règlement européen


    Le règlement (CE) n[SUP]o[/SUP] 2252/2004 du Conseil européen du 13 décembre 2004 «établissant des normes pour les éléments de sécurité et les éléments biométriques intégrés dans les passeports et les documents de voyage délivrés par les États membres» prévoit la prise des empreintes digitales de toute personne demandant un passeport pour un État membre de l'Union européenne.

    Tous les États de l'UE n'ont toutefois pas encore intégré ce règlement, qui est lié au Système d'information Schengen II. Le Royaume-Uni (en) s'est ainsi limité à la photographie numérisée, refusant de prendre les empreintes digitales du porteur. Pour ces passeports, il est prévu qu'un nouveau mécanisme de sécurité, le «contrôle d'accès étendu (en)», soit utilisé.


    Le nouveau passeport biométrique français (juin 2009)

    Par décret du 30 décembre 2005 , la France a mis en place un passeport électronique, qui a été mis en circulation à partir de mai 2006.
    Le nouveau passeport biométrique est délivré depuis juin 2009. La seule différence visuelle avec le passeport électronique, c'est le mot passeport souligné sur la couverture. En revanche, la puce stocke désormais la photographie numérisée et deux empreintes digitales du détenteur du passeport.
    Comme son prédécesseur, il a une durée de validité de 10 ans pour les adultes et 5 ans pour les mineurs. Outre la photographie d'identité numérisée, l'état civil et deux empreintes digitales qui figurent sur la puce électronique, le passeport est lié à l'application DELPHINE, premier fichier national biométrique utilisé à des fins administratives.

    En France, il est possible d'effectuer sa demande de passeport biométrique dans n'importe quelle mairie équipée d'un dispositif de recueil de données biométriques, qui comporte un scanner, ainsi qu'un appareil photo et le dispositif nécessaire à l'enregistrement des empreintes digitales.

    Si dans un premier temps, dans les 2000 mairies équipées de ce matériel, il était possible pour le citoyen de se faire prendre en photo, deux ans après la mise en œuvre du nouveau passeport, près de la moitié des maires avaient supprimé l'appareil photo du dispositif. Leur but dans cette action était de préserver l'activité des professionnels locaux de la photographie, exploitants de cabines et photographes.

    En Mars 2011, l'article 16 de la Loi d'Orientation et de Programmation pour la Performance de la Sécurité Intérieure officialise cette pratique, et rends possible le recueil de la photographie par les mairies que si celle-ci étaient équipées au 1er janvier 2011. Dans tous les cas, le demandeur peut, s'il le désire, fournir lui-même les photographies.


    Autres types de passeport


    • Le passeport diplomatique est délivré aux personnes susceptibles de représenter diplomatiquement un État à l'étranger : ambassadeurs, membres du Gouvernement, chefs d'État…
    • Le passeport de service est délivré aux personnes n'ayant pas droit au passeport diplomatique mais accomplissant des missions ou étant affectés à l'étranger pour le compte du Gouvernement.
    • Le Laissez-passer de l'ONU, bien que n'étant pas un passeport, peut être utilisé en tant que document de voyage.
    • Le passeport animalier. Depuis le 1[SUP]er[/SUP] octobre 2004, les animaux domestiques (chiens, chats, furets …) doivent être munis du passeport animalier pour voyager librement au sein de l'Union européenne. Ce passeport s'obtient auprès de son vétérinaire.


    ______________________
    Nom de la page : Passeport

    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Passeport de Wikipédia en français (auteurs)
    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique
     
  8. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Biométries douces

    Soft biometrics


    Les biométries douces (en anglais Soft biometrics) sont les signes que nos sens perçoivent pour nous différencier les uns des autres. Ces signes peuvent être physiques (la couleur des yeux), comportementaux (la démarche), voire vestimentaires (port de lunettes) ; cependant, ils ne permettent généralement pas d’identifier un individu, contrairement aux signes employés dans les
    biométries classiques (l’iris, le réseau veineux).

    Le terme de biométrie douce désigne les éléments que les humains utilisent pour se reconnaitre, mais qui ne sont pas uniques et ne peuvent pas permettre une identification exacte. La couleur des yeux, des cheveux, la taille, le poids, font partie des biométries douces.

    Introduction


    On peut attribuer la paternité des biométries douces à Alphonse Bertillon au XIX[SUP]e[/SUP] siècle. Il a été le premier à proposer un système d’identification des personnes utilisant la biométrie, i.e. des mesures morphologiques et anthropométriques. Les traits les plus communs qu’il a utilisés dans son système sont la couleur des yeux, des cheveux, de la barbe et de la peau ; la forme et la taille du visage ; des caractéristiques du corps comme la taille et le poids ; et également des marques physiques définitives comme les tâches de naissance, les cicatrices et les tatouages. Une grande majorité de ces descripteurs sont à considérer comme des biométries douces.

    Plus tard, Jain redéfinit les biométries douces comme un ensemble d’éléments fournissant des informations sur un individu, même si ces dernières restent insuffisantes pour identifier les personnes car instables et incomplètes.


    Les biométries douces


    Ci-dessous une liste non exhaustive de biométries dites douces :

    • Physiques : couleur de la peau, couleur des yeux, présence d’une barbe, présence d’une moustache, taille et poids ;
    • Comportementales : démarche, frappe d’un clavier ;
    • Éléments attachés aux personnes : couleur des vêtements, tatouages, accessoires (e.g. bijoux)
    Les biométries douces partagent de nombreux avantages avec les biométries classiques mais ont de plus des points positifs spécifiques. Parmi ces avantages, on peut citer que ces biométries ne sont pas intrusives, sont faciles à calculer et compréhensibles par les humains dans la vie de tous les jours. De plus, aucun enrôlement n’est nécessaire, et le consentement ou la coopération du sujet observé n’est pas requis.

    Critiques


    La généralisation des systèmes de traçage des êtres humains suscite de nombreuses interrogations. Avec la vidéosurveillance, l'utilisation de la biométrie appliquée à l'homme (elle est déjà largement utilisée pour les animaux) pose des questions de bioéthique.
    De plus, les technologies d'identification posent des problèmes qui leur sont particuliers, par exemple elles ne sont en général pas révocables : on ne peut pas changer ses empreintes digitales, son iris ou la forme de son visage aussi facilement qu'on change un mot de passe.

    La biométrie présente malheureusement un inconvénient majeur ; en effet aucune des mesures utilisées ne se révèle être totalement exacte car il s'agit bien là d'une des caractéristiques majeures de tout organisme vivant : on s'adapte à l'environnement, on vieillit, on subit des traumatismes plus ou moins importants, bref on évolue et les mesures changent.

    Les fabricants ne recherchent pas uniquement la sécurité absolue, ils veulent quelque chose qui fonctionne dans la pratique. Ils cherchent donc à diminuer le taux de faux rejets (False Rejection Rate, FRR), tout en maintenant un taux relativement bas de fausses acceptations (False Acceptation Rate, FAR). Un système fonctionnel aura un FRR le plus bas possible. D'autre part, une FA est le fait d'accepter une personne non autorisée. Cela peut arriver si la personne a falsifié la donnée biométrique ou si la mesure la confond avec une autre personne. Un système sûr aura un FAR le plus bas possible.
    Dans la vie courante, les industriels cherchent principalement à avoir un compromis entre ces 2 taux, FRR et FAR tout en prenant en compte le temps de traitement des données biométriques et leurs stockages.


    De manière générale, les faiblesses de ces systèmes ne se situent pas au niveau de la particularité physique sur laquelle ils reposent, mais bien sur la façon avec laquelle ils la mesurent, et la marge d'erreur qu'ils autorisent.


    Perspectives de développement et de recherche


    De nombreuses recherches se poursuivent dans le domaine de la biométrie. La mise à jour dynamique des modèles de reconnaissance est l'un de ces axes de recherche. On expérimente ainsi en milieu scolaire des mesures morphologiques de la main qui s'adaptent au développement naturel de l'adolescence sans avoir à effectuer de nouvelles mesures. Des travaux sont également menés sur des systèmes adaptatifs qui prennent en compte l'évolution de la voix.

    En matière de capteurs, on notera la reconnaissance veinale qui fait aussi l'objet de recherches. Elle consiste en une analyse du réseau veineux du doigt.
    Autre axe, la multimodalité, qui consiste à combiner des reconnaisseurs (voix et visages par exemple) pour améliorer la fiabilité globale d'un système.




    __________________________
    Nom de la page : Biométrie
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Biométrie de Wikipédia en français (auteurs)
    Les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique
    __________________________


    F I N
     

Partager cette page