L'authentification htaccess








télécharger 132.71 Kb.
titreL'authentification htaccess
page2/4
date de publication05.12.2018
taille132.71 Kb.
typeDocumentos
p.21-bal.com > loi > Documentos
1   2   3   4

empreintes digitales (finger-scan): la donnée de base dans le cas des empreintes digitales est le dessin représenté par les crêtes et sillons de l'épiderme. Ce dessin est unique et différent pour chaque individu. En pratique, il est quasiment impossible d'utiliser toutes les informations fournies par ce dessin (car trop nombreuses pour chaque individu), on préferera donc en extraire les caractéristiques principales telles que les bifurcations de crêtes, les "îles", les lignes qui disparaissent, etc... Une empreinte complète contient en moyenne une centaine de ces points caractéristiques (les "minuties"). Si l'on considère la zone réellement scannée, on peut extraire environ 40 de ces points. Pourtant, là encore, les produits proposés sur le marché ne se basent que sur une quinzaine de ces points (12 au minimum vis-à-vis de la loi), voire moins pour beaucoup d'entre eux (jusqu'à 8 minimum). Pour l'histoire, le nombre 12 provient de la règle des 12 points selon laquelle il est statistiquement impossible de trouver 2 individus présentants les mêmes 12 points caractéristiques, même en considérant une population de plusieurs dizaines de millions de personnes.




Les techniques utilisées pour la mesure sont diverses : capteurs optiques (caméras CCD/CMOS), capteurs ultrasoniques, capteurs de champ électrique, de capacité, de température...
Ces capteurs sont souvent doublés d'une mesure visant à établir la validité de l'échantillon soumis (autrement dit, qu'il s'agit bien d'un doigt) : mesure de la constante diélectrique relative du l'échantillon, sa conductivité, les battements de coeur, la pression sanguine, voire une mesure de l'empreinte sous l'épiderme...

  • géométrie de la main / du doigt (hand-scan): ce type de mesure biométrique est l'un des plus répandus, notament aux Etats Unis. Cela consiste à mesurer plusieurs caractéristiques de la main (jusqu'à 90) tel que la forme de la main, longueur et largeur des doigts, formes des articulations, longueurs inter-articulations, etc... La technologie associée à cela est principalement de l'imagerie infrarouge; d'une façon générale, le système présente des FAR (False Acceptation Rate, voir plus bas) assez élevés, surtout entre personnes de la même famille ou bien encore des jumeaux.

  • iris (iris-scan): pour les 2 techniques suivantes, il faut tout d'abord faire la distinction entre l'iris et la rétine :



Source : American Academy of Ophthalmology

Autrement dit, l'étude de l'iris va se porter sur la partie de l'oeil visible ci-dessous :



En ce qui concerne l'iris, l'individu se place en face du capteur (caméra CCD/CMOS) qui scanne son iris. Celui-ci représente quelquechose de très intéressant pour la biométrie car il est à la fois toujours différent (même entre jumeaux, entre l'oeil gauche et le droit, etc...), indépendant du code génétique de l'individu, et très difficilement falsifiable. En effet, l'iris présente une quasi-infinité de points caractéristiques (que certains comparent en nombre à ceux de l'ADN), qui ne varient pratiquement pas pendant la vie d'une personne contrairement à la couleur de l'iris qui, elle, peut changer. Mais cela n'a aucune influence car les images d'iris obtenues par les capteurs sont en noir et blanc. Le seul problème de cette technique est liée à la mesure en elle-même, qui peut être source d'erreurs ou de problèmes. Ainsi, on peut quasiment dire que le nombre de problèmes rencontrés lors de cette mesure augmente proportionnellement avec la distance entre l'oeil et la caméra.
D'autres problèmes se posent à cause des reflets (nécessité d'avoir un éclairage restreint et maitrisé), et lors de la détection de faux yeux (photos) et autres fraudes. Pour ces dernières, on peut faire appel à certaines caractéristiques dynamiques de l'oeil qui prouveront son authenticité : réactivité de la pupille (dilatation/rétraction) par rapport à la quantité de lumière, étude de l'iris dans l'infrarouge et l'ultraviolet, etc...

  • rétine (retina-scan): cette mesure biométrique est plus ancienne que celle utilisant l'iris, mais elle a été moins bien acceptée par le public et les utilisateurs, sans doute à cause de son caractère trop contraignant : la mesure doit s'effectuer à très faible distance du capteur (quelques centimètres), qui effectue ensuite un balayage de la rétine. Il est physiquement impossible d'effectuer une mesure rétinienne à une distance de 30cm ou plus sur un sujet mobile comme on peut le voir dans certains films. Cette méthode requiert des sujets coopératifs et entrainés.
    Pourtant cette technique semble être tout aussi fiable que celle de l'iris; elle se base sur le fait que le schéma et le dessin formé par les vaisseaux sanguins de la rétine (la paroi interne et opposée de l'oeil) est unique pour chaque individu, différent entre jumeaux et assez stable durant la vie de la personne. La mesure peut ainsi fournir jusqu'à 400 points caractéristique du sujet, que l'on peut comparer aux 30 à 40 points fournis par une empreinte digitale!
    En conclusion, la mesure rétinienne est la plus difficile à utiliser mais également la plus dure à contrefaire.

  • visage (facial-scan): il s'agit ici de faire un photographie plus ou moins évoluée pour en extraire un ensemble de facteurs qui se veulent propres à chaque individu. Ces facteurs sont choisis pour leur forte invariabilité et concernent des zones du visage tel que le haut des joues, les coins de la bouche, etc... on évitera d'autre part les types de coiffures, les zones occupées par des cheveux en général ou toute zone sujette à modification durant la vie de la personne.
    Il existe plusieurs variantes de la technologie de reconnaisance du visage. La première est développée et supportée par le MIT et se nomme "Eigenface". Elle consiste à décomposer le visage en plusieurs images faites de nuances de gris, chacune mettant en évidence une caractéristique particulière :


Source : MIT Face Recognition Demo Page


Une autre technique appelée "feature analysis" se base sur la précédente en y rajoutant des informations sur les distances inter-éléments, leurs positions, etc... Elle se dit plus souple quant aux éventuelles modifications pouvant survenir : angle de prise de vue, inclinaison de la tête, etc... Viennent ensuite des techniques moins utilisées à l'heure actuelle, basée sur des réseaux neuronaux, sur des méthodes plus techniques et moins souples.

  • système et configuration des veines (vein pattern-scan): cette technique est habituellement combinée à une autre, comme l'étude de la géométrie de la main. Il s'agit ici d'analyser le dessin formé par le réseau des veines sur une partie du corps d'un individu (la main) pour en garder quelques points caractéristiques.



Caractéristiques comportementales :

Outre les caractéristiques physiques, un individu possède également plusieurs éléments liés à son comportement qui lui sont propres :

  • dynamique des frappes au clavier (keystroke-scan): les frappes au clavier sont influencées par plusieurs choses; tout d'abord, selon le texte que l'on tape et, de manière plus générale selon sa nature, on aura tendance à modifier sa façon de taper au clavier. C'est d'ailleurs un des moyens utilisés par certaines attaques (timing attacks) pour essayer d'inférer le contenu ou la nature du texte tapé de façon à remonter jusqu'à un mot de passe par exemple. Ces techniques sont assez satisfaisantes mais restent néanmoins statistiques.
    Ensuite, le facteur comportemental entre en jeu, et ce facteur va être -lui- différent pour chaque individu. Les facteurs sont à peu de chose près identiques à ceux évoqués précédement : ce sont les durées entre frappes, la fréquence des erreurs, durée de la frappe elle-même... La différence se situe plus au niveau de l'analyse, qui peut être soit statique et basée sur des réseaux neuronaux, soit dynamique et statistique (comparaison continuelle entre l'échantillon et la référence).

  • reconnaissance vocale (voice-scan): les données utilisées par la reconnaissance vocale proviennent à la fois de facteurs physiologiques et comportementaux. Ils ne sont en général pas imitables.

  • dynamique des signatures (signature-scan): ce type de biométrie est à l'heure actuelle peu utilisé mais ses défenseurs espèrent l'imposer assez rapidement pour des applications spécifiques (documents électroniques, rapports, contrats...). Le procédé est habituellement combiné à une palette graphique (ou équivalent) munie d'un stylo. Ce dispositif va mesurer plusieurs caractéristiques lors de la signature, tel que la vitesse, l'ordre des frappes, la pression et les accélérations, le temps total, etc... Bref tout ce qui peut permettre d'identifier une personne de la façon la plus sure possible quand on utilise une donnée aussi changeante que la signature.



Résumé et nouvelles techniques

Voici à titre indicatif le résultat d'une étude effectuée par une companie américaine, l'International Biometric Group (a New York based integration and consulting firm), présentant les différents citères pour chaque type de technique biométrique :


Légende :

  • Effort : effort requis pour l'utilisateur lors de la mesure.

  • Intrusiveness : décrit dans quelle mesure l'utilisateur perçoit le test comme intrusif.

  • Cost : coût de la technologie (lecteurs, capteurs, etc...)

  • Accuracy : efficacité de la méthode (capacité à identifier quelqu'un)

Il existe plusieurs techniques en cours de développement à l'heure actuelle; parmi celles-ci, citons la biométrie basée sur la géométrie de l'oreille, les odeurs, les pores de la peau et les tests ADN. Sur ce dernier point, il est interessant de souligner que le procédé peut se révéler menaçant tant au niveau de la vie privée des personnes, de leur liberté que des dérives informatiques éventuelles (et autres Big Brothers). En effet, même si cela dépend de la technique mise en oeuvre, le test ADN est quelquechose qui peut se révéler comme exact et sûr à 100%, autorisant des FRR et FAR nuls (c.f. plus bas). Il est également reconnu de façon universelle et permettrait très facilement d'effectuer des recoupements entre bases de données. Autrement dit, ce serait le moyen idéal pour "cataloguer" les personnes et détruire ainsi la vie privée que nous avons respectée jusqu'à présent. Le site de la CNIL est un passage incontournable pour ceux que cela intéresse.

Inconvénient de la biométrie : égalité vs similitude

La biométrie présente malheureusement un inconvénient majeur; en effet aucune des mesures utilisées ne se révèle être totalement exacte car il s'agit bien là d'une des caractéristique majeure de tout organisme vivant : on s'adapte à l'environnement, on vieillit, on subit des traumatismes plus ou moins importants, bref on évolue et les mesures changent.

Prenons le cas le plus simple, celui des empreintes digitales (mais on notera que la même chose s'applique à toute donnée physique). Suivant les cas, nous présentons plus ou moins de transpiration; la température des doigts est tout sauf régulière (en moyenne, de 8 à 10° Celsius au-dessus de la température ambiente). Il suffit de se couper pour présenter une anomalie dans le dessin de ses empreintes. Bref, dans la majorité des cas, la mesure retournera un résultat différent de la mesure initiale de référence. Or il faut pourtant bien réussir à se faire reconnaitre, et en réalité cela marchera dans la plupart des cas car le système autorise une marge d'erreur entre la mesure et la référence.

Le but de ce dispositif est simple : les fabricants ne recherchent nullement la sécurité absolue, ils veulent quelquechose qui fonctionne dans la pratique. Ils cherchent donc à diminuer le taux de faux rejets (False Rejection Rate, FRR), tout en maintenant un taux relativement bas de fausses acceptations (False Acceptation Rate, FAR). Explications : une FR est le fait de rejeter une personne autorisée en temps normal car sa mesure biométrique présente trop d'écart par rapport à la mesure de référence pour cette même personne. Un système fonctionnel aura un FRR le plus bas possible. D'autre part, une FA est le fait d'accepter une personne non-autorisée. Cela peut arriver si la personne a falsifié la donnée biométrique ou si la mesure la confond avec un autre personne. Un systême sûr aura un FAR le plus bas possible.

Dans la vie courante, les industriels cherchent principalement à avoir un compromis entre ces 2 taux, FRR et FAR, qui sont eux liés suivant une relation illustrée ici :




Ce graphe est purement démonstratif; delta représente la marge d'erreur autorisée par le système, variant de 0 à l'infini. Très succintement, on voit que plus la marge d'erreur autorisée est importante, plus le taux de fausses acceptations augmente, c'est-à-dire que l'on va accepter de plus en plus de personnes qui ne sont pas autorisées (et donc la sécurité du système diminue). Par contre on voit que le taux de rejet des personnes autorisées diminue également, ce qui rend le système plus fonctionnel et répond mieux aux attentes des utilisateurs. A l'autre extrémité, si l'on diminue la marge d'erreur acceptée par le procédé de mesure biométrique, les tendances des 2 taux sont inversées : on va de moins en moins accepter des individus essayant de frauder mais on va aussi, par la même occasion, avoir un taux de rejet sur des personnes autorisées qui sera trop important pour être toléré dans la plupart des cas. Le compromis habituel est de prendre la jonction des courbes, c'est à dire le point x où le couple (FAR, FRR) est minimal.

En conclusion, toute la biométrie peut se résumer pour les plus pessimistes à ce seul compromis qui fausse toute la confiance que l'on pourrait porter à cette technologie.

Example de vulnérabilité : le cas des empreintes digitales

Les empreintes digitales représentent sans aucun doute les données biométriques les plus courament utilisées. De fait, on trouve un grand nombre de produits disponibles sur le marché mais également beaucoup de travaux sur le sujet et de contrefaçons dans ce domaine. Nous allons voir quelques unes des techniques utilisées ainsi que la façon dont elles sont contournées. Attention, cette rubrique ne se veut pas exhaustive; d'une part, elle se base sur les technologies actuelles qui sont par nature variables et évolutives; et d'autre part son but est de sensibiliser le lecteur de manière générale plutôt que de le former à une quelconque technique.

Il convient tout d'abord de se procurer les données fondamentales de la mesure, c'est à dire les points caractéristiques de l'empreinte digitale que l'on veut contrefaire, en fabriquant un faux doigt (ou fine couche de silicone reproduisant la géométrie de doigt). Nous ne donnerons pas ici le mode opératoire, mais sachez qu'il est tout à fait possible et simple de créer un faux doigt à partir d'une simple empreinte (sur un verre par exemple, ou sur un clavier, une poignée, etc...). Ensuite, examinons les cas pour chaque type de capteur :

  • capteur de température : la fine couche de silicone ne fait varier la température que de 1 à 3° Celsius en moyenne, ce qui n'est pas détectable par les capteurs sous peine d'avoir une FRR trop élevée (surtout en extérieur).

  • capteur de battements cardiaques : la fine couche de silicone permet au capteur de fonctionner normalement. De plus, toute discrimination basée sur cette mesure est physiquement impossible et infaisable. Infaisable car dans le cas de sportifs par exemple, leur rythme cardiaque peut descendre jusqu'à 40 battements/minute, ce qui suppose une mesure durant plus de 4 secondes pour pouvoir évaluer la fréquence cardiaque. Impossible enfin car quoi de plus changeant qu'un rythme cardiaque? le moindre effort le modifie, ce qui le rend inutilisable dans notre cas.

  • capteur de conductivité : suivant le type de capteur, on estime la valeur normale pour la peau à 200 kOhms. Néanmoins, cette valeur sera de plusieurs MOhms pendant l'hiver (sec) pour descendre à quelques kOhms durant un été humide. Dans ces conditions, il est évident qu'un faux doigt pourra passer le test sans trop de soucis.

  • constante diélectrique relative : très succintement, cette constante identifie dans quelle mesure un matériau concentre les lignes électrostatiques de flux. Ici, le silicone sera rejeté puisque présentant une valeur par trop différente de celle de la peau. Or, il s'avère que la valeur de cette constante pour la peau se situe entre celle de l'eau (80) et celle de l'alcool (24). Autrement dit, il suffit d'enduire le faux doigt d'un mélange eau-alcool (80%/20% ou 90%/10%), de poser le doigt sur le capteur et d'attendre que l'alcool s'évapore. En effet, lorsque l'alcool s'évapore, la valeur de la constante va remonter vers celle de l'eau (de 24 à 80) et atteindre au passage celle de la peau. CQFD.

...

De manière générale, les faiblesses de ces systèmes ne se situent pas au niveau de la particularité physique sur laquelle ils reposent, mais bien sur la façon avec laquelle ils la mesurent, et la marge d'erreur qu'ils autorisent. Là encore, il convient de ne pas se laisser impressionner par une image illusoire de haute technologie - produit miracle.

Limites de cette technologie


  • les données biométriques ne devraient pas être utilisées seules pour de l'authentification forte car elles ne sont pas modifiables puisque par nature propres à chaque individu. On ne peut donc pas se permettre de se baser uniquement dessus, d'autant plus que nous avons vu qu'elles ne sont pas fiables à 100% (FAR/FRR). En règle générale, on préfèrera utiliser la biométrie dans le cadre d'un schéma d'identification plutôt que pour faire de l'authentification.

  • les données biométriques sont comparables à tout autre système de contrôle d'accès comme des mots de passe, etc..., car du point de vue du système informatique, ce ne sont rien d'autres que des séries de bits comme toute donnée. Autrement dit, la difficulté réside dans la contrefaçon de la caractéristique physique et biologique que l'on mesure, mais en aucun cas dans sa valeur numérisée (digitale).
    Prenons l'exemple de notre vieil ami, le login/mot de passe. Ce système est souvent décrit comme peu sûr car une des principales attaques consiste à épier les transactions durant un processus de login pour récupérer les données utiles et les rejouer. On voit que même dans le cas des techniques basées sur la biométrie, cela reste possible! A quoi bon se compliquer la tâche en essayant de reproduire une empreinte alors que l'on peut récupérer les données numérisées directement? Ou si l'on peut attaquer les bases de données contenant toutes les données biométriques de référence?



Conclusion

On retiendra plusieurs fait marquants concernant la biométrie :

  • il ne suffit pas de remplacer un login/mot de passe par une mesure de biométrie; il faut également repenser tout le système et sécuriser l'architecture complète.

  • il ne faut pas utiliser une mesure biométrique seule pour procéder à une authentification; on préfera la coupler avec une carte à puce, un token sécurisé (petit élément de stockage présentant une grande résistance aux attaques, même physiques), un mot de passe voire un OTP (c.f. article concernant les OTP).

  • on utilisera la biométrie de préférence pour les opérations d'identification plutôt que d'authentification.

  • enfin, perdons une fois pour toute cette image de technologie ultra sûre faussement propagée par les médias. La biométrie n'est nullement une "solution miracle et universelle"!

1   2   3   4

similaire:

L\Arttrust, la solution de certification et d'authentification des œuvres d'Art








Tous droits réservés. Copyright © 2016
contacts
p.21-bal.com