Deepfakes et identité
L'Intelligence Artificielle IA, ou plutôt l'apprentissage profond (deep learning) permet de réaliser des attaques contre la reconnaissance faciale.
Il est intéressant de noter que la reconnaissance faciale utilise également de l'IA, ce qui a d'ailleurs permis d'améliorer grandement les performances des algorithmes.
Mais il est possible d'attaquer directement les algorithmes d'IA, car si l'IA est performante sur ce qu'elle a appris, elle présente également des défauts, elle n'a pas la science infuse.
On peut lui faire prendre des vessies pour des lanternes...
Pour réaliser ce genre d'attaque, il est quasiment indispensable d'avoir un accès illimité au bloc d'IA afin de pouvoir réaliser des essais et trouver les failles. Heureusement car cela limitera les attaques, mais bon, y avoir accès est souvent le cas.
Les chercheurs ont poussé le vice à faire la même chose avec du ruban adhésif coloré pour remplacer le bruit.
Et ils ont attaqué un logiciel qui reconnait les panneaux routiers, cette chose qui aide à la conduite sur nos voitures -qui bientôt conduiront toutes seules voilà qui va vous rassurer...
Application à la reconnaissance faciale
Comme on utilise de l'IA dans les logiciels de reconnaissance faciale, on n'échappe pas au même genre d'attaques.
Généralement, la reconnaissance faciale se fait au moins en deux étapes :
- On trouve le visage dans la scène
- On isole le visage et on procède à l'identification
La localisation d'un visage dans une scène s'est grandement amélioré avec les techniques d'IA. Et on peut aussi perturber la localisation de visage en ajoutant un peu de bruit "bien placé".
Du coup, le logiciel prend des sections d'image pour des visages, qui n'en sont pas, et ensuite la reconnaissance ne risque pas de marcher.
Devant toutes ces attaques et failles possibles, il est important d'étudier et mettre en place des contre-mesures.