Le Nouveau Paradigme

Le Nouveau Paradigme

Commencer à penser par soi même c'est déjà faire partie de la solution


La technologie de reconnaissance faciale est-elle raciste?

Publié par Le Nouveau Paradigme sur 2 Juillet 2015, 17:25pm

Catégories : #Société

Jacky Alciné et son amie (source: Twitter)

Jacky Alciné et son amie (source: Twitter)

Un utilisateur du service Google Photos, une application capable de détecter le contenu de clichés, s'est plaint d'avoir été identifié comme un gorille par le logiciel.

 
 

Les machines font des erreurs, mais certaines sont plus blessantes que d'autres. Jacky Alciné, un développeur américain, a eu une mauvaise surprise en voulant trier ses photos grâce à Google Photos. Le service, développé par Google, propose depuis quelques semaines une nouvelle fonctionnalité: il range les images en détectant automatiquement certains éléments, comme la présence d'un paysage, d'un animal ou d'un objet. Par exemple, le logiciel peut ranger des photos d'un chat dans un dossier «chat». Mais confronté à une photo de Jacky Alciné et une amie, deux personnes noires, Google Photos n'a pas détecté deux humains, mais des «gorilles». Indigné, le développeur américain s'est plaint sur Twitter. Google a très vite présenté ses excuses et a momentanément retiré la catégorie «gorille» de son application le temps de régler le problème. «C'est avec ce genre d'erreurs qu'on se rend compte à qui s'adresse ce service», a commenté Jacky Alciné.

 

Une technologie complexe et biaisée

Google Photos repose-t-il sur une technologie raciste? «Les technologies de reconnaissance faciale et d'intelligence artificielle sont complexes», relativise Loic Lecerf, PDG de l'entreprise SmartMeUp, qui produit des logiciels de reconnaissance faciale. Pour apprendre à une machine à distinguer un animal, un homme ou une voiture, on lui soumet un très grand nombre de photos afin qu'il y repère des caractéristiques communes et distinctives. Par exemple, à force de voir des clichés d'une voiture, l'ordinateur apprend qu'elle est généralement d'une forme rectangulaire. «Aux débuts de cette technologie, il suffisait de dessiner deux yeux et une bouche sur une main pour que l'ordinateur y reconnaisse un visage d'humain», s'amuse Loic Lecerf. «Aujourd'hui, ça c'est amélioré. Mais il se trouve que nous avons beaucoup de caractéristiques communes avec les animaux, ce qui peut tromper une machine.»

Jacky Alciné n'est pas le premier utilisateur victime de ces erreurs des machines. Sur Twitter, d'autres internautes ont remarqué les imprécisions de Google Photos, qui peut ranger des enfants ou des adultes, de plusieurs couleurs de peau, dans la catégorie «chien» ou «chat». «Une personne blanche victime de ce genre d'erreur n'ira peut-être pas se plaindre», estime Loic Lecerf. «Pour une personne noire, c'est beaucoup plus choquant, car cela lui évoque une situation de racisme qu'elle vit malheureusement tous les jours.»

http://www.lefigaro.fr

Commenter cet article

Gabriel 03/07/2015 10:17

Les afro-américains ne sont pas les seuls victimes de ce genre d'analyses automatique. Prenez l'ancien ministre Raffarin, lui, ce n'est pas le gorille, mais un autre singe : le nasique.

anckou 02/07/2015 22:38

le mieux c'est de ne pas se servire de ce genre de gadgets inutiles et invasifs

rom1 03/07/2015 00:17

tout est dit!!!!!!!! POUR MOI!!! c'est se qui causera notre perte...

pascal 02/07/2015 23:47

inutiles et invasifs exactement

Nous sommes sociaux !

Articles récents