Jacky Alciné et son amie (source: Twitter)
Un utilisateur du service Google Photos, une application capable de détecter le contenu de clichés, s'est plaint d'avoir été identifié comme un gorille par le logiciel.
Les machines font des erreurs, mais certaines sont plus blessantes que d'autres. Jacky Alciné, un développeur américain, a eu une mauvaise surprise en voulant trier ses photos grâce à Google Photos. Le service, développé par Google, propose depuis quelques semaines une nouvelle fonctionnalité: il range les images en détectant automatiquement certains éléments, comme la présence d'un paysage, d'un animal ou d'un objet. Par exemple, le logiciel peut ranger des photos d'un chat dans un dossier «chat». Mais confronté à une photo de Jacky Alciné et une amie, deux personnes noires, Google Photos n'a pas détecté deux humains, mais des «gorilles». Indigné, le développeur américain s'est plaint sur Twitter. Google a très vite présenté ses excuses et a momentanément retiré la catégorie «gorille» de son application le temps de régler le problème. «C'est avec ce genre d'erreurs qu'on se rend compte à qui s'adresse ce service», a commenté Jacky Alciné.
Une technologie complexe et biaisée
Google Photos repose-t-il sur une technologie raciste? «Les technologies de reconnaissance faciale et d'intelligence artificielle sont complexes», relativise Loic Lecerf, PDG de l'entreprise SmartMeUp, qui produit des logiciels de reconnaissance faciale. Pour apprendre à une machine à distinguer un animal, un homme ou une voiture, on lui soumet un très grand nombre de photos afin qu'il y repère des caractéristiques communes et distinctives. Par exemple, à force de voir des clichés d'une voiture, l'ordinateur apprend qu'elle est généralement d'une forme rectangulaire. «Aux débuts de cette technologie, il suffisait de dessiner deux yeux et une bouche sur une main pour que l'ordinateur y reconnaisse un visage d'humain», s'amuse Loic Lecerf. «Aujourd'hui, ça c'est amélioré. Mais il se trouve que nous avons beaucoup de caractéristiques communes avec les animaux, ce qui peut tromper une machine.»
Jacky Alciné n'est pas le premier utilisateur victime de ces erreurs des machines. Sur Twitter, d'autres internautes ont remarqué les imprécisions de Google Photos, qui peut ranger des enfants ou des adultes, de plusieurs couleurs de peau, dans la catégorie «chien» ou «chat». «Une personne blanche victime de ce genre d'erreur n'ira peut-être pas se plaindre», estime Loic Lecerf. «Pour une personne noire, c'est beaucoup plus choquant, car cela lui évoque une situation de racisme qu'elle vit malheureusement tous les jours.»