- Facebook a désactivé l’outil de recommandation dès que les équipes ont pris connaissance de l’erreur de son algorithme, qui a confondu des personnes noires avec des « primates ».
- Comment l’algorithme du réseau social, dont le laboratoire de recherche en intelligence artificielle (FAIR) est si réputé, a-t-il pu faire une telle erreur ?
- Florence Sèdes, professeure d’informatique à l’université de Toulouse et chercheuse à l’IRIT-CNRS, donne des pistes pour expliquer ce phénomène. Malheureusement, Facebook n’a pas donné plus d’informations au sujet de cette erreur.
Comment une telle situation peut-elle se produire en 2021 ? Un algorithme de recommandation de Facebook a
proposé à des internautes de voir d’autres « vidéos sur les primates » sous une vidéo du Daily Mail qui montrait des personnes noires. Révélée par The New York Times vendredi, cette recommandation d’une intelligence artificielle de Facebook provoque d’autant plus le malaise que la vidéo ne montre aucun singe. Vieille de plus d’un an, elle est intitulée « un homme blanc appelle les flics contre des hommes noirs à la marina ». Comment le réseau social au pouce levé connu mondialement pour son laboratoire de recherche en
intelligence artificielle (FAIR) et fort de plus de deux milliards d’utilisateurs, peut-il voir son algorithme commettre une telle erreur ?
Les algorithmes de reconnaissance faciale « sont majoritairement entraînés sur des photos d’hommes blancs : les erreurs seront donc plus nombreuses pour les femmes et les Noirs », écrit Juliette Duquesne dans L’humain au risque de l’intelligence artificielle (Presse du Châtelet) coécrit avec Pierre Rabhi. Le taux d’erreurs est 10 à 100 fois plus élevé pour les personnes originaires d’Afrique ou d’Asie de l’Est, selon une étude de National Institute of standards and technology publiée en 2019 citée dans l’ouvrage.
Un dataset de mauvaise qualité ?
Il faut dire que la reconnaissance faciale est assez sommaire : elle fonctionne sur une modélisation géométrique du visage. « Vous mettez une médiane sur le visage qui vous donne l’alignement des yeux, le nez, la bouche, décrit Florence Sèdes, professeure d’informatique à l’université de Toulouse et chercheuse à l’IRIT-CNRS, membre de Femmes et Science. Comme les algorithmes sont surtout entraînés sur des visages de type caucasien, ils ne sont pas très performants sur des visages de personnes noires. Tout comme en Chine, la technologie est moins efficace sur les visages d’Occidentaux.
« Il faut des données de qualité, des datasets éthiques, qui vont permettre de représenter les minorités au même titre que les autres. Ils permettent d’assurer qu’il y a autant de femmes, autant d’hommes, autant de personnes en situation de handicap… », explique Florence Sèdes. Plus on aura nourri l’algorithme de visages différents, moins elle sera susceptible de se tromper. Mais la qualité des données a un coût, évidemment.
Des erreurs de ce type sont communes en traitement de l’image. Un cookie confondu avec un chihuahua, un tigre des neiges pris pour un rocher. « C’est assez classique, on sait que ça ne marche pas si la base de données n’est pas représentative », observe la spécialiste de systèmes informatiques et de gestion des métadonnées. Cela dit, on pouvait imaginer que Facebook avait les moyens financiers et technologiques d’acquérir des datasets de qualité. En outre, dans cette histoire, il est étonnant que l’outil ait pu être mis en ligne sans correctif.
Un manque de tests sur le standard ?
« Quand on fait du développement informatique, on fait beaucoup de tests, explique Florence Sèdes. C’est comparable aux crashs tests des voitures ou des avions. Cette erreur aurait dû être testée par Facebook en interne. Ils auraient dû rencontrer ce problème en amont et le corriger avant qu’il n’apparaisse en ligne ». Quand l’internaute tombe sur un cookie à la place d’un chien, l’erreur est anecdotique. Confondre une personne noire avec un singe, « c’est très choquant. Et ce résultat prouve qu’à un moment donné les critères de reconnaissance faciale ne sont pas bons », conclut-elle.
Le réseau social de Mark Zuckerberg a-t-il entraîné son algorithme avec une base de données de mauvaise qualité ? N’a-t-il pas suffisamment testé son standard ? Contacté par 20 Minutes, Facebook ne donne pas d’explications. Selon la déclaration officielle transmise, « il s’agit clairement d’une erreur inacceptable (…) et la fonction de recommandation a été désactivée dès que nous avons pris connaissance du problème afin d’enquêter sur la cause et d’empêcher que cela ne se reproduise ».
Il s’agirait d’une erreur algorithmique qui ne reflétait pas le contenu de la publication du Daily Mail. « Bien que nous ayons apporté des améliorations à notre IA, nous savons qu’elle n’est pas parfaite et nous avons encore des progrès à faire », conclut la communication. On n’en saura pas plus sur les coulisses de cette recommandation malheureuse.
Source: Lire L’Article Complet