TECH ACTUS – un système de recommandation d’intelligence artificielle a demandé à Facebook des utilisateurs ayant regardé une vidéo de journal mettant en scène des hommes noirs s’ils “veulent continuer à voir des vidéos sur les primates”.
Facebook a répondu à BBC News en disant qu’il s’agissait d’une “erreur clairement inacceptable”, bloquant le système et lançant une enquête, “Nous nous excusons auprès de tous ceux qui ont pu voir ces recommandations offensantes”. Il s’agit de la dernière en date des nombreuses erreurs qui ont suscité des inquiétudes quant aux préjugés raciaux dans l’intelligence artificielle.
En 2015, l’application Google Photos a étiqueté des images de personnes noires comme étant des “gorilles”. L’entreprise s’est dite “choquée et sincèrement désolée”, bien que Wired ait rapporté en 2018 qu’elle avait simplement censuré les recherches de photos et les tags pour le mot “gorille”. Puis, en mai, Twitter a admis que son “algorithme de calage” avait utilisé un biais racial pour recadrer les aperçus d’images. Des études ont également montré des biais dans les algorithmes qui alimentent certains systèmes de reconnaissance faciale.
En 2020, Facebook a annoncé un nouveau “conseil de produit inclusif” – et une nouvelle équipe d’équité sur Instagram – qui vérifiera notamment si ses algorithmes présentent des biais raciaux. IBM, en revanche, préfère renoncer à une technologie de reconnaissance faciale “biaisée”. Google et les grandes entreprises technologiques seraient-elles “institutionnellement racistes” ? Probablement pas.
La recommandation “primate” était “une erreur algorithmique de Facebook” et ne reflétait pas le contenu de la vidéo ; un représentant a déclaré à BBC News. Mais Facebook lui-même a affirmé : Dès que nous avons réalisé que cela se produisait, nous avons immédiatement désactivé l’ensemble de la fonction de recommandation de sujets pour en rechercher la cause et éviter que cela ne se reproduise. Comme nous l’avons dit, bien que nous ayons amélioré notre IA, nous savons qu’elle n’est pas parfaite et que nous pouvons encore l’améliorer”, ont-ils admis.
Source : BBC News