TECH ACTUS – DeepNude: Une application qui prétendait pouvoir enlever numériquement les vêtements des photos de femmes pour créer de faux nus a été mise hors ligne par ses créatrices.
L’application Deepnude à 50 $ (40 £) a attiré l’attention et suscité les critiques à cause d’un article du site d’actualités tech Motherboard.
Un militant contre le prétendu porno vengeance a qualifié l’application de “terrifiante”.
Les développeurs ont maintenant supprimé le logiciel du Web, affirmant que le monde n’était pas prêt.
“La probabilité que les gens en abusent est trop élevée”, ont écrit les programmeurs dans un message sur leur fil Twitter. “Nous ne voulons pas gagner de l’argent de cette façon.”
Toute personne ayant acheté l’application obtiendrait un remboursement, ont-ils ajouté, ajoutant qu’aucune autre version de celle-ci ne serait disponible et retirant ainsi le droit de quiconque de l’utiliser.
Les développeurs ont également exhorté les personnes qui en avaient une copie à ne pas la partager, même si l’application fonctionnera toujours pour quiconque la possède.
Victimes de vengeance
L’équipe a déclaré que l’application avait été créée comme “divertissement” il y a quelques mois.
Ce travail de développement les a amenés à créer un site Web proposant les versions Windows et Linux de l’application. Le programme était disponible en deux versions: une version gratuite qui place de grands filigranes sur les images créées et une version payante qui place un petit “faux” timbre dans un coin.
Dans leur déclaration, les développeurs ont ajouté: “Honnêtement, l’application n’est pas géniale, elle ne fonctionne qu’avec des photos particulières.”
Malgré cela, l’intérêt suscité par l’histoire de la carte mère a conduit le site Web du propriétaire de l’application à un blocage alors que des personnes cherchaient à télécharger le logiciel. Les vidéos avec un visage profond pourraient «susciter» de violents troubles sociaux
Attaques sexuelles impliquant des applications de rencontres en hausse – chiffres de police
Deepfakes porn a de graves conséquences
S’adressant à la carte mère, Katelyn Bowden, fondatrice du groupe de campagne anti-vengeance porno Badass, a qualifié l’application de “terrifiante”.
“Désormais, n’importe qui peut se trouver victime de pornographie de vengeance sans avoir jamais pris de photo nue”, a-t-elle confié au site. “Cette technologie ne devrait pas être accessible au public.”
Le programme aurait utilisé des réseaux de neurones basés sur l’IA pour retirer les vêtements des images de femmes afin de produire des clichés nus réalistes.
Les réseaux ont été formés pour déterminer l’emplacement des vêtements dans une image, les masquer en faisant correspondre les tons chair, les éclairages et les ombres, puis en complétant les caractéristiques physiques estimées.
La technologie est similaire à celle utilisée pour créer ce que l’on appelle deepfakes, qui manipule la vidéo pour produire des clips réalistes et convaincants. Les premiers logiciels de deepfake ont été utilisés pour créer des clips pornographiques de célébrités.
Source: BBC