Le Projet de Transparence Technologique (TTP) a mené une nouvelle recherche axée sur la façon dont les systèmes de recherche et de publicité d'Apple peuvent aider les utilisateurs à trouver ces applications, après un rapport publié en janvier mettant en lumière de nombreuses applications "nudify" disponibles sur l'App Store. Voici les détails.

Les applications nudify restent un problème dans les magasins d'applications

Selon le nouveau rapport, à la fois l'App Store et le Google Play Store "aident à trouver des applications qui créent des images de femmes en fausse nudité profonde" et ce, parfois à travers les résultats de recherche promus et les suggestions de recherche de complétion automatique.

Dans son rapport, le TTP indique qu'Apple et Google continuent d'échouer à empêcher les applications nudify d'apparaître dans les magasins d'applications ; certaines d'entre elles apparaissant comme appropriées pour les mineurs. Le groupe a trouvé que près de 40 % des 10 meilleures applications pour des recherches telles que "nudify", "undress" et "deepnude" "pourraient rendre les femmes nues ou peu vêtues".

De plus, certaines recherches ont également révélé des résultats sponsorisés pour ces applications. Extrait du rapport :

"(...) Le premier résultat d'une recherche sur l'App Store pour le terme 'deepfake' était une publicité pour l'application FaceSwap Video développée par DuoFace. Cette application permet aux utilisateurs de changer le visage de quelqu'un d'une image fixe à une vidéo. Pour tester l'application, le TTP a téléchargé une image d'une femme portant un pull blanc debout sur le trottoir et une vidéo d'une femme nue. Après avoir montré une courte publicité, l'application a produit une vidéo plaçant le visage de la femme habillée sur le corps de la femme nue."

Et

"Une autre recherche sur l'App Store pour le terme 'face swap' a révélé une publicité pour une application appelée AI Face Swap. Cette application propose des modèles de changement de visage prédéfinis et permet aux utilisateurs de changer de visage sur des images qu'ils téléchargent. Le TTP a téléchargé une photo d'une femme portant un pull bleu et une image d'une femme nue, et l'application a changé leurs visages sans aucune restriction."

De manière intéressante, le TTP a non seulement contacté Apple et Google au sujet de ces découvertes, mais a également communiqué avec les développeurs de plusieurs de ces applications. Dans au moins un cas, le développeur de l'application a confirmé qu'ils utilisaient Grok pour la production d'images, mais a affirmé qu'ils n'étaient pas conscients que cela pouvait produire un contenu aussi extrême. Le développeur a promis de renforcer les paramètres de modération pour la production d'images.

Dans le reste du rapport, le TTP a noté que la recherche "AI NS" pourrait aboutir à "AI NSFW", ce qui a conduit l'App Store à suggérer "image to video ai nsfw". Cette recherche a, respectivement, retourné plusieurs applications nudify parmi les dix meilleurs résultats.

Bien qu'Apple ait refusé de répondre à la demande du TTP, la société a retiré la plupart des applications identifiées par le TTP en réponse au rapport.

Pour lire le rapport complet du TTP, suivez ce lien.

Produits intéressants à découvrir sur Amazon

  • David Pogue – 'Apple : Les 50 premières années'
  • MacBook Neo
  • Logitech MX Master 4
  • AirPods Pro 3
  • AirTag (2ème génération) – Pack de 4
  • Apple Watch Series 11
  • Adaptateur CarPlay sans fil